全球首个开源多模态医疗基础模型:人工打分平均超越GPT-4V、支持2D/3D放射影像
机器之心专栏
机器之心编辑部
本文中,上海交大 & 上海 AI Lab 发布 Radiology Foundation Model (RadFM),开源 14B 多模态医疗基础模型,首次支持 2D/3D 放射影像输入。
论文链接:https://arxiv.org/abs/2308.02463 代码链接:https://github.com/chaoyi-wu/RadFM PMC-Inline Dataset: https://huggingface.co/datasets/chaoyi-wu/PMC-Inline PMC-Casereport Dataset: https://huggingface.co/datasets/chaoyi-wu/PMC-CaseReport Huggingface Model: https://huggingface.co/chaoyi-wu/RadFM
缺乏用于训练的多模态数据集:由于医学本身的特殊性,医疗任务通常需要处理多模态数据,包括文本信息(电子健康记录,医学报告)、1D 信号(心电图)、2D 影像(超声、X 射线)、3D 影像(CT 或 MRI 扫描)、基因组学等。为了支持医学通用基础模型的训练,大规模多模态数据集的构建十分迫切。 缺乏通用的架构设计:在临床医疗诊断中,常常需要综合考虑多个检查结果来做出全面判断,然而,以往的医疗影像分析工作通常只专注于单一模态和单一任务,需要为每个任务设计不同的架构,难以适应临床综合诊断的需求。医学领域的基础模型需要一个通用的架构,能够有效融合不同模态的信息,从而应对广泛的临床任务。 缺乏有效的基准来评估模型:对模型的临床知识进行基准测试主要依赖于多种任务的数据集,而这些数据集的测试案例数量有限。目前医疗领域尚未建立一个大规模、复杂的基准,可以用于全面衡量医学基础模型在中医疗任务上的性能。
数据上:提供了全新的目前世界上最大规模的医疗多模态数据集 MedMD&RadMD,是首个包含 3D 数据的大规模医疗多模态数据集,含 15.5M 2D 图像和 180k 的 3D 医疗影像。 模型上:开源了 14B 多模态基础模型 RadFM,支持 2D/3D、图像 / 文本混合输入。 测试上:定义了医疗基础模型五大基本任务 —— 模态识别、疾病诊断、医疗问答、报告生成和归因分析,并提供了一个全面的基准——RadBench。
支持三维数据:在实际临床环境中,CT 和 MRI 被广泛使用,大多数疾病的诊断在很大程度上依赖于它们。RadFM 的模型设计能够处理真实的临床成像数据。 多图像输入:合诊断通常需要输入来自各种模态的多影像作为输入,有时甚至需要历史放射图像,因此支持多图像输入 RadFM 能够很好的满足此类临床需求。 交错数据格式:在临床实践中,图像分析通常需要了解患者的病史或背景。交错数据格式允许用户自由输入额外的图像背景信息,确保模型能结合多源信息完成复杂的临床决策任务。
模型绝对性能。虽然 RadFM 大幅超越了旧有基础模型,但多模态基础模型在零样本情况下的文本生成质量仍未能满足临床医生的期望水平。 3D 数据缺乏。比较于 2D 数据易于收集,在真实临床中广泛使用的 3D 数据在目前医学数据库中仍旧只是少数。 评测指标模糊。目前存在一个缺乏令人信服的医学文本质量比对评测指标的问题。传统的翻译指标在医疗场景下几乎失去了意义。例如,对于「病人有肺炎」和「病人无肺炎」两句话,在传统指标下可能获得极高的分数,但这种差异在医疗场景中是不可接受的。相反,「在肺部见肺炎影像特征」与「病人有肺炎」这两句信息几乎一致的话语,在现有指标下反而可能呈现较低的分数。因此,急需建立更符合医学实际需求的评测标准。
© THE END
转载请联系本公众号获得授权
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章