Redian新闻
>
全球首个开源多模态医疗基础模型:人工打分平均超越GPT-4V、支持2D/3D放射影像

全球首个开源多模态医疗基础模型:人工打分平均超越GPT-4V、支持2D/3D放射影像

公众号新闻

机器之心专栏

机器之心编辑部

本文中,上海交大 & 上海 AI Lab 发布 Radiology Foundation Model (RadFM),开源 14B 多模态医疗基础模型,首次支持 2D/3D 放射影像输入。


  • 论文链接:https://arxiv.org/abs/2308.02463
  • 代码链接:https://github.com/chaoyi-wu/RadFM
  • PMC-Inline Dataset:  https://huggingface.co/datasets/chaoyi-wu/PMC-Inline
  • PMC-Casereport Dataset:  https://huggingface.co/datasets/chaoyi-wu/PMC-CaseReport
  • Huggingface Model: https://huggingface.co/chaoyi-wu/RadFM

研究背景

GPT4 等一系列大型基础模型的迅猛发展突破了人工智能技术的边界,为众多垂直领域带来了新的发展机遇和挑战。在医学领域,构建强大而全面的基础模型,可以为临床医疗任务提供更为智能、高效的解决方案,为医护人员和患者创造更为优质的医疗体验,开启医学领域技术创新的新篇章。

然而,当前医学领域的基础模型的构建往往面临着三个方面的挑战:

  • 缺乏用于训练的多模态数据集:由于医学本身的特殊性,医疗任务通常需要处理多模态数据,包括文本信息(电子健康记录,医学报告)、1D 信号(心电图)、2D 影像(超声、X 射线)、3D 影像(CT 或 MRI 扫描)、基因组学等。为了支持医学通用基础模型的训练,大规模多模态数据集的构建十分迫切。
  • 缺乏通用的架构设计:在临床医疗诊断中,常常需要综合考虑多个检查结果来做出全面判断,然而,以往的医疗影像分析工作通常只专注于单一模态和单一任务,需要为每个任务设计不同的架构,难以适应临床综合诊断的需求。医学领域的基础模型需要一个通用的架构,能够有效融合不同模态的信息,从而应对广泛的临床任务。
  • 缺乏有效的基准来评估模型:对模型的临床知识进行基准测试主要依赖于多种任务的数据集,而这些数据集的测试案例数量有限。目前医疗领域尚未建立一个大规模、复杂的基准,可以用于全面衡量医学基础模型在中医疗任务上的性能。

考虑到上述挑战,研究团队聚焦于构建放射学领域的医学通用基础模型。放射学领域的图像模态种类丰富,影像与报告配对数据也相对较多,且放射学在临床场景中的应用也十分广泛,例如疾病诊断、治疗规划和患者进展监测等等。具体来说,该论文做出了如下技术贡献:

  • 数据上:提供了全新的目前世界上最大规模的医疗多模态数据集 MedMD&RadMD,是首个包含 3D 数据的大规模医疗多模态数据集,含 15.5M 2D 图像和 180k 的 3D 医疗影像。
  • 模型上:开源了 14B 多模态基础模型 RadFM,支持 2D/3D、图像 / 文本混合输入。
  • 测试上:定义了医疗基础模型五大基本任务 —— 模态识别、疾病诊断、医疗问答、报告生成和归因分析,并提供了一个全面的基准——RadBench。

临床价值

本文提出的基础模型 RadFM 具有巨大的临床应用意义:

  • 支持三维数据:在实际临床环境中,CT 和 MRI 被广泛使用,大多数疾病的诊断在很大程度上依赖于它们。RadFM 的模型设计能够处理真实的临床成像数据。
  • 多图像输入:合诊断通常需要输入来自各种模态的多影像作为输入,有时甚至需要历史放射图像,因此支持多图像输入 RadFM 能够很好的满足此类临床需求。
  • 交错数据格式:在临床实践中,图像分析通常需要了解患者的病史或背景。交错数据格式允许用户自由输入额外的图像背景信息,确保模型能结合多源信息完成复杂的临床决策任务。

与现有的所有医学基础模型相比,RadFM 是第一个同时满足上述三点要求的模型,对医疗基础模型投入实际临床应用具有巨大推动作用。

接下来将从数据、模型、测试三个角度具体介绍原文细节:

多模态数据 MedMD&RadMD

研究团队构建了一个当前最大规模的医疗多模态数据集 MedMD,是目前首个包含 3D 数据的大规模医疗多模态数据集,包含 15.5M 2D 图像和 180k 的 3D 医疗影像,也并附带文本描述,例如放射学报告、视觉语言指令或相对应的疾病诊断标签。

MedMD 涵盖了人体各种放射学模态和解剖区域,横跨 17 个医疗系统,如乳腺、心脏、中枢神经系统、胸部、胃肠道、妇科、血液、头颈部、肝胆、肌肉骨骼、产科、肿瘤、儿科、脊柱、创伤、泌尿和血管,包含超过 5000 种疾病,如下图 1、2、3 所示。此外,研究团队还基于 MedMD, 给出了一个放射学多模态数据集 RadMD。

图 1: MedMD 数据样例展示

图 2: MedMD 各部分数据构成展示

图 3: RadMD 上模态、2D/3D、Anatomy 分布展示

模型架构 RadFM

RadFM 是一个多模态的放射学基础模型,能够将自然语言无缝地与 2D 或 3D 医学扫描相结合,并通过文本输出来解决广泛的医学任务。模型架构如下图 4 所示,研究团队首先在 MedMD 数据集上对该模型进行了预训练,然后在一个经过筛选的数据集 RadMD 上进行视觉指令微调。RadMD 包含 3M 对放射学相关的多模态数据,确保了针对特定领域的微调过程中数据集的高质量和可靠性。

图 4: RadFM 模型架构。RadFM 首先在大规模的数据集 MedMD 上进行 Pre-training 然后在 RadMD 上进行领域适配。在模型架构上,RadFM 首次支持了 2D 和 3D 自由混合,文本和图像自由混合的输入形式。

测试基准 RadBench

为了更好的评估放射学基础模型的性能,研究团队建立了一个全新的、综合性的评估基准,涵盖了五大临床放射任务 —— 模态识别、疾病诊断、医疗问答、报告生成和诊断归因。并与最新的开源多模态模型进行了比较,例如 Med-flamingo(斯坦福团队)和 MedVInT(上海交大 & 上海人工智能实验室)。

模型结果

RadBench 上自动评测与人工打分

研究团队优先考虑了自动的评测指标进行了大规模的比较,另外,考虑到生成任务自动指标不可靠的问题,进一步引入了人工打分。在人工打分上,研究团队还与 OpenAI 发布的 GPT-4V(ision)进行了比较,平均分数超越 GPT-4V,结果如图 5、6 所示。

图 5:RadFM 在多个任务上与现有多模态医疗模型的对比,右下为人工打分(5 分制)比较

图 6 RadFM 与各大多模态基础模型的在五大任务上的对比

图 7 人工打分系统样例展示

RadFM 结果可视化

图 9-10 展示了 RadFM 在 Medical VQA 医疗视觉问答任务,放射报告生成任务以及推理诊断任务上的结果。从图中可以看出,该模型能够准确判断图像对应的解剖部位。然而,在具体的异常判断方面,仍然存在一些改进的空间。当模型能够提供正确的影像学特征的情况下,模型的诊断结果也会更加准确,证明了推理诊断的必要性。

图 8: RadFM 在 Medical VQA 任务上的性能展示

图 9:RadFM 在报告生成上的性能展示

图 10:RadFM 在诊断归因上的性能展示

RadFM 的迁移性

另外在各大公开的不同任务、不同模态(2D/3D)的 benchmark 上, RadFM 也展示了强大的可迁移性,在多个数据集上超越了现有的 SOTA 模型,结果如图 11:

图 11:RadFM 在各大 benchmark 上与 SOTA 的对比

最后 RadFM 还涌现出了对于未见疾病的诊断能力,如图 12 所示:

图 12:RadFM 在 PadChest 上对于未见类直接诊断的结果,其他多模态基础模型都只能取得随机的预测结果(0.5 ACC)

局限性

当前医学基础模型的发展尽管取得了显著进展,却仍存在多方面的局限性,本文作者提出了如下几点方向:

  1. 模型绝对性能。虽然 RadFM 大幅超越了旧有基础模型,但多模态基础模型在零样本情况下的文本生成质量仍未能满足临床医生的期望水平。
  2. 3D 数据缺乏。比较于 2D 数据易于收集,在真实临床中广泛使用的 3D 数据在目前医学数据库中仍旧只是少数。
  3. 评测指标模糊。目前存在一个缺乏令人信服的医学文本质量比对评测指标的问题。传统的翻译指标在医疗场景下几乎失去了意义。例如,对于「病人有肺炎」和「病人无肺炎」两句话,在传统指标下可能获得极高的分数,但这种差异在医疗场景中是不可接受的。相反,「在肺部见肺炎影像特征」与「病人有肺炎」这两句信息几乎一致的话语,在现有指标下反而可能呈现较低的分数。因此,急需建立更符合医学实际需求的评测标准。

总结

在当前的医疗领域,已经陆续涌现了一些多模态的基础模型,例如微软的 LLaVA-Med 和谷歌的 Med-PaLM M,包括最新的 Med Flamingo。然而,这些模型都还是受限于 2D 的图像输入,且其中只有最新的 Med Flamingo 可以支持交错的图文输入。在医疗领域中,常见的诊疗影像往往是 3D 的图像,同时,诊疗任务通常需要综合多张图像来作出准确判断。

为了解决上述问题,研究团队决定将重点放在放射影像领域,提出模型 RadFM,允许同时处理 2D 和 3D 多模态的医疗数据,例如 CT、MRI 等。而且,该模型能够综合处理多张相关影像,提供更全面和准确的信息,有望在诊断和治疗等方面取得更好的效果。同时,针对模型的评估,研究团队综合了多个挑战性的任务提出了一个新的 benchmark 以及更科学的医疗任务评测指标,以此为参考,不断优化数据与模型,欢迎大家持续关注。

完整论文目录:



© THE END 

转载请联系本公众号获得授权

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
第三個奶頭GPT-4完成正确率仅6%!北大等提出首个「多轮、多模态」PPT任务完成基准PPTC用AI评估AI,上交大新款大模型部分任务超越GPT-4,模型数据都开源美国的屠呦呦--诺贝尔奖获得者卡里科的美国梦《魅羽活佛》第353章 说唱之王讯飞星火:整体超越ChatGPT,医疗超越GPT4!一手实测在此AI搞定谷歌验证码,最新多模态大模型比GPT-4V空间理解更准确 | 苹果AI/ML团队清华团队攻破GPT-4V、谷歌Bard等模型,商用多模态大模型也脆弱?年轻人的第一个多模态大模型:1080Ti轻松运行,已开源在线可玩AI早知道|ChatGPT模型大更新;阿里云发布多模态大模型;百度推多模态模型UNIMO-GGPT-4V多模态能力惊人!公式截图直出代码,「龙与魔法世界」瞬间生成,OpenAI总裁激动转发零一万物发布Yi-VL多模态语言模型并开源,测评仅次于GPT-4V腾讯发表多模态大模型最新综述,从26个主流大模型看多模态效果提升关键方法超越同级7B模型! 中国团队开源大规模高质量图文数据集ShareGPT4V,大幅提升多模态性能对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4独家 | GPT-4、Midjourney之外,谭平创业团队要造一个3D基础模型​AAAI 2024 | 首个多模态实体集扩展数据集MESED和多模态模型MultiExpanGPT-4 Turbo更强更便宜,GPTs、GPT商店最大亮点,这是OpenAI首个开发者日首个!SpectralGPT:光谱遥感基础模型112页报告深挖GPT-4V!UCLA等发布全新「多模态数学推理」基准MathVistaGPT-4V只能排第二!华科大等发布多模态大模型新基准:五大任务14个模型全面测评刚刚开源!中科大提出利用GPT4-V构建大规模高质量图文数据集ShareGPT4V,助力模型霸榜多项多模态榜单!挑战GPT-4V!清华唐杰&智谱开源多模态14边形战士,在线可玩UC伯克利团队开源MemGPT大模型上下文内存管理方案;AgentLM、多模态Fuyu-8B、数学LLEMMA等专用大模型开源最强开源多模态生成模型MM-Interleaved:首创特征同步器UC伯克利等发布多模态基础模型CoDi-2;谷歌DeepMind利用AI工具发现200万种新材料丨AIGC日报思谋进博会首秀:发布全球首个工业多模态大模型,现场与松下、江森自控签署全面战略合作GPT-4V开源平替!清华浙大领衔,LLaVA、CogAgent等开源视觉模型大爆发挑战GPT-4V,浙大校友推出开源版多模态大模型,获GitHub 6k+星标家,女人修行的道场(加建中式厨房 – 4)正面硬刚GPT-4V!浙大校友开源多模态大模型LLaVA-1.5,130亿参数8个A100一天训完清华系ChatGLM3现场怼脸演示!多模态直逼GPT-4V,国产Code Interpreter来了美:与超级大国中俄过招阿里云中标9亿AI算力大单;浙大校友开源LLaVA-1.5多模态大模型;Meta因开源模型遭抗议丨AIGC大事日报MiniGPT-4升级到MiniGPT-v2了,不用GPT-4照样完成多模态任务
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。