开放的人工智能模型有望变革医疗保健行业 - AI News
开放的人工智能模型有望变革医疗保健行业

开放的人工智能模型有望变革医疗保健行业

2025-07-10

新闻要点

Google 将开放 MedGemma 等 AI 模型给医疗开发者,这些模型能处理多种医疗信息,性能佳且成本低。医院、药企等已在测试应用,此举还能满足医疗领域特殊需求,有望变革医疗行业。

- MedGemma 27B 性能佳 运行成本约为十分之一

- MedGemma 4B 得分 64.4% 报告准确率 81%

- MedSigLIP 4 亿参数 可建立图像与文本联系

- 多地机构测试应用 Google 医疗 AI 模型

主要内容

谷歌不再将其新的 MedGemma AI 模型锁在昂贵的 API 背后,而是将这些强大的工具交给医疗保健开发者。新推出的模型名为 MedGemma 27B 多模态和 MedSigLIP,它们是谷歌不断增长的开源医疗保健 AI 模型集合的一部分。

这些模型的特别之处不仅在于其技术实力,还在于医院、研究人员和开发者可以下载、修改并按自己的意愿运行它们。谷歌的 AI 满足实际医疗保健需求:旗舰 MedGemma 27B 模型不仅能像以前的版本那样读取医疗文本,还能“查看”医疗图像并理解其所见内容。无论是胸部 X 光片、病理切片还是可能跨越数月或数年的患者记录,它都能将所有这些信息一起处理,就像医生一样。性能数据令人印象深刻。在 MedQA(标准医疗知识基准)测试中,27B 文本模型得分 87.7%。这使其与更大、更昂贵的模型差距很小,而运行成本却约为十分之一。对于资金紧张的医疗保健系统来说,这可能具有变革性。

较小的 MedGemma 4B 模型虽然规模较小,但也不逊色。尽管按现代 AI 标准很小,但在相同测试中得分 64.4%,使其在同类型中表现出色。更重要的是,当美国获得董事会认证的放射科医生审查其撰写的胸部 X 光报告时,他们认为 81%的准确性足以指导实际的患者护理。

MedSigLIP:轻量级的强大力量:除了这些生成式 AI 模型,谷歌还发布了 MedSigLIP。仅 4 亿个参数,与当今的 AI 巨头相比几乎微不足道,但它经过专门训练,能够以通用模型无法做到的方式理解医疗图像。这个小而强大的模型已接受胸部 X 光片、组织样本、皮肤状况照片和眼部扫描的训练。结果是,它既能在医疗环境中发现重要的模式和特征,又能完美处理日常图像。MedSigLIP 在图像和文本之间架起了一座桥梁。给它展示一张胸部 X 光片,让它在数据库中找到类似的病例,它不仅能理解视觉相似性,还能理解医疗意义。

医疗保健专业人员正在使用谷歌的 AI 模型:任何 AI 工具的证明在于实际专业人员是否愿意使用它。早期报告表明,医生和医疗保健公司对这些模型的功能感到兴奋。马萨诸塞州的 DeepHealth 一直在测试 MedSigLIP 进行胸部 X 光分析。他们发现它有助于发现可能被遗漏的潜在问题,为工作过度的放射科医生提供了一个安全网。与此同时,台湾长庚纪念医院的研究人员发现,MedGemma 能与传统中医文本配合使用,并以高准确性回答员工的问题。印度的 Tap Health 强调了 MedGemma 可靠性的一个关键方面。与可能会虚构医疗事实的通用 AI 不同,MedGemma 似乎理解临床背景何时重要。这是听起来像医疗的聊天机器人和实际具有医疗思维的聊天机器人之间的区别。

在医疗保健领域开源 AI 模型为何至关重要:除了慷慨之外,谷歌决定开源这些模型也是出于战略考虑。医疗保健有独特的需求,标准 AI 服务并不总能满足。医院需要知道他们的患者数据不会离开其场所。研究机构需要不会突然无预警改变行为的模型。开发者需要自由地针对非常特定的医疗任务进行微调。通过开源 AI 模型,谷歌解决了医疗保健部署中的这些担忧。医院可以在自己的服务器上运行 MedGemma,根据自己的特定需求进行修改,并相信它在一段时间内会保持一致的行为。对于医疗应用程序来说,这是一个巨大的优势。