主要内容
一位在 Reddit 上的发帖者,因拳击受伤导致下巴疼痛并伴有咔哒声,忍受了五年。他们看过专科医生,做过 MRI,但没人能给出解决办法,直到向 ChatGPT 描述了这个问题。这个 AI 聊天机器人指出可能是特定的下颌对齐问题,并提供了一种涉及舌头放置的治疗技术。该人士尝试后,咔哒声停止了。4 月,他们在 Reddit 上写道:“忍受了五年后,这个 AI 一分钟内就给了我解决办法。”这个故事迅速传播开来,LinkedIn 联合创始人里德·霍夫曼在 X 上分享了它。这并非孤例:类似的故事在社交媒体上泛滥——患者声称从大型语言模型获得了对其 MRI 扫描或 X 光的准确评估。考特尼·霍夫曼的儿子患有罕见的神经系统疾病。三年来看了 17 次医生仍未得到诊断,她将所有的医疗文件、扫描和笔记都给了 ChatGPT。它给了她一个答案——脊髓栓系综合征,即脊髓因附着在脊柱周围的组织而无法自由移动——她说治疗她儿子的医生都错过了。“从我使用 ChatGPT 开始的六周后他做了手术,他现在像个新孩子,”她在 2024 年 11 月告诉《新英格兰医学杂志》的一个播客。对消费者友好的 AI 工具正在改变人们寻求医疗建议的方式,包括症状和诊断。“谷歌医生”时代正在让位于“ChatGPT 医生”时代。医学院、医生、患者群体和聊天机器人的创造者都在竞相跟上,试图确定这些大型语言模型的医疗答案有多准确,患者和医生应如何最好地使用它们,以及如何应对被给予错误信息的患者。“我非常有信心这将改善患者的医疗保健,”哈佛医学院讲师、执业医生亚当·罗德曼说。“你可以想象人们可以通过多种方式与大型语言模型交流,这些方式可能与他们自己的医疗记录相关。”罗德曼已经在自己的医院巡视中看到患者求助于 AI 聊天机器人。在最近的一次轮班中,他在照顾十多名患者时,一名因等待时间长而感到沮丧的女性截取了她的医疗记录截图并将其输入到一个 AI 聊天机器人中。“她就像,‘我已经问过 ChatGPT 了,’”罗德曼说,它给了她关于她病情的正确答案,一种血液疾病。罗德曼并没有被这次交流打扰。作为该技术的早期采用者和指导哈佛医学院课程中生成式 AI 使用的小组主席,他认为 AI 有潜力为医生和患者提供更好的信息并改善他们的互动。“我将此视为与患者再次交流他们所担心的事情的机会,”他说。这里的关键词是潜力。多项研究表明,在某些情况下,AI 能够提供准确的医疗建议和诊断,但当这些工具被交到人们手中——无论是医生还是患者——时,准确性往往会下降。用户可能会犯错——比如没有向 AI 提供所有症状,或者在收到反馈时丢弃正确信息。例如,研究人员给医生一组患者病例,要求他们估计患者患有不同疾病的可能性——首先基于患者的症状和病史,然后在看到实验室结果后再次估计。一组可以获得 AI 辅助,而另一组则不能。两组在诊断推理测试中的表现相似,该测试不仅关注诊断的准确性,还关注他们如何解释推理、考虑替代方案并提出下一步建议。AI 辅助组的诊断推理中位数得分为 76%,而仅使用标准资源的组得分为 74%。但当 AI 单独测试时——没有任何人类输入——它的得分要高得多。