由怀疑手术刀

对于医学领域的人工智能来说,7月是一个有趣的月份。

麻省理工学院的一项研究发现,当人类医生要求对病人进行测试时,他们会考虑人工智能目前还没有意识到的一些因素。作者分析了波士顿贝斯以色列女执事医疗中心(Beth Israel Deaconess Medical Center)约6万名ICU患者的病历。

通过查看医生在病人记录中带有积极或消极情绪的病程记录,他们得到了分数,并将分数与订购的诊断性成像检查的数量相关联。在控制了其他因素的情况下,医疗数据本身并不能决定检查的顺序,但医生的情绪可以预测需要做多少检查。

悲观的医生一开始要求做更多的检查,但后来当病人的病情被认为非常负面时,他们就要求做更少的检查。

该研究得出结论,“直觉”或直觉对要求进行的测试数量有很大影响。该研究的一位作者说,“这种直觉可能是由医生的经验历史决定的。”他把它比作母亲看到做错事的孩子时的感觉。麻省理工学院的研究人员正在思考如何让计算机拥有直觉,但在这一点上,人工智能还没有被编程来使用这种智慧。

浏览最新消息和更新

人工智能受到了另一个打击,Stat News的人对IBM的沃森肿瘤进行了深入的报道。似乎沃森接受的是纽约纪念斯隆凯特琳癌症中心(Memorial Sloan Kettering Cancer Center)的医生和其他人的假设病例训练,而不是使用该中心大量癌症患者的“大数据”。

一位曾在IBM工作并帮助运行该项目的肿瘤学家在公司的演讲中概述了该项目的问题。他说,对治疗的建议是基于少数肿瘤医生的意见,而不是指南或证据。在一个例子中,沃森建议用一种带有黑盒子警告的药物来治疗一个模拟的肺癌和出血患者,警告说使用这种药物会导致大出血。没有真正的病人接受过这种药物的治疗。

IBM还没有公开透露沃森在肿瘤学方面的任何问题,并声称它“进展神妙”。IBM Watson Health的一位高管说,医生们喜欢这个项目。然而,Stat的这篇文章引用了佛罗里达州朱庇特医院一位医生的话说:“这款产品就是一坨屎”,并补充说它在大多数情况下都无法使用。

我的直觉是,我们医生应该还能再干几年。

Skeptical Scalpel是一位退休外科医生,曾担任外科系主任和住院医师项目主任多年。他获得了普通外科和外科副专科的董事会认证,并多次获得这两项认证。在过去的8年里,他一直在写博客SkepticalScalpel.blogspot.com和微博@SkepticScalpel.他的博客有超过300万的页面浏览量,他在Twitter上有超过1.8万名粉丝。