人工智能够为患者治疗提供帮助,医生使用AI进行诊断,这一概念属于医学研究领域。
常见的打字错误和人类语言可能使人工智能的医疗诊断陷入困境。麻省理工学院的一项新研究表明,如果病历中包含拼写错误、多余的空格或俚语,人工智能程序更有可能建议人们自行护理。这些错误更有可能改变AI对女性患者的治疗建议。
性别参考或俚语的使用也可能导致AI的治疗建议出错,研究人员指出。这些人为错误或语言选择增加了AI推荐患者自我管理健康问题的可能性,而非寻求专业医疗帮助,研究结果表明。
“这些模型通常是在结构化良好的医疗问题上进行训练和测试的,但在实际应用时,任务却远非如此,例如评估临床病例的严重程度。”主要研究人员阿比尼思·古拉巴辛哈说道。她是麻省理工学院电气工程与计算机科学系的研究生,位于剑桥市,马萨诸塞州。
为了进一步探索这一问题,研究人员调整了患者记录,包括交换性别提示或插入额外的空格和俚语,然后将其输入AI系统。他们惊讶地发现,简单的格式错误引发了AI响应的重大变化。
研究人员还发现,使用诸如“哇”或“真的”之类的夸张语言对AI的影响最大。即使在移除所有性别提示后,AI仍倾向于建议女性患者自行护理,而不是前往诊所就诊,这表明AI模型存在潜在的性别偏见。
尽管AI保留了所有的临床数据,如处方药和先前的诊断信息,但添加反映人们真实打字习惯的语言显著改变了AI的决策方式。
当这些被修改或“扰动”的数据被输入四种不同的AI系统时,它们有67%到87%的几率更倾向于推荐患者自行护理,结果表明。
此外,AI模型对女性患者的错误判断率高出约6%,并且更有可能建议她们在家管理健康问题,即使研究人员删除了所有的性别提示。
研究人员计划通过测试更能模仿真实患者信息的记录来继续他们的工作。他们还希望研究AI程序如何从临床测试中推断性别,并强调需要更透明和公平的AI设计。
AI在医疗保健领域的应用仍有很长的路要走,研究人员表示。“我们的研究突显了当前AI技术的局限性,特别是在处理多样化和复杂的真实世界数据时。”古拉巴辛哈总结道。
(全文结束)


