根据AI平台Pearl.com发布的最新报告,超过五分之一(22%)的美国人承认曾采纳人工智能提供的医疗建议,但这些建议事后被证明是错误的。
核心问题
人工智能系统的快速普及正在深刻改变美国人接触医疗信息的方式。尽管AI在提升工作效率方面展现价值,但将其作为唯一医疗决策依据可能引发伦理争议,错误建议甚至可能直接损害健康。
关键发现
在2000名美国消费者参与的调查中,22%受访者表示会优先通过AI而非医生解决健康问题。值得注意的是,23%受访者认为AI比人类医疗工作者更值得信赖,22%曾实施过错误的AI医疗建议,19%因此造成实际经济损失。
令人震惊的是,10%的受访者表示会优先选择AI推荐的癌症治疗方案而非医生建议。Pearl.com创始人安迪·库尔齐格(Andy Kurtzig)指出:"成本和距离正在将数百万美国人排除在专业医疗之外,但依赖AI进行医疗决策无异于危险赌博。"
专家观点
哈佛医学院医师阿南特·文贾穆里(Anant Vinjamoori)强调:"通用型AI虽然表现自信,但其建议多为宽泛结论,难以处理个体化医疗语境。"他同时承认当前医疗AI已能解答多数医疗问题,但缺乏个性化诊疗能力。
世界优质健康联合创始人库马尔·达尔马拉詹(Kumar Dharmarajan)认为:"AI在24/7即时提供标准化医疗指导方面具有优势,但其在个体化语境理解、不确定性表达和及时转诊机制方面仍存在明显短板。"
发展前景
达尔马拉詹指出:"医疗AI将持续降低医疗获取门槛,但未来挑战在于如何构建既能发挥技术优势又保障患者安全的医疗体系。我们需要建立AI辅助而非取代人类诊疗的医疗新生态。"
【全文结束】