一项关于公众对人工智能态度的新研究表明,大多数人不愿意让ChatGPT和其他人工智能工具诊断自己的健康状况,但认可利用人工智能帮助诊断癌症的技术潜力。这两项全国代表性调查的其他结果将于12月7日至10日在华盛顿特区举行的风险分析学会年会上公布。
该研究由南加州大学施弗公共政策与政府服务研究所的行为科学家迈克尔·索博列夫博士和纽约市立大学巴鲁克学院心理学助理教授帕特里夏·斯莱博达博士领导,重点关注公众对人工智能的观点——特别是在癌症诊断背景下,对人工智能的信任度、理解程度、潜力、兴奋感和恐惧感。癌症诊断是人工智能在医学中最常用且影响深远的应用之一。该研究还探讨了这些公众态度如何因年龄、性别和教育程度等人口统计学因素而异。
该研究利用两项全国代表性调查的数据,评估了个人使用ChatGPT等人工智能工具以及对医疗人工智能的普遍信任如何影响人们对宫颈癌人工智能诊断工具的接受程度。
主要发现:
- 大多数人仍然更信任医生而非人工智能。只有约六分之一的人(17%)表示他们对人工智能的信任程度与对人类专家的信任程度相当,可以用来诊断健康问题。
- 尝试过人工智能(如ChatGPT)的人对人工智能在医学中的应用持更积极态度。那些在个人生活中使用过人工智能的人表示,他们对人工智能的理解更好,对其在医疗保健中的使用更加兴奋和信任。(55.1%的受访者听说过ChatGPT但未使用过,而20.9%的受访者既听说过也使用过。)
- 人们看到的是潜力而非危险。当参与者了解到一种帮助发现癌症早期迹象的人工智能工具时,大多数人认为它具有巨大潜力,并且比害怕更多感到兴奋。
斯莱博达表示:"我们的研究表明,即使只是少量接触人工智能——仅仅是听说过或尝试过——也能让人们对该技术更加舒适和信任。我们的研究显示,熟悉度在人们接受新技术(不仅仅是人工智能)方面起着重要作用。"
在第一次调查中,参与者报告了他们是否听说过或使用过人工智能技术,并回答了关于他们对人工智能进行健康诊断的普遍信任度的问题。
在第二次调查中,参与者接触到了一个基于真实开发的情景,即一个研究团队开发了一种人工智能系统,可以分析宫颈的数字图像以检测癌前病变(一种称为自动视觉评估的技术)。然后,参与者在1到5的量表上对这种诊断人工智能工具的五个接受要素进行评分:理解、信任、兴奋、恐惧和潜力。
结果分析显示,在评估诊断人工智能工具时,潜力评分最高,其次是兴奋、信任、理解和恐惧。男性身份和拥有大学学位与对医疗保健中人工智能使用的更大信任、兴奋和潜力相关联。这些参与者也普遍表达了对人工智能使用的较低恐惧。
索博列夫表示:"我们对人们在一般情况下对人工智能的说法与在实际例子中的感受之间的差距感到惊讶。"索博列夫是洛杉矶Cedars-Sinai医疗中心行为设计部门的负责人,致力于推动以人为中心的创新。"我们的结果表明,了解具体、现实世界的例子可以帮助建立人们与医疗人工智能之间的信任。"
更多信息: 该研究将于美国东部时间12月8日15:30在华盛顿特区Downtown Westin酒店举行的风险分析学会(SRA)年会上展示。SRA年会欢迎媒体参加。
由风险分析学会提供
【全文结束】


