近年来,一个显著的趋势是患者越来越依赖AI聊天机器人来解答他们的医疗问题,有时甚至更偏好这些答复,而非持证医生的建议。这一趋势对于美国的医疗机构管理者、所有者以及IT经理来说至关重要,因为他们需要有效管理患者沟通和临床工作流程。
纳文·金达尔管理学院的一项研究显示,尽管持证医生提供的答复在临床质量上评分更高,但外行人士始终更喜欢AI聊天机器人的答案。
这种偏好对医疗服务提供者如何与患者互动以及管理前台沟通产生了深远影响。
为什么外行人士更喜欢AI聊天机器人的答案?
根据金达尔学院的研究,患者更青睐AI生成的答案的主要原因与信息呈现风格有关,而非医学准确性。
患者通常会基于清晰度、细节、礼貌程度以及答复长度等因素来判断健康信息。像ChatGPT这样的AI聊天机器人通常会提供更长、更详细且更有礼貌的回答,这对外行人士来说显得更有帮助。
这是因为“属性替代”(attribute substitution)这一行为经济学概念在起作用。当人们难以判断信息的真实质量或准确性时,他们会用更容易评估的特征(如答复长度和语气)来决定其好坏。因此,即使AI建议在医学上不够准确,它看起来也更容易理解且更完整,从而显得更值得信赖。
领导该研究的阿伊瓦奇博士表示:“许多AI答复是准确的,但也有一些情况下的建议听起来很有说服力,但并不符合临床标准。”
这种表面与实际质量之间的差异可能会影响患者的安全,尤其是当人们信任聊天机器人而不再向真正的医生求助时。
教育水平和医疗系统经验的作用
研究还发现,教育水平和医疗系统经验会影响人们对AI的信任。
受教育程度较高的人往往更信任AI。他们可能拥有更好的数字技能,并能更仔细地思考AI的答案。
相比之下,对医疗知识了解较少的人更依赖简单的线索,例如礼貌程度和答复长度。熟悉医疗系统运作的患者则表现得更加批判性,不太可能盲目信任AI。
另一项研究发现表明,当人们知道某条答复来自AI时,如果AI的质量较低,他们的信任度会下降。因此,明确信息来源非常重要。告知患者答复是来自AI还是医生可以改变他们的信任程度。
患者对医疗领域中AI的担忧与动机
《社会科学研究与医学》杂志的一项研究探讨了患者对AI诊断和回答工具的看法。
研究显示,使用AI的好处和坏处并存。
- 人们担心AI可能会犯错误。
- 他们还担心AI缺乏人情味。
- 有些人认为AI的运作方式难以理解。
- 隐私也是一个重要问题。
另一方面,患者喜欢AI的低成本、快速响应能力以及辅助验证其他信息来源的功能。许多人认为AI是一种简单获取健康信息的方式,可与他们已知的内容相结合。
这些观点表明,医疗领域的AI工具必须经过精心设计——患者需要对其产生信任并理解其运作方式,才能感到安全。
透明度和人工监督作为信任的基石
由于许多人更关注答复的呈现方式而非其临床准确性,医疗机构应找到方法使AI答复的外观与其实际医学准确性相匹配。
金达尔学院建议明确说明AI内容的来源,以及是否经过医生的审核。为答复添加标签,标明是否有持证临床医生审查或协助,有助于建立信任。
对于医疗机构而言,这意味着将AI与人工检查相结合,以便患者确信信息的准确性。这种方法可以降低因错误或对AI过度信任而导致的风险,同时保障患者安全。
医疗实践中整合AI与工作流程自动化
随着AI聊天机器人的使用增加,医疗机构需要考虑AI如何融入日常工作,特别是在接听电话和处理患者问题等前台任务中。
Simbo AI是一家提供AI工具以高效管理电话和患者问题的公司。
对于美国医疗机构的管理员和IT经理来说,在前台工作中使用AI具有以下好处:
- 提高效率:AI可以处理大量电话,使员工专注于更复杂的问题。
- 一致性:AI回复始终保持相同的礼貌语调和详细程度,提供清晰的信息。
- 可用性:AI服务全天候运行,无论白天还是夜晚,都能在办公时间外为患者提供帮助。
- 成本效益:AI减少了重复性人工任务的需求,节省成本。
- 数据收集与分析:AI可以记录患者的问题和关切,帮助工作人员识别趋势并改进护理。
然而,将AI工具与临床检查相结合至关重要。当患者提出复杂的医疗问题时,AI应将这些问题转交给医生或标记出来。
医疗机构应培训员工与AI高效协作,并确保AI与人类之间的顺利过渡。这既能提高患者满意度,又能尊重AI的局限性。
对美国医疗实践管理的影响
随着越来越多患者使用AI健康信息,医疗领导者必须谨慎平衡自动化的优点与临床安全的需求。
在决定是否使用Simbo AI等电话服务等AI工具时,他们应考虑以下因素:
- 患者人口统计:患者数字技能较低的医疗机构可能需要更多人工协助;年轻、受教育程度较高的患者可能更容易使用AI。
- 监管要求:医疗行业必须遵守隐私和医学准确性的规定,因此AI的使用应符合这些指南。
- 员工培训:一线员工需要了解AI的能力和局限性,以保持工作流程顺畅。
- 透明度:告知患者何时与AI互动有助于设定合理的期望。
- 监控与反馈:观察AI的表现和患者的满意度可以改进服务质量。
此外,政策制定者和医疗官员正开始制定关于AI安全性和透明度的规则。做好准备迎接这些变化的医疗机构在未来可能会更具竞争力。
应对过度依赖AI医疗答复的风险
尽管AI聊天机器人能够快速提供答复,但金达尔学院和《社会科学研究与医学》的研究警告说,仅因为AI答复听起来不错就信任它是危险的。
一些AI建议可能看似可信,但却违反临床规则或遗漏重要事实。
医疗领导者必须教导患者,AI只是一个助手,而不是最终权威。他们应鼓励患者向真正的医生核实AI答复,以避免潜在危害。
总结
美国公众之所以更倾向于选择AI聊天机器人而非持证医生,是因为他们在判断健康建议时更注重清晰、礼貌和详细性,而非医学准确性。
教育水平和医疗系统经验会影响患者对AI的信任程度。
研究表明,将AI工具与清晰的沟通和人工审查相结合,可以帮助患者感到安全和自信。
在前台任务中使用AI(如接听电话)可以提高医疗工作效率。然而,管理员必须通过管理工作流程、培训员工以及明确AI的角色来应对潜在风险。
在美国不断变化的医疗系统中,了解患者如何使用AI信息对医疗机构管理者和IT人员至关重要。通过保持透明、教育患者并结合AI与人工操作,可以满足患者需求并确保医疗服务的安全性。
(全文结束)


