算法也能有同情心?谁能想到呢?然而,随着大型语言模型(LLMs)进入医学实践,我们发现了一个意想不到的情况:这些由人工智能生成的回复被认为是富有同情心的,并且可能对患者护理产生现实影响。
一项发表在《JAMA Network Open》上的研究探讨了人工智能生成的回复如何影响医生与患者的沟通。该研究涉及 52 名在数周内使用人工智能生成的消息草稿的医生,并将他们的行为与 70 名未使用该人工智能工具的医生对照组进行了比较。分析了诸如阅读和回复消息所花费的时间等关键指标,结果显示使用人工智能草稿使阅读时间增加了 21.8%,回复长度增加了 17.9%。然而,回复时间没有显著变化。医生们认识到这些草稿的价值,并提出了改进的领域,强调了人工智能在患者沟通中创造“富有同情心的起点”的潜力。
人工智能中同情心的作用
尽管起源于人工,人工智能生成的同情心正在成为医疗保健沟通中的一个有意义的元素。研究中的医生发现,使用人工智能生成的草稿通过为他们的回应提供一个关爱的框架,减轻了他们的认知负担。这种同情心的感知并非源于真正的情感,而是源于语言和结构的精心运用。它挑战了同情心必须是人类固有的观念,表明通过承认和富有同情心的措辞进行支持性沟通可以部分由算法复制。
这一发现提出了一个重要问题:如果人工同情心能够引起积极的反应并改善沟通,那么这种同情心的“来源”真的重要吗?对于患者来说,沟通的内容和语气可能比它是由人类还是人工智能生成的更重要。
从医生的感知到患者的参与
尽管该研究主要关注医生的经验,但它暗示了人工智能驱动的同情心影响患者参与的潜力。精心制作、富有同情心的消息——无论是人类生成还是人工智能生成——都可以让患者感到被理解,可能会增加他们遵循治疗计划、参加随访预约或改变生活方式的意愿。
这表明人工智能的结构化同情心可以促进改善患者的治疗效果。从医疗保健提供者那里收到详细而温暖消息的患者可能更愿意遵循医疗建议,即使他们知道部分消息是由人工智能生成的。虽然这种同情心无疑是人为设计的,但它仍有可能推动现实世界中的行为改变。
人工同理心:不仅仅是言语?
这里的讽刺意味很明显:在我们通常认为没有情感的技术中找到了“同情心”。当人工智能使用富有同理心的语言精心制作回应时,它似乎满足了患者和医疗保健专业人员所认为的同理心的要素。这表明,即使是人工构建,如果包含关键的沟通元素,也可以创造有意义的互动。
然而,研究也表明,人类的输入仍然至关重要。医生经常调整人工智能生成的草稿,以更好地适应患者的特定需求,增加了不可替代的个性化层。这种混合方法可能是实现既支持又真实的互动的关键,即使最初的同情心感觉是人工生成的。
未来之路:富有同情心的人工智能和患者结果
这里的关键要点是,即使是人工形式的同情心,在医学中也可以作为有用的工具。虽然人工智能不会产生同理心,但其构建富有同情心语言的能力可以增强医患沟通,并有可能导致患者参与度和健康结果的改善。未来的研究需要探索患者如何直接感知这些人工智能生成的消息,并确定这种增加的同理心是否转化为健康行为的可衡量的改善。


