通过多个基于AI的角色来协调心理健康建议以诊断人类心理障碍Orchestrating Mental Health Advice Via Multiple AI-Based Personas Diagnosing Human Psychological Disorders

环球医讯 / AI与医疗健康来源:www.forbes.com美国 - 英语2025-08-02 18:39:42 - 阅读时长9分钟 - 4124字
本文探讨了使用多个AI角色在心理健康诊断中的创新方法,展示了AI在医学领域,尤其是精神健康治疗中的潜力。通过模拟不同专家的视角,AI可以提高诊断的准确性和效率,同时指出了该方法的优势和潜在风险。
AI心理健康治疗协调AI角色医学诊断心理健康分析案例历史AI角色小组诊断准确率成本效益协同作用
通过多个基于AI的角色来协调心理健康建议以诊断人类心理障碍

在今天的专栏中,我研究了一种新发现的创新方法,利用生成式AI和大型语言模型(LLMs)进行医疗相关诊断,并在心理健康治疗分析的背景下进行了简单的迷你实验。结果表明,这种方法涉及以系统和协调的方式使用多个AI角色。这种方法值得进一步研究,并可能适应于日常的心理健康治疗实践中。

让我们来讨论一下。

这项关于AI突破的分析是我持续在福布斯专栏中对AI最新进展的报道的一部分,包括识别和解释各种有影响力的AI复杂性(参见[此处链接](

AI与心理健康治疗

作为快速背景,我一直在广泛报道和分析现代AI生成心理健康建议和进行AI驱动治疗的各种方面。这种AI的使用主要受到生成式AI的演变和广泛采用的推动。有关我对此主题的一些简要总结,请参见[此处链接](

毫无疑问,这是一个快速发展的领域,具有巨大的潜在好处,但同时,这些努力中也存在隐藏的风险和陷阱。我经常谈论这些紧迫问题,包括去年在CBS的《60分钟》节目中的一次露面,请参见[此处链接](

如果你对AI用于心理健康这一主题还不熟悉,你可能想阅读我对该领域的最新分析,其中还回顾了斯坦福大学精神病学和行为科学系的一个高度创新的倡议,称为AI4MH;请参见[此处链接](

更多精彩内容

[贾斯汀·巴尔多尼-布莱克·莱弗利事件如何导致一位亿万富翁关闭其基金会](

[杰弗里·爱泼斯坦如何变得如此富有](

[青少年和青少年痴迷于这个婴儿护肤品品牌——现在每年带来1亿美元收入](

协调AI角色

生成式AI和LLMs最不被充分利用的能力之一是它们能够计算模拟某种角色。这个想法相当直接。你告诉AI假装成为某种类型的人或展示某种个性,AI会尝试相应地回应。例如,我曾使用这一功能,让ChatGPT扮演西格蒙德·弗洛伊德的角色,并进行治疗,仿佛AI在模仿或模拟弗洛伊德可能会说的话(参见[此处链接](

你可以告诉LLMs假装成为特定的人。关键是AI必须拥有足够的关于该人的数据才能完成模仿。此外,你对AI在假装模式下表现的期望需要保持冷静,因为AI可能会偏离预期。重要的是不要假设或相信AI会完全像那个人。它不会的。

提示:获取本周最大的AI新闻,关于最热门的公司和最大胆的突破,直接发送到您的邮箱。

通过注册,您同意接收此新闻通讯,以及其他关于福布斯及其附属公司的更新,我们的[服务条款](

您已订阅!

探索更多新闻通讯

您已订阅!

探索更多新闻通讯

另一个使用角色的角度是广泛描述你希望AI假装成为的角色。我之前做过一个迷你实验,让ChatGPT假装成为一组心理健康治疗师,他们在进行心理评估时进行协商(参见[此处链接](

1/1跳过广告继续观看广告后访问广告商网站[转到页面]

还有更多AI人格的使用方式。

我会列出一些。希望提高技能的心理健康专业人士可以与假装成为患者的LLM进行对话,这是提高治疗师心理分析能力的一种便捷方式(参见[此处链接](

等等。

最新研究使用AI角色

最近发布的一项研究创新地在执行医疗诊断的领域中使用了AI角色。该研究题为《Sequential Diagnosis with Language Models》由Harsha Nori, Mayank Daswani, Christopher Kelly, Scott Lundberg, Marco Tulio Ribeiro, Marc Wilson, Xiaoxuan Liu, Viknesh Sounderajah, Jonathan Carlson, Matthew P Lungren, Bay Gross, Peter Hames, Mustafa Suleyman, Dominic King, Eric Horvitz于2025年6月30日发表在arXiv上,并做出了以下重要评论(摘录):

  • “人工智能在扩大专家医学知识和推理的应用方面具有巨大潜力。”
  • “我们强调,当AI系统被引导去迭代思考并谨慎行动时,可以在临床护理中提高诊断的准确性和成本效益。”
  • “在临床实践中,医生会迭代地制定和修改诊断假设,根据他们刚刚学到的知识调整每一个后续问题和测试,并在做出最终诊断之前权衡不断演变的证据。”
  • “我们提出了MAI诊断协调器(MAIDxO),这是一种模型无关的协调器,它可以模拟一组医生,提出可能的鉴别诊断,并战略性地选择高价值、成本效益的测试。”
  • “当与OpenAI的o3模型配对时,MAI-DxO达到了80%的诊断准确率——是普通医生20%平均值的四倍。MAI-DxO还比医生减少了20%的诊断成本,比现成的o3减少了70%。在配置为最大准确率时,MAI-DxO达到了85.5%的准确率。”

在如何使用AI角色方面有一些有趣的创新。

关键在于他们有一个作为诊断者的AI角色,另一个AI角色向基于AI的诊断者提供案例历史,甚至还有一个AI角色作为临床诊断进行情况的评估者。那就是三个AI角色,它们被设置为帮助对呈现给AI的各种案例研究进行医学诊断。

研究人员决定进一步推进这种有前景的方法,通过让一组AI角色进行医学诊断。他们决定让五个AI角色依次进行协商,逐步进行诊断。给予AI角色的名字通常暗示了每个角色的预期功能,包括Dr. Hypothesis、Dr. Test-Chooser、Dr. Challenger、Dr. Stewardship和Dr. Checklist。

不要将这种方法拟人化,使用一组AI角色的方式可以类比为一组医生在讨论医学诊断。每个AI角色都有指定的专业领域,它们逐步分析患者的案例历史,每个专业领域在诊断过程中轮流发挥作用。

AI心理健康分析中的协调

我认为在心理健康分析的背景下尝试类似形式的协调可能会很有趣。我欢迎研究人员在更稳健的环境中尝试这种方法,以便我们能够更好地掌握采用这种方法的优缺点。我的努力只是一个迷你实验,以推动这一领域的进展。

我使用了一个由美国精神病学和神经学委员会(ABPN)公开发布的心理健康案例历史,该案例描述了一位正在接受精神评估的虚构患者。

这是一个有用的实例,因为它经过了精心编写和分析,并作为正式化测试题供未来的精神病学家和心理学家使用。不利的一面是,由于它在互联网上广为人知,因此使用的生成式AI在分析此案例历史时可能会扫描到该案例及其发布的解决方案。

想要进行类似迷你实验的研究人员可能需要提出全新的、未见过的案例历史。这将防止AI通过已经遇到过该案例而“作弊”。

案例概述

该案例涉及一位四十多岁的男性,他之前曾接受过精神病治疗,最近表现出可疑行为。案例中描述道:“在过去几个月里,他一直在购买昂贵的艺术品,工作出勤越来越不稳定,每晚只睡一到两个小时。19年前,他因一次严重的躁狂发作而住院,涉及警察。”(来源:ABPN在线发布)。

我使用了一个流行的LLM,并告诉它调用五个角色,大致类似于上述的协调方法,包括:

  • Dr. Supposition:识别患者心理健康状况的初步假设。
  • Dr. Selector:思考这些假设并提出可用于确认或排除这些假设的测试。
  • Dr. Contender:作为魔鬼的代言人,质疑这些初步假设和提出的测试。
  • Dr. Thoughtful:寻求考虑如何最好地进行诊断,包括权衡侵入性、费用和其他相关因素。
  • Dr. Double-Checker:对诊断进行双重检查,确保捕捉到任何陷阱,发现潜在问题,确保小组之间的一致性等。

在输入定义这五个角色的提示后,我让LLM对案例进行心理健康分析。

协调表现良好

在我的指令中,我希望看到AI进行一系列诊断或步骤。在每一步中,小组应总结他们在分析中的进展,并告诉我到目前为止他们做了什么。这是一种让AI生成某种解释或指示计算推理过程的方法。

顺便提一下,要小心依赖这种计算构造的解释,因为它们可能与LLM内部标记化机制实际进行的操作关系不大,请参见我在[此处链接](

我向LLM角色小组提供了与案例相关的问题。然后,我将AI小组的答案与在线发布的、被认为是正确或最合适的答案进行了比较。

为了说明AI角色小组提出了什么,以下是他们在第一次回合中对患者总体特征的初始回应:

  • “可能存在膨胀的自我评价,鉴于其购买昂贵艺术品的夸张行为、工作出勤的不稳定,以及尽管每晚只睡一到两个小时却可能感到无敌。
  • “思维奔逸在躁狂症中很常见;虽然没有明确描述,但不稳定的行为、减少的睡眠需求和可能的分心强烈表明思维混乱且快速变化。
  • “可能存在言语紧迫,虽然没有直接提到,但言语紧迫通常与其他躁狂症状如减少的睡眠、不稳定的行为和增加的活动同时发生。在怀疑躁狂的背景下,这是一个合理的推断。”

最终的分析与发布的解决方案总体匹配。从这个意义上说,AI角色小组表现良好。这是否是由于真正的表现还是因为之前扫描过案例历史尚不清楚。当我直接询问案例是否以前见过时,LLM否认已经遇到过该案例。

不要相信LLM告诉你的它没有扫描过某些内容。LLM可能无法确定它是否扫描过内容。此外,在某些情况下,AI可能会基本上撒谎并告诉你它没有见过某内容,如果可以这么说的话。

倾向于AI角色

AI角色是现代生成式AI和LLMs的一项极其有利的能力。以协调的方式使用AI角色是一个明智的举措。你可以让AI角色作为一个团队工作。这可以显著提升结果。

一个你需要注意的快速问题是,如果LLM承担所有角色,你可能不会得到你认为应该得到的结果。另一种方法是使用不同的LLMs来代表角色。例如,我可以在迷你实验中连接五个不同的LLMs,每个模拟我使用过的角色。这样做的想法是,通过使用不同的LLMs,你可以避免单一LLM懒惰地作弊,而不是真正尝试调用角色。LLM可能会以这种方式狡猾。

最后一点思考。

马克·吐温曾说过一句著名的话:“协同作用是在事物和谐地一起工作时所获得的额外收益。” 使用AI角色进行协调可以达到协同作用的水平,否则在这些类型的分析中不会表现出来。话虽如此,有时你可能会有太多人参与,太多厨师在厨房里。

确保适当使用AI角色协调,希望你能得到美妙的声音和令人印象深刻的成果。

【全文结束】

大健康
大健康