华盛顿 — 根据美国心理学会发布的一项新健康警示,情感支持是人们日益转向生成式人工智能聊天机器人和健康应用的常见原因,但这些工具目前缺乏确保用户安全的科学证据和必要监管。
美国心理学会《关于在心理健康中使用生成式AI聊天机器人和健康应用的健康警示》审查了人们依赖用于心理健康建议和治疗的消费级技术,即使这些并非其既定用途。然而,这些工具易于获取且成本低廉——对于难以找到或负担得起持证心理健康提供者服务的人来说,这是一个有吸引力的选择。
“我们正面临一场需要系统性解决方案而非仅靠技术补丁的重大心理健康危机,”美国心理学会首席执行官小亚瑟·C·埃文斯 (Arthur C. Evans Jr.) 博士表示。“尽管聊天机器人似乎随时可用以提供用户支持和验证,但这些工具安全引导处于危机中的人的能力有限且不可预测。”
该警示强调,尽管技术有巨大潜力帮助心理学家应对心理健康危机,但它不应分散对修复美国心理健康护理系统基础的迫切需求。
该报告为公众、政策制定者、科技公司、研究人员、临床医生、父母、看护者和其他利益相关者提供了建议,帮助他们理解在快速变化的技术环境中各自的角色,以便导航未经测试和未受监管的数字空间的负担不会 solely 落在用户身上。主要建议包括:
- 由于这些技术的不可预测性,切勿将聊天机器人和健康应用作为合格心理健康专业人员护理的替代品。
- 防止用户与这些技术之间形成不健康的关系或依赖。
- 为儿童、青少年和其他脆弱群体建立特定保障措施。
“人工智能技术的发展速度已超过我们充分理解其影响和能力的能力,”埃文斯表示。“因此,我们看到有关青少年和其他脆弱群体遭受重大伤害的报告。对某些人来说,这可能是危及生命的,凸显了心理学家和心理科学需要参与开发过程的每个阶段。”
警示指出,即使是使用高质量心理科学和最佳实践开发的生成式人工智能工具,也缺乏足够证据证明其在心理健康护理中有效或安全。研究人员必须使用随机临床试验和纵向研究来评估生成式AI聊天机器人和健康应用,这些研究追踪长期结果。但要做到这一点,科技公司和政策制定者必须承诺在技术创建和使用方面的透明度。
警示称当前监管框架不足以应对心理健康护理中AI的现实,并呼吁政策制定者,特别是联邦层面,做到:
- 现代化监管;
- 为每类数字工具创建基于证据的标准;
- 解决食品药品监督管理局 (FDA) 监管缺口;
- 推动立法禁止AI聊天机器人冒充持证专业人士;以及
- 制定全面的数据隐私立法和“默认安全”设置。
警示指出,许多临床医生缺乏AI专业知识,并敦促专业团体和卫生系统对他们进行AI、偏见、数据隐私和负责任使用AI工具的培训。临床医生自身也应遵循可用的道德指导,并主动询问患者使用AI聊天机器人和健康应用的情况。
“人工智能将在未来医疗保健中发挥关键作用,但除非我们同时应对心理健康中的长期挑战,否则无法实现这一承诺,”埃文斯表示。“我们必须推动系统性改革,使护理更可负担、可及和及时——并确保人类专业人员得到AI的支持,而非被取代。”
【全文结束】


