随着心理健康领域的人工智能(AI)不断发展,犹他州计划在鼓励创新的同时对其进行监管。犹他州人工智能政策办公室(Office of Artificial Intelligence Policy),作为全国首个此类机构,正在探索该技术的最佳实践和潜在问题。
该办公室主任扎克·博伊德(Zach Boyd)表示,犹他州正在积极跟踪技术的发展,同时预测可能需要的政策调整。“我们不想重复过去的错误,即让某些技术如社交媒体在没有充分考虑如何立法的情况下变得过于先进。”他说。
办公室正在关注数十个问题,包括深入研究人工智能与心理健康的关系。一些引起关注的领域包括数据隐私、责任法、医疗保健、教育、虚假信息等如何受到人工智能的影响。“心理健康是一个巨大的问题,这与人工智能无关的各种原因都有关系。”博伊德补充道,“我在大学教书,看到许多年轻人非常关心他们的心理健康,他们参与的方式与前几代人不同。”
这项技术仍处于早期发展阶段。例如,国家饮食障碍协会(National Eating Disorders Association)的一个聊天机器人因提供可能加剧饮食障碍的建议而被移除。“当这项技术出错时,它往往会非常自信。”犹他大学精神病学系副教授杰里米·肯德里克(Jeremy Kendrick)说。该大学一直在努力推进行为科学领域的人工智能应用,例如尝试使用技术预测心理健康问题或分析面部表情和手势以进行诊断。
肯德里克既是临床医生也是信息学家,他表示,大学正处于“充满希望且谨慎乐观”的阶段,正在认真审查这些技术,因为它们可能还很年轻、不可预测,有时存在偏见。然而,这些技术有潜力增强医疗资源短缺地区的医疗服务。“等待名单越来越长,我们没有足够的医生来接诊所有需要看诊的患者。因此,当有一些简短的治疗模式或类似的技术可以在患者等待看诊期间提供帮助时,这些技术显示出很大的潜力。”肯德里克说。他希望看到经过验证的产品,可以帮助学术界和临床医生了解哪些患者需要优先看诊,或帮助个性化患者的治疗方案,通过分析大数据找到可能不明显的关联。
企业认为,人工智能可能成为寻求心理健康护理的人们的一种可扩展、成本较低且不那么令人畏惧的选择,博伊德说。它在某些任务上可能比人类表现得更好。但具体细节尚不清楚,目前也不必担心人工智能会取代人类的工作,考虑到当前医疗保健领域的需求。
博伊德表示,目前最好的公司正在缩小人工智能训练的角度。有些公司在预防方面或仅在少数评估或诊断任务上进行工作。人工智能政策办公室向立法机构提出了近期可能采取的行动建议,包括加强消费者保护,特别是围绕数据隐私的问题。“我们确实看到人们使用不合适的方法来吸引用户,或者一些公司声称帮助心理健康,但实际上他们的想法偏离了真正对人们有益的方向。”博伊德说。
办公室还在制定建议,以明确许可专业人士如何在自己的实践中使用这些技术,并就最佳实践提供建议,以避免产品在使用中出现疏忽的情况,旨在实施严格的处罚措施同时鼓励创新。犹他州商业部门下属的专业许可部门已经有一个执法机制,与博伊德的办公室同属一个机构。此外,还有针对医疗过失的法律,这些法律在这些情况下也可能有效。
“我们已经考虑了很多与人类相似的事情。对于人类,我们会要求他们具有执照和培训等。我们认为现在不是考虑给聊天机器人颁发执照的时候,因为在这方面存在各种技术和实际障碍,而且这可能会干扰新兴技术的发展。”博伊德说。
办公室还希望企业在部署前找到技术可能出现故障的方式,并开发一种强调知情同意的方法,使患者了解与技术互动的风险和好处。这些项目还应遵循最佳临床实践,包括来自伦理合规第三方的问责制。
从研究角度来看,肯德里克表示,犹他大学正在使用付费墙后的研究数据和特定条件或医学领域的专业教材来训练模型。这将使其与其他产品如ChatGPT和Google Gemini有所不同。事实上,大学已经禁止使用任何外部模型,如OpenAI,以防受保护的健康信息渗入大学的模型中。
目前,这项技术仍然昂贵且不可靠,如果任其自行发展,也不太可靠,肯德里克说。“这将是临床医生加上人工智能与患者互动,而不是患者直接与聊天机器人交谈。”肯德里克说。“我有偏见,因为这是在心理健康领域。在心理健康领域,提供者与患者之间的治疗互动非常重要,人工智能在短期内无法替代这一点。”
(全文结束)


