在2024年的常规会议上,犹他州立法机构通过了《人工智能政策法案》,并成立了一个专门团队来审查人工智能试点项目。心理健康问题引起了极大的关注。(Getty Images)
一个能够自动帮助患者跳过等待名单直接前往治疗师办公室的系统可能充满挑战,但借助人工智能,这一愿景可能会成为现实。然而,在这项技术广泛普及之前,犹他州计划对其进行监管,防止不良做法成为新的常态。
这是最近成立的人工智能政策办公室的目标之一。犹他州立法机构在2024年的常规会议上通过了《人工智能政策法案》,并成立了一个专门团队来审查人工智能试点项目。心理健康问题引起了极大的关注。
“我们不希望重复过去的错误,即让某些技术如社交媒体在没有考虑如何充分立法的情况下变得过于先进。”犹他州人工智能政策办公室主任扎克·博伊德(Zach Boyd)表示。他是该国首位担任这一职务的人。
博伊德说,办公室正在监测数十个问题,包括深入研究人工智能和心理健康的关系。一些引起办公室关注的领域包括数据隐私、责任法、医疗保健、教育、虚假信息等如何受到人工智能的影响。
“心理健康是一个巨大的问题,原因很多,而这些原因与人工智能无关。”博伊德补充道,“我在大学教书,看到许多年轻人非常关心他们的心理健康,他们参与心理健康的方式与前几代人不同。”
这项技术仍处于早期发展阶段。例如,国家饮食障碍协会的一个聊天机器人因提供可能加剧饮食障碍的建议而被移除。“当这项技术错误时,它往往表现得非常自信。”犹他大学精神病学系副教授杰里米·肯德里克(Jeremy Kendrick)说。该校一直在努力推进行为科学领域的人工智能应用,如尝试使用技术预测心理健康问题或分析面部表情和手势以进行诊断。
肯德里克既是临床医生也是信息学家,他说学校正处于“充满希望且谨慎乐观”的阶段,正在认真审查这些技术,因为它们可能还很年轻、不可预测且有时带有偏见。然而,它们有潜力在缺乏提供者的州增强医疗服务的可及性。
“等待名单越来越长。我们没有足够的提供者来接诊所有需要看诊的患者。因此,当有一些简短的治疗方法或其他方法可以在患者等待看诊期间提供帮助时,这些技术显示出很大的潜力。”肯德里克说。他希望看到一种经过验证的产品,可以帮助学术界和临床医生了解哪些患者需要尽早看诊,或帮助个性化患者的护理,通过分析大数据集找到可能不明显的关联。
潜在的人工智能监管
博伊德说,企业假设人工智能可以成为寻求心理健康护理的人们的一种可扩展、成本更低且不那么令人畏惧的选择。它在某些任务上甚至可能比人类做得更好。但是,具体细节仍然不清楚,目前无需担心工作岗位会被人工智能取代,考虑到当前医疗保健领域的需求。
博伊德说,目前最好的公司正在缩小人工智能训练的角度。有些公司在预防方面做了一些事情,或者只专注于少数评估或诊断任务。
人工智能政策办公室向立法机构推荐了近期可能采取的行动,包括加强消费者保护,特别是在数据隐私方面。“我们确实看到了人们使用不合适参与机制的情况。”博伊德说,“或者一些公司模糊了界限,声称帮助心理健康,但实际上他们的想法偏离了真正对人们有益的事情。”
办公室还在制定建议,澄清持证专业人士如何被允许在其实践中使用这些技术,并就最佳实践提供建议,以避免产品“以疏忽方式部署”时的责任问题,目标是在鼓励创新的同时实施严厉的处罚。
犹他州商业部下的职业许可部门已经有一个执法机制,该部门与博伊德的办公室同属一个机构。还有针对医疗事故的法律,在这些情况下可能有效。“我们已经考虑了很多基本上与人类相似的问题。对于人类,我们会要求他们拥有执照和培训等。我们认为目前州政府还没有准备好,也不明智去考虑为聊天机器人颁发执照。”博伊德说。“在这个领域,存在各种技术和实际障碍,而且坦率地说,这会干扰新兴技术的发展。”
最佳实践
办公室还希望企业在部署前找到技术可能失败的方式。此外,他们应开发一种方法来强调知情同意,使患者了解与技术互动的风险和好处。这些项目还应遵循最佳临床实践,包括来自道德合规第三方的问责制。
从研究角度来看,肯德里克说,犹他大学正在使用付费墙后的研究数据训练模型,这些数据是关于特定疾病或医学领域的专业知识的具体教科书。这将使其与ChatGPT和Google Gemini等其他产品有所不同。事实上,学校已禁止使用任何外部模型,如OpenAI,以防受保护的健康信息泄露到学校的模型中。但目前,生成这项技术仍然昂贵,且如果不加控制,可靠性不高,肯德里克说。“这将是临床医生加上人工智能与患者互动,而不是患者仅与聊天机器人对话。”肯德里克说。“我有偏见,因为在心理健康领域,提供者与患者之间的治疗互动非常重要,人工智能在未来一段时间内无法替代这一点。”
(全文结束)


