对未受监管的心理健康应用程序的担忧加剧,专家呼吁FDA进行监督Concerns rise over unregulated mental health apps, experts push for FDA oversight

环球医讯 / AI与医疗健康来源:turnto10.com美国 - 英语2024-10-30 02:00:00 - 阅读时长2分钟 - 715字
随着心理健康应用的普及,专家们呼吁加强对这些应用程序的监管,以确保用户安全。
心理健康应用程序未受监管FDA监督人工智能聊天机器人心理治疗心理健康危机自杀
对未受监管的心理健康应用程序的担忧加剧,专家呼吁FDA进行监督

人工智能聊天机器人已经进入市场,为成千上万的人提供替代性的心理治疗服务。(文件照片)

每年,每五个美国人中就有一人会经历某种形式的心理健康问题。尽管对帮助的需求显而易见,但许多人由于费用或污名化而不寻求治疗。因此,人工智能聊天机器人应运而生,成为成千上万人的“替代弗洛伊德”。

旧金山的心理学家艾米丽·安哈特(Emily Anhalt)亲眼目睹了该国心理健康危机的影响。“焦虑、抑郁和职业倦怠等现象的发生率急剧上升。没有足够的训练有素和持证的心理治疗师来满足所有希望获得支持的人。这些心理健康应用程序的出现并不令我感到意外,”安哈特说。

这些治疗手段包括认知行为练习和与用户互动的陪伴机器人,其成本远低于看实际心理治疗师的费用。“我们只是希望确保这样做不会造成更大的伤害,”安哈特说。

全球领先的生物伦理学专家、加州大学伯克利分校教授乔迪·哈尔珀恩(Jodi Halpern)对这些没有监管的应用程序的“西部荒野”状态表示担忧。去年,Koko平台的联合创始人透露,该平台向数千名以为自己在与真人交谈的用户提供人工智能回复。

“我不是反对人工智能的发展,但我认为我们需要考虑监管和安全问题,”哈尔珀恩博士说。她正在积极推动确保提供心理健康服务的聊天机器人应用程序受到FDA的监管。“如果你表示有任何自杀的想法或感受,机器人只会说,‘我帮不了你,拨打911’,”哈尔珀恩博士说。

去年,比利时一名男子在使用应用程序Chai时,在一个流氓机器人的鼓励下自杀,这一事件引起了广泛关注。哈尔珀恩博士表示,虽然她认识到人工智能治疗短期内不会消失,但最好将人工智能用作认知行为练习的工具,同时继续接受现实生活中心理治疗师的治疗。


(全文结束)

大健康
大健康