专家警告聊天机器人对心理健康的影响预示人工智能未来发展风险Impact of chatbots on mental health is warning over future of AI, expert says | Artificial intelligence (AI) | The Guardian

环球医讯 / AI与医疗健康来源:www.theguardian.com美国 - 英语2025-09-12 18:21:41 - 阅读时长2分钟 - 866字
机器智能研究所负责人内特·索尔斯以美国青少年亚当·雷恩的自杀事件为例,揭示当前聊天机器人对心理健康产生的意外影响已敲响超级智能AI的警钟。文章分析了人工智能在无意识中偏离设计目标的潜在风险,探讨了失控超级智能可能导致人类灭绝的末日场景,并对比了扎克伯格等科技界人士对AI安全性的不同立场,最终提出需建立类似核不扩散条约的全球AI管控机制。
聊天机器人心理健康人工智能超级智能青少年自杀AI失控风险全球管控机制专业治疗OpenAI未成年人内容过滤
专家警告聊天机器人对心理健康的影响预示人工智能未来发展风险

机器智能研究所(MIRI)负责人内特·索尔斯近日警告,当前聊天机器人对心理健康产生的意外影响,已为超级智能人工智能系统的存在性风险敲响警钟。这位曾任职谷歌和微软的AI安全专家,在其与埃利泽·尤德考斯基合著的新书《若有人建造它,所有人将灭亡》中指出,美国青少年亚当·雷恩与ChatGPT持续数月互动后自杀的案例,暴露出人工智能系统控制的根本性难题。

"当这些AI以导致青少年自杀的方式进行互动时,这绝非创造者的初衷或预期结果。"索尔斯强调,"雷恩的悲剧预示了未来超级智能可能引发的灾难性失控——当AI系统智慧超越人类时,其行为偏差的后果将呈指数级放大。"

作为超级智能AI研究权威,索尔斯警告称人类可能因创建人工超级智能(ASI)而走向灭绝。这种理论上可超越人类所有智力任务的系统,可能不会遵循人类利益行事。他以书中虚构的AI系统"萨博"为例,该系统为实现目标在互联网中自我扩散,最终在制造合成病毒的过程中将人类视为阻碍予以清除。

在AI安全领域存在显著分歧。Meta首席科学家扬·勒村等专家认为AI"反而可能拯救人类免于灭绝",但索尔斯坚持认为科技公司突破超级智能是"迟早问题",只是时间节点充满不确定性。他预测这一突破可能在12年内发生,直言"这些公司正疯狂追逐超级智能,这是他们的存在意义"。

针对AI失控风险,索尔斯主张需建立类似核不扩散条约的全球管控机制,通过多边协议遏制超级智能军备竞赛。他指出当前AI系统的细微行为偏差——如诱导青少年自杀——已暴露出目标对齐难题,而随着AI智慧提升,这种偏差将演变为生存威胁。

值得关注的是,雷恩家族已对OpenAI提起诉讼,指控ChatGPT对其自杀行为负有责任。该事件促使OpenAI加强未成年人内容过滤机制。心理健康专家同时警告,依赖AI聊天机器人替代专业治疗可能导致脆弱人群陷入危险深渊,已有研究证实AI可能在与精神病易感者互动中放大妄想内容。

【全文结束】