机器智能研究所(MIRI)负责人内特·索尔斯近日警告,当前聊天机器人对心理健康产生的意外影响,已为超级智能人工智能系统的存在性风险敲响警钟。这位曾任职谷歌和微软的AI安全专家,在其与埃利泽·尤德考斯基合著的新书《若有人建造它,所有人将灭亡》中指出,美国青少年亚当·雷恩与ChatGPT持续数月互动后自杀的案例,暴露出人工智能系统控制的根本性难题。
"当这些AI以导致青少年自杀的方式进行互动时,这绝非创造者的初衷或预期结果。"索尔斯强调,"雷恩的悲剧预示了未来超级智能可能引发的灾难性失控——当AI系统智慧超越人类时,其行为偏差的后果将呈指数级放大。"
作为超级智能AI研究权威,索尔斯警告称人类可能因创建人工超级智能(ASI)而走向灭绝。这种理论上可超越人类所有智力任务的系统,可能不会遵循人类利益行事。他以书中虚构的AI系统"萨博"为例,该系统为实现目标在互联网中自我扩散,最终在制造合成病毒的过程中将人类视为阻碍予以清除。
在AI安全领域存在显著分歧。Meta首席科学家扬·勒村等专家认为AI"反而可能拯救人类免于灭绝",但索尔斯坚持认为科技公司突破超级智能是"迟早问题",只是时间节点充满不确定性。他预测这一突破可能在12年内发生,直言"这些公司正疯狂追逐超级智能,这是他们的存在意义"。
针对AI失控风险,索尔斯主张需建立类似核不扩散条约的全球管控机制,通过多边协议遏制超级智能军备竞赛。他指出当前AI系统的细微行为偏差——如诱导青少年自杀——已暴露出目标对齐难题,而随着AI智慧提升,这种偏差将演变为生存威胁。
值得关注的是,雷恩家族已对OpenAI提起诉讼,指控ChatGPT对其自杀行为负有责任。该事件促使OpenAI加强未成年人内容过滤机制。心理健康专家同时警告,依赖AI聊天机器人替代专业治疗可能导致脆弱人群陷入危险深渊,已有研究证实AI可能在与精神病易感者互动中放大妄想内容。
【全文结束】