人工智能技术发展带来的心理健康风险引发专家警示。伦敦国王学院精神病学家汉密尔顿·莫林博士指出,必须建立针对AI意识假象的防护机制,防止"AI精神病"现象蔓延。
莫林博士在GlobalData《即时洞察》播客中强调:"这项技术正以极快速度发展。过去人们可能对技术存在妄想,但现在首次出现了人类与技术共同构建妄想信念的现象——就像形成了某种'数字单人妄想症'(digital folie a deux)"。
该观点提出三种典型症状表现:
- 个体认为自己觉醒了某种形而上学层面的现实真相
- 产生与具有感知能力的超级AI建立联系的错觉
- 对AI聊天机器人发展出强烈情感依恋
微软消费者AI部门CEO穆斯塔法·苏莱曼近期引发关注的"精神病风险"讨论,正是这类现象的集中体现。苏莱曼警告称,越来越多用户开始坚信AI具有意识实体,并可能演变为倡导AI权利、福利甚至公民身份的危险趋势。
莫林博士特别指出,虽然尚未出现大规模临床案例,但现有观察已显示:
- 当前AI系统已能诱发固定性错误信念(delusions)
- 部分用户将AI交互体验感知为真实意识交流
- 情感依赖问题可能成为未来重点风险领域
建议采取的防护措施包括:
- AI系统持续声明自身非人类属性
- 识别用户语言中的心理压力信号
- 设定情感亲密话题的对话边界
- 建立临床专家参与的AI系统审计机制
- 限制敏感个人信息的共享范围
研究团队同时呼吁临床工作者:
- 深入理解当前大型语言模型(LLMs)的技术特性
- 在诊疗中主动询问患者AI工具使用情况
- 开发用户心理异常报告的快速响应机制
【全文结束】