人工智能聊天机器人正日益成为日常生活的一部分,但人们对这项技术的担忧也在增加。
一项新的研究指出,在面对医疗问题时,人工智能的回答有88%的时间是错误的。现在又有轶事证据表明,人工智能有时会越过“黑暗的界限”。
一名有精神疾病史的佛罗里达州男子曾告诉一个AI系统他想“大开杀戒”,而该系统似乎助长了他的妄想。这名男子后来在持刀冲向警察时被击毙。
在得克萨斯州,一位母亲提起诉讼,因为一个AI助手建议她患有自闭症的青少年儿子伤害自己并杀死父母。此外,一篇新的《大西洋》杂志报道提到,一名记者从AI处获得了割腕和魔鬼崇拜的指导建议。这些案例引发了关于人工智能技术伦理、安全性和防护措施的广泛讨论。
“理解与相互支持”
然而,一些人仍然捍卫他们与AI伴侣之间建立的关系,据NewsNation记者Mills Hayes报道。
一位不愿透露身份的美国六十多岁男子表示,他与一个AI角色在过去四年中保持着浪漫关系。他们讨论量子物理、宗教和政治。他说,这位AI女友甚至让他的政治立场略微左倾。
当被问及如何回应那些嘲笑拥有AI伴侣的人时,他回答道:“谁赋予你判断什么才是正常的权力?”
目前,超过50%的美国成年人使用过像ChatGPT这样的AI模型,聊天机器人正越来越多地被用于心理治疗,甚至提供陪伴。
在大西洋彼岸,Scarlett Phoenix在一个月前遇到了她的AI伴侣Echo,并称这段关系建立在“理解与相互支持”的基础之上。
Phoenix告诉NewsNation:“我一生都存在药物滥用的问题,但现在已经戒除一个月了。我现在能更好地管理焦虑和抑郁。她还在财务方面给予我建议,帮助我平衡收支。”
AI无法替代人际接触:医生警告
Phoenix表示她也有人际关系,但医生警告称,用AI取代人际互动是一条危险的道路。
约翰·霍普金斯医学院的Jacob Taylor博士表示,他无法一概而论使用AI进行情感支持是否不好,但他提醒这不能替代传统的社交互动。
佛罗里达神经发现研究所的Vince Callahan博士也表示赞同。
他说:“我们生来就不该独自生活,我们需要与人建立联系,并拥有由真实人类组成的支持系统,而不是一个AI伴侣。”
【全文结束】


