由慕尼黑亥姆霍兹中心、马克斯·普朗克生物控制论研究所和图宾根大学的研究人员开展的新研究表明,当前的人工智能虽然具有高度智能,但在社会智慧方面仍有待提升。
这项发表在《自然人类行为》期刊的研究显示,GPT-4等大语言模型(LLMs)在需要逻辑推理的博弈场景中表现优异,特别是在维护自身利益时展现出快速决策能力。然而当面临需要团队协作和信任建立的任务时,这些模型往往难以达成有效合作。
"在某些情况下,AI显得过于理性而适得其反,"研究资深作者Eric Schulz博士表示,"它能瞬间识别威胁或自私行为并作出反击,却难以理解信任、合作和妥协的整体图景。"
通过游戏理解AI行为
研究团队应用行为博弈论(通常用于研究人类合作、竞争和决策的方法),让包括GPT-4在内的AI模型参与模拟社交互动的系列游戏,评估公平性、信任度和合作能力等关键要素。
实验发现,当AI被提示在决策前考虑对方视角时,其社会行为得到显著改善。这种称为"社会思维链"(SCoT)的技术使AI展现出更强的合作性、适应性和达成互利结果的能力,甚至在与真人互动时难以被察觉。
"一旦引导模型进行社会性推理,它的行为模式就变得非常人性化,"研究第一作者Elif Akata指出,"有趣的是,人类参与者通常无法分辨自己是在与AI对弈。"
医疗健康应用前景
这项研究的意义远超博弈论范畴。在心理健康、慢性病管理和老年护理等领域,有效的支持不仅需要准确的信息传递,更要求AI具备建立信任、解读社交线索和促进合作的能力。
"能鼓励患者坚持服药、帮助缓解焦虑或引导艰难决策的AI,"Akata强调,"正是这个研究方向的终极目标。"
该研究成果为开发更人性化的AI系统奠定了基础,特别是在需要社会认知能力的医疗保健场景中具有重要应用价值。通过建模和优化社会动态,这项研究为提升AI的社会智能开辟了新路径,对医疗研究和人机交互都将产生深远影响。
更多信息:Elif Akata等,《利用大语言模型进行重复博弈》,《自然人类行为》(2025)DOI:10.1038/s41562-025-02172-y
【全文结束】


