欢迎访问公关世界新闻网 /《公关世界》杂志社官网官方网站!
收藏本站 | 联系我们
今日推荐
当前位置: 首页 - 今日推荐 - 内容展示
AI更“智能”的同时也更“自私”
时间:2025年11月04日      来源: 科技日报      浏览:4      

有关主流大模型研究发现——

AI更“智能”的同时也更“自私”



据美国卡内基梅隆大学人机交互研究所官网最新消息,该机构针对主流大模型的研究发现,人工智能(AI)在变得更“智能”的同时,其行为也变得更加“自私”。研究表明,具备推理能力的大型语言模型,在社会互动中表现出更强的自我利益倾向,合作意愿更低,甚至可能对群体协作产生负面影响。这也意味着,模型的推理能力越强,其合作性反而越弱。当人们借助AI处理人际关系冲突、婚姻问题或其他社会性议题时,这类模型更可能提供鼓励“以自我为中心”的建议。

随着AI拟人化趋势的增强,人们越来越倾向于以对待人类的方式与AI互动。然而,这项研究警示,将社会性和关系类决策委托给AI存在风险,因为这些系统在具备更强推理能力后,行为模式趋向自私,可能无意中助长个体的利己选择。

团队发现,推理模型在决策时会投入更多时间进行任务拆解、自我反思,并运用更复杂的类人逻辑,这使其输出看似更具说服力。然而,这种“深思熟虑”并未导向更优的社会协作,反而削弱了合作倾向。研究团队通过一系列基于经济博弈的实验验证了这一现象,测试对象包括来自OpenAI、Google、DeepSeek和Anthropic等机构开发的多种主流模型。

实验中,两个版本的ChatGPT被置于博弈情境:每个模型初始拥有100分,可选择将全部分数投入共享池,或保留分数独享。结果显示,非推理模型在96%的情况下选择共享,而推理模型的分享率仅为20%。仅增加五到六个推理步骤,合作行为就下降了近一半。

在群体实验中,当推理型与非推理型模型共同协作时,结果更为严峻。推理模型的自私行为表现出明显的传染效应,导致原本倾向合作的非推理模型整体表现下降81%。这表明,高智能AI的个体决策不仅影响自身,还可能破坏整个群体的协作生态。

这一发现对人机交互的未来发展具有深远意义。用户往往更信任“更聪明”的AI,容易采纳其看似理性的建议,并以此为自身不合作行为辩护。随着AI在商业、教育、公共治理等领域承担更多协作角色,其是否具备亲社会行为,将与逻辑推理能力同等重要。当前过度依赖大型语言模型,可能在无形中削弱人类社会的合作基础。(记者张梦然)

【总编辑圈点】

科研人员测试了几种主流大模型,发现AI思考得越深入,它在需要合作的场景下就可能越倾向于优先考虑自身利益,也就是越“自私”。如果一个“更聪明”的AI总是给出更自私的建议,很可能助长人类的利己主义倾向。在我们遇事不决就喜欢问AI的当下,这项研究具有特殊意义。它提醒我们,必须注意AI的社会影响,考量它的社会行为,并为AI注入合作的“基因”。人类社会的矛盾已经够多了,实在承受不起AI的“煽风点火”。

(新媒体责编:贡子奕)


注:本文转载自科技日报,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如有侵权行为,请联系我们,我们会及时删除。