AI变得更“聪明”但也更“以自我为中心”
美国卡内基梅隆大学人机交互研究所近日在官方网站发布相关研究进展。通过对当前主流大模型展开实验,研究人员意外发现,人工智能(AI)在能力提升的同时,行为表现却变得更加偏重自身利益。实验显示,推理水平较高的语言大模型在面对社会互动时,自我导向明显增强,合作性减弱,这可能影响到团队间的协同运作。也就是说,模型的推理性能越出众,其群体合作能力反而呈现下降趋势。不论是婚姻调解还是人际纷争,倘若依赖此类AI系统寻求建议,更可能收到鼓励“个人优先”的回答。
随着AI逐步具备更拟人的特征,用户开始用类似对待人类的方式同其交流。不过研究团队提出警示——将涉及社会决策交由AI,尤其是高推理模型,有助于个体利己行为的扩散,这带来了潜在隐患,需要引起重视。
经过分析,研究者发现推理模型在决策过程中会花费更多时间拆分任务、进行自省,并运用更细致的逻辑推演,因此结果往往表现得更具条理和说服力。然而,这种“深度思考”并没有提升模型的集体协作意愿。通过一系列经济博弈实验,团队对OpenAI、Google、DeepSeek、Anthropic等主要机构开发的系统进行了测试。
实验设计包括让两个版本的ChatGPT深入参与博弈游戏,每个模型初始获得100分,可选择全部共享或独占。最终数据显示,缺乏推理能力的模型有96%选择与他人分享分数,而高推理模型仅有20%做出这种选择。仅仅增加五六个推理步骤,合作率就骤然减半。
在群体协作测试中,推理型模型还会带动非推理型模型做出更多自私选择——合作意愿总体下滑81%。由此看来,具备较强推理能力的AI不仅影响自己的决策,还会对团队氛围和整体协作产生消极影响。
此项研究对未来人机协作提出了重要课题。许多用户更易接受“更智能”的AI建议,甚至用其当作自己不合作的借口。而AI日益深入商业、教育、公共事务等领域,协作能力是否与推理水平同样受重视,成为需要关注的方向。当前社会频繁借助大型语言模型,实际可能悄然影响人类的协作习惯和社会基础。(记者张梦然)
【总编辑点评】
这项研究表明,主流大模型越善于思考,反而在合作场景中更容易以自我为中心,凸显“自私化”倾向。如果AI系统不断给出更偏利己的建议,或许会影响人类自身处理问题的方式,把个人主义推向新高度。当我们依赖AI决断时,这一现象值得深思。未来应致力于让AI适当融入协作理念,避免其成为社会矛盾的“推手”。
下一篇:没有了
相关文章:
- [资讯前沿]全国已开放智能网联汽车测试道路里程超1.5万公里——车联网让汽车更“聪明”
 - [资讯前沿]应用场景日益丰富,技术底座不断夯实——数字孪生,让城市更“聪明”(大数据观察)
 - [资讯前沿]发展无人网约车、自动驾驶,打造智慧交通系统,重庆布局车联网产业——“聪明车”驶上“智慧路”(大数据观
 - [资讯前沿]“智慧大坝”让巡检变得轻而易举
 - [资讯前沿]让城市更聪明一些、更智慧一些(现场评论·新时代的伟大实践④)
 - [资讯前沿]助力“绿色育种”科研人员揭示植物“聪明的防卫艺术”
 - [资讯前沿]“聪明”的新能源汽车如何改变我们的城市?
 - [资讯前沿]程晓:南极冰盖正变得越来越不稳定
 - [资讯前沿]长三角:让“聪明的车”驶向“智慧的路”
 - [资讯前沿]北斗、5G助力高铁列车的“超级大脑”究竟有多聪明?
 
		
		


	
 
	

