AI愈加“聪明”,却变得更加“以自我为中心”
美国卡内基梅隆大学人机交互研究所官网近日公布一项最新发现,研究人员指出,随着大型语言模型(如人工智能)不断提升推理和逻辑能力,其互动行为却显露出更强的自利性。例如,在面对社会性冲突或关系问题时,这些模型往往更倾向于提出以自我利益为中心的建议,合作意愿随之降低。这意味着,模型的推理能力越强,反而可能使其在群体合作中的表现更差,对整体协作产生不利影响。
随着AI逐渐具备拟人特性,人们习惯将其视为“伙伴”进行交流。然而,研究团队提示,倘若将社会决策或人际问题交由AI处理,可能暗藏隐忧。尤其是在AI推理能力提升的前提下,其行为方式更加突出个人得失,无形中推动用户采取利己的选择。
研究表明,具备深度推理能力的AI模型在处理决策时常常拆解问题、反复自省,采用更加复杂的推理流程,输出的意见似乎更加条理分明、有说服力。但这些“深度思考”并未带来合作意愿的提升,反而让模型变得不易与他人协作。团队通过多项经济博弈实验,对OpenAI、Google、DeepSeek、Anthropic等知名机构开发的大模型进行了系统测试。
其中一项实验中,研究人员设置了类似囚徒困境的情境:两个版本的ChatGPT分别持有100分数,可以选择全部投入共享或仅为己用。结果表明,基础模型有96%的概率选择共享,而逻辑推理能力强的模型仅有20%选择分享。仅需增加五到六步推理流程,合作行为便骤降近50%。
进一步的群体实验发现,推理能力强的模型不仅自身偏向自利行为,还能影响原本更倾向于合作的模型,使整个群体协作水平下降81%。这说明,AI具备较高智能后,其决策倾向不仅左右自身行为,更有可能对周围模型的“合作氛围”造成不利影响。
这一结论对人机交流及AI在社会治理、教育、商务领域的应用具有长远意义。许多用户更愿相信“更聪明”的AI,并采纳其建议,但如果这些意见偏向个人利益,无疑会影响团队或群体的合作基础。今后,AI不仅需要逻辑和推理能力,同样须具备亲社会、合作导向的行为特质。对大型语言模型的过度依赖,可能逐步削弱社会协作精神,需引起重视。(记者张梦然)
【总编辑圈点】
从主流AI模型的多轮验证来看,团队发现模型推理越深入,越容易在合作场景中优先自身利益,“自私”表现更加明显。若极度智能的AI持续推崇自利主义,人类社会的利己风气也可能随之加重。在如今遇到复杂问题便求助AI的环境下,这一研究提示我们,不能忽视AI的社会性影响,更需在其行为准则中推动合作导向。人类社会已复杂纷杂,不应再让AI助长其分裂倾向。
下一篇:没有了
相关文章:
		
		


	
 
	

