人脑“认知卸载”:大脑会不会因此停留在舒适区?
17世纪的法国思想家、数学大师帕斯卡尔有句名言:“人不过是一根会思考的芦苇。”人类的价值和尊严,正是在于能够独立思考。如今,当ChatGPT能在眨眼间写出一份论文、Claude能秒级梳理繁杂逻辑,我们不得不反思:我们的“思考之芦苇”是否开始枯萎?我们会不会因图方便,主动舍弃了思考的主动权?
纽约州立大学石溪分校教授劳伦·里士满认为:“人工智能本身不会让人变懒;问题在于我们如何使用它。”那么,人们在运用生成式人工智能(AI)时常见的问题有哪些?又该怎样调整习惯,让科技真正成为认知的帮手?
思考负担减轻带来悄然隐患
据英国《新科学家》网站报道,生成式AI已深刻改变日常生活,助长了人类长期以来的“认知卸载”倾向——也就是借助外部工具减轻大脑负担。就像购物时,人们更愿意写清单,而不是用脑记住每一项。不过,相较于苏格拉底对于书面记录的担心,AI带来的挑战无疑更为深远。
在今年3月发表于《自然》的论文中,里士满团队指出,频繁依赖认知卸载会削弱大脑的活跃度。生成式AI的过度使用,让学习变得机械和表面化,且有可能引发恶性循环:依赖越多,独立思考的能力越弱,随之就更加依赖辅助工具。
英国苏塞克斯大学哲学家安迪·克拉克则持一种平衡的观点,他提出“心智外延”理论,认为适当用外部工具减负大脑无可厚非。但他也警觉于这样一个风险:当人的心智能力不断向AI和互联网迁移之际,我们对于工具的依赖已达到前所未有的高度。说得直白点,一旦失去电力或网络支持,人们的认知活动可能会陷入瘫痪。
今年年初,美国宾夕法尼亚大学的研究发现,与依赖搜索引擎相比,接受ChatGPT辅助的志愿者写出的文章更短,引用事实更少。原因在于AI直接代替了人类整合信息的过程,将探究与发现的机会“让渡”给了算法。这种方式下,学习沦为被动输入,对知识的掌握也就浅尝辄止。
一些初步证据表明,过度依赖AI可能正在侵蚀批判性思维。瑞士SBS商学院迈克尔·格尔利希的一项研究显示,在17—25岁的年轻人中,AI依赖性远高于长者,其批判性思维能力则下降了约45%。格尔利希将此现象称为“认知惰性”。当连一封道歉信都交由AI书写时,我们或许正在有意无意中拒绝面对更为复杂艰深的思考任务,这才是真正值得警惕的地方。
流畅表达并非思想的证明
如果我们的思考力真的受到挑战,那么AI是否有资格替我们承担智力工作?科学界对此持谨慎态度:AI给出的答案虽然流畅,却掩盖了它无法“真正思考”的本质。
去年,《自然》杂志的一篇重要评论特别指出:语言流畅不等于具备思维能力。
三位美国科学家通过相应的证据予以证明。例如,大脑中掌管语言的区域和推理的区域其实是分开的。有些失语症病人虽无法说话,却仍能解答抽象数学难题。甚至婴儿在开口说话前,已会像科学家一样主动探索环境。
既然语言不是思考本身,那么大型语言模型──这些通过预测下一个单词来生成句子的AI──实际上也并没有真正的思维。它们之所以能给出像模像样的答案,更多靠的是对语言结构的模仿,而非背后真正的理解与认知。
美国哲学家理查德·罗蒂曾指出,“常识”往往是那些反复被使用、最终凝固为公式化表达的“死隐喻”。生成式AI擅长捕捉和复现这些被广泛使用的表达,但对诞生这些语言的个人经验却无从涉足。
因此,当人们请AI解答问题时,它只是像鹦鹉一样复述已有内容,被圈在数据和词汇的围墙之内。它能精确叙述“骑自行车”涉及的物理原理,却永远无法领会初次骑车、双脚离地时人类的那份真实体验。
保持“先思考,后用AI”的习惯
想要守护认知能力,关键是转变和AI的关系,让它成为激发思考的辅助,而不是完全替代。可实际操作起来并不容易。相关实验发现,即使那些自称思维缜密的人,缺乏明确策略时也同样容易陷入“思维懒惰”的舒适区。
不过,美国麻省理工学院的一项实验发现,先独立写完一遍作文的人,即使随后利用ChatGPT润色或重写,头脑的参与度仍能保持较高水准。
安迪·克拉克提出,最要紧的是始终做那个率先思考的人。独立思考越多,就越能提升“混合认知”的能力。更多专家建议,把AI当做补充自身理解的工具,而非完全依赖的跳板。
克拉克还提醒要规避“锚定效应”:人类的下判断容易被最先获得的信息左右。哪怕有意分析AI的答案,仍难免受到其首个回应的影响。他建议,处理正反面问题时可以反向操作:比如不直接让AI总结负面因素,而是先让它陈述事实,由自己提炼出负面影响,最后再请AI帮忙查找漏洞或补充反例。
如果人们所有答案都由AI提供,那么原创内容会越来越少,AI训练所需的新鲜语料也会随之稀缺,最终只会反复自我复制,陷入“模型崩塌”,创新能力和思维活力日渐枯竭。相反,只要方式得当,人类的智慧和AI的能力可共同成长。
归根结底,只有让人性中的“思考芦苇”不断生长与创造,AI才能真正成为认知的伙伴,而非替代人类思维的海市蜃楼。
记者 张佳欣





