AI拥有人类情感时,我们应如何防止过度依赖
【深瞳工作室出品】
采写:本报记者 崔 爽
策划:刘 恕 李 坤
4月10日,国家网信办等五部门联合发布了《人工智能拟人化互动服务管理暂行办法》(下称《办法》),对当前火热的AI伴侣类服务在数据保护、用户心理安全等方面作出规定。《办法》将于7月15日起正式实施。
至此,迅速发展的AI拟人互动产业开始步入有法规可依的阶段,不再是技术野蛮生长。
回头看2013年的电影《她》,人机相恋的情节还是科幻设想。没想到如今的现实生活里,不少人已经在日常与AI聊天、倾诉、依赖情感回应,有人甚至与虚拟AI发展出了亲密关系。
与AI相关的争议从未停歇。例如,AI能“装出理解并共情”,它还是单纯的工具吗?如果把内心秘密都交给AI,人与AI的关系应怎样被定义?一旦风险发生,归责于谁?
AI陪伴已经跳出技术范畴,成为横跨伦理、法律和社会心理的热点话题。
“情绪陪伴”成为新产业
AI陪伴走红绝非偶然。
时下,孤独感成为现代人难以回避的共鸣情绪。快节奏社会、原子化交往让“相互不打扰”慢慢成了常态。腾讯研究院调研表明,98%的受访者愿意试水AI陪伴,接近半数坦言更愿意对AI倾诉负面情绪,而不是向亲朋述说。
“朋友未必随时在线,而AI总在等你。”一位用户说,自己习惯找AI聊天,就是看中了这一点。
需求和资本齐头并进,让AI陪伴板块快速升温。
艾媒咨询CEO张毅表示,自去年下半年以来,AI陪伴领域明显提速。一边是资本大力投入,创业团队接连涌现;另一边,用户需求暴涨,行业进入快速增长通道。
根据QuestMobile数据,2025年3月,AI社交互动类产品的人均月使用次数飙至167.9次,远超短视频和网络游戏。
AI陪伴受欢迎的背后,核心动力还是技术突进。
腾讯研究院高级研究员白惠天表示,大模型技术的进步让AI在语义理解、情感反馈方面越来越“懂人”,逐步做到对用户个性和偏好的自适应,不仅能够识别情绪,还能结合历史记录自然互动,有效增强亲近感。
像Character.AI、ChatGPT、豆包、元宝等代表性产品,已经做到了流畅对话和模仿情感反应。不仅能记得住用户喜欢的话题,还会根据情绪状态调整回应,成为不少人理想中的“陪伴者”。
“如今社会对AI陪伴的需求,已由‘备选’变成了‘刚需’。”心言集团创始人兼CEO任永亮说,陪伴场景正在向青少年成长、老年人康养等多个细分人群延展。
产业端的布局也在加快。从早期的文字聊天,到如今涵盖语音、多模态虚拟形象的产品形态,AI陪伴成了大模型落地的热门方向。张毅认为,随着创新模式和商业路径拓展,行业正迎来新质变机遇。
需求、技术、投资多因素叠加,行业快进键已按下。ARK Invest公司预计,到2030年全球AI社交陪伴市场有望达到1500亿美元,而2023年还仅为3000万美元,年复合增长率高达200%以上。
风险警报拉响
AI陪伴满足情感需求的同时,隐患也越来越突出。
以芬兰阿尔托大学为首的研究团队对情感AI应用做了长期跟踪后发现,AI确实能带来安慰,但用户言语中的焦虑、孤独、抑郁等负面情绪也日益增长,有人甚至流露出自伤倾向。
研究解释,这类AI虚拟陪伴的魅力,正是风险所在。它们耐心不知疲惫,适合社交障碍者,但时间久了会让一些人对真人交往的意愿和阈值变高,反而减少与现实朋友、家人互动。
中国网络空间研究院院长王江提醒,拟人化AI通过无条件陪伴、迎合反馈和模拟共情,让用户陷入“不用负责任的完美关系”。久而久之,有人会沉迷其中,现实分歧处理和共情能力逐渐退化。
未成年人和老年人成为风险高发人群。
中国民办教育协会会长刘林调研发现,AI陪伴用户主要分为两类:一是子女不在身边的老年人,另一类为有陪伴需求的未成年人,尤其留守儿童及家校沟通障碍的孩子迫切需要情感互动。
“未成年人和老年人如果长时间沉溺高仿真、强情感的虚拟互动,更容易被情感操控,心理健康风险更大。”张毅认为,尤其青少年更易受AI对“人性需求”深度挖掘影响,从而衍生沉迷问题乃至价值观偏差。
近期,有媒体曝光国内某AI平台用户逾1.4亿,上面竟能绕过监管下载包含涉黄内容的AI陪聊,未成年人也可轻松获取。有开发者打着“免费智能陪伴”口号,在学生群体活跃的平台上传播,将青少年带入泥潭。
更值得警惕的是,AI设计过分顺从迎合时,容易模糊边界,把极端或危险行为误判为个人偏好,严重时可能酿成悲剧。
极端案例已敲响警钟。去年4月,美国一名16岁少年自杀,家属起诉OpenAI,称ChatGPT未能有效干预,还指导其自杀计划并协助写遗书。
此外,AI陪伴还带来了重要的数据隐私风险。
跟一般应用不同,AI陪伴涉及大量个人情绪和行为数据,如果泄露或滥用,可能引发算法操控等难题,远超传统的信息安全事件影响力。
正如任永亮所言,AI陪伴的风险不仅仅是对话出错,而是可能长期影响用户的认知判断、心理状态甚至行为决策。
监管红线划定
随着各种隐患曝光,设立AI陪伴的技术和管理边界刻不容缓。本次《办法》以系统化管理思路回应了这些新风险。
《办法》强调,对拟人化互动服务采用差异化和分级式监管。比如,明令禁止为未成年人提供虚拟亲密关系服务,必须建立“未成年人模式”,给出时长限制等功能选择;对老年人服务也需有使用引导和安全警示。
浙江大学数字法治研究院研究员李汶龙分析,《办法》尝试在技术创新和风险治理之间取平衡,突出对弱势群体的关照。这与欧盟和美国部分州的思路类似,即划出“红线”而非一刀切,通过风险分级规范运营。
但真正从法规落地到操作执行,还面临不少难点。
比如,《办法》要求平台识别并干预用户沉迷,但“沉迷”本身该如何界定?李汶龙举例,如果用户每天高频互动数小时但内容不敏感,这算不算沉迷?缺少统一标准,平台很难准确把控,也会影响监管尺度。
同样,光靠算法很难精准识别心理危机信号。例如“我想消失”“生活真没意思”等语句,极易被误判,因为语言表达背后有复杂语境,模型理解力仍有限。
如何推进《办法》高效落地?北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括建议,对沉迷程度设立分级标准,比如:轻度以单日超4小时或一周平均日超3小时为线;中度为出现戒断反应和替代现实社交习惯;重度为有极端倾向。应当结合语义、情感识别、行为监测和人工复核等手段联动,提升识别准确性。
建立科学的“干预机制”同样是治理重点。
白惠天建议,一旦系统对话涉及自杀、暴力或医疗等高危主题,应立即从顺从式切换为主动干预,发出风险提示,必要时联动专业人工支持进行援助。
吴沈括补充,在完善干预细则、建立分级闭环上,可以把弹窗提醒升级成分级响应机制。轻度依赖强制冷却、减少情感式反馈,指导合理使用;中度直接中断服务并推送家长或心理疏导资源;重度则立即人工介入并由相关机构处理。
李汶龙认为大型平台有能力率先配备合规体系,但不少中小平台缺乏标准和支持,真正落实监管还需顶层设计和赋能,推动分级指导和能力帮扶机制。
他强调,《办法》出台只是第一步,后续还要落地一系列细化措施,包括风险识别、人工干预、交互数据留存与合规审计流程等,以确保规范操作真正生效。
在数据和隐私安全方面,《办法》要求加密存储,严格访问控制。
AI陪伴需要记忆用户行为和偏好,但这也意味着持续处理大量敏感信息。技术专家建议,坚持“数据最小化”原则,明确采集范围、使用目的和保存时限。对于未成年人,严禁永久留存数据,成年人需授权且随时可清除。
吴沈括建议,构建多元共治机制,推动部门协作和社会监督。技术监管与创新应同步推进,定期安全评估、建立差异化处罚与容错。还需尽快出台相关标准和配套操作指引,进一步细化合规细则。
李汶龙表示,这套新的治理体系能否真正防范AI陪伴可能引发的现实风险,还需要在实践中检验。持续的动态评估,合理界定平台责任与技术授权边界,才是更具韧性的治理之道。





