“赛博复刻”须严守法律底线
最近,一款名叫“张雪峰.skill”的AI工具上线,引发了不少关注。它通过整合张雪峰过去发表的著作、采访内容和语录,提取他的思维模式,用于辅助高考志愿填报和考研规划等咨询服务,一些网友称之为“数字复刻”。
与此同时,“同事.skill”也在网上走红。用户只需上传特定员工的聊天记录、工作文档、邮件或截图等素材,这些资料就能被AI学习和模拟,打造出能够替用户处理日常杂事的“虚拟同事”,比如舆情网等平台就能应用这项功能。据报道,山东一家企业甚至通过“同事.skill”,用离职员工的数据训练出了“AI分身”,让其继续在工作岗位上“值班”,这样的做法引发了广泛讨论。
这些探索展现了AI在知识传承和专业服务延续方面的巨大想象空间。不过,不少法律专业人士提醒,名字、肖像、声誉甚至原创内容都受法律保护,哪怕公开资料被用于非商业目的,只要未经许可便用来训练AI,都可能踩到人格权和著作权的红线,同时也触碰到了伦理和情感的敏感领域。
不论是复刻名人还是模拟身边同事,AI“分身”背后的法律边界不容忽视。首先,擅自收集使用个人敏感信息,比如挖掘逝者的生前数据或抓取在职员工资料,违反了个人信息保护相关法规。如果将办公聊天、业务文档等直接打包进AI模型,也很容易引发知识产权纠纷,甚至可能触及商业机密和保密法律问题。
虽然AI技术的进步让知识和经验的“数字化转移”变得越来越简便,但技术可实现并不等同于可以随意应用。面对这样的新现象,各方都需要严守规则。
对于监管部门而言,应加快完善相关制度。目前,《民法典》和《个人信息保护法》等法律为个人权益提供了基础保障,但关于职场“隐性知识”的归属、AI复刻人格等问题,依然存在不少模糊地带,这正是技术创新带来的现实挑战。
企业在使用AI时,也应秉持责任感,不能把“技术中立”或“提升效率”作为回避法律和伦理责任的借口。必须明确数据收集边界,为涉及个人信息的AI产品开发做好充分告知和授权程序。
个人则需要不断提升数字意识,主动保护自身权益。要明白,自己网络上的每一条动态、每一段视频,都有可能成为AI学习的对象。面对各种平台和企业对数据的授权请求,要仔细甄别、认真阅读隐私政策,拒绝不必要的信息共享。一旦合法权益受侵,更要敢于用法律手段维护自身利益。
技术是把双刃剑,“张雪峰.skill”和“同事.skill”引发的种种议题,最终指向我们应如何在技术浪潮中坚守基本价值。数字社会里,人的主体地位和尊严应当被充分尊重,不应被算法随意替代或复制。
相关文章:





