中国正在塑造全球人工智能治理格局
英国《自然》网站于12月10日刊发社论,关注近年来人工智能(AI)技术的发展和应用。文章提到,全球范围内学者、智库、组织等围绕AI伦理和治理展开了大量讨论,发布了诸多白皮书和建议。尽管相关政策与理论层出不穷,但在国际层面形成统一、有效的管理体系却步履缓慢,全球领导力尚有不足。如今,中国正在努力打破这一僵局。
为推动全球AI协同治理,中国提出创设“世界AI合作组织”,以便建立国际性协调机制。文章分析指出,成立这一机构有利于各国共同维护利益,各国政府都应积极加入并参与其建设。
警惕AI潜在风险
当前AI模型展现出了强劲的技术潜力,不仅能帮助科研提速,也在经济领域释放巨大价值。但AI在理解世界的方式上仍存在盲区,这可能导致其做出不预期的决定,有时会带来负面影响,例如激化社会不平、助长违法犯罪或扩散虚假信息。个别专家甚至警告,未来高级智能系统可能在能力上全面超越人类,给人类社会安全带来真实挑战。
尽管AI风险不容忽视,但许多国家对这些问题依然重视不足。美国虽然拥有全球领先的AI模型和应用,但缺乏国家级统一监管,仅靠各州法规分散约束,大多依赖企业自律建立内部管理体系。
针对企业在AI安全方面的表现,总部设在加州的“未来生命研究所”于12月3日公布了一份《AI安全指数》评估报告,主流美国科技公司的评分均未超过C+。
欧盟已于去年制定《AI法案》,对高风险AI系统生产商要求严格风险监控。该法案正在逐步推行,尽管违犯规定会遭遇严厉罚款,但外界普遍认为震慑效果尚未如预期。各大企业仍在游说欧盟,希望政策能够放宽。
关注中国新模式
社论认为,中国在AI治理方面探索出一条新路。政府正积极推动AI在各行业落地应用,既有政务知识机器人,也有提升制造效率的数字化工厂;并通过相应管理规定要求AI系统具备溯源功能,同时压实企业在安全方面的主体责任。
自2022年以来,中国不断完善关于生成式AI的法律、规范和标准,既要求开发者在上线前完成安全评估,也规定内容必须标示来源,防范欺诈与虚假信息。这一监管进程正在加速:据北京协和人工智能咨询公司统计,仅2025年上半年,中国发布的新标准几乎追平过去三年的总量。
随着中国AI技术日益成熟,中国标准的国际影响力也在增强。许多国外企业已经采用中国企业发布的低成本或免费开源模型搭建服务。此外,中国学者频繁参与全球治理机制的探讨,为制定高效、可执行的国际规则贡献探索。
共商全球管理方案
目前国际社会的AI治理努力,包括经济合作与发展组织的《AI原则》和欧盟委员会发布的《AI框架公约》,因缺乏强制力和具体执行体制,成效并不突出。要实现AI的有序管控,需要全新思维。拟议中的世界AI合作组织,可参照维也纳国际原子能机构这种监管模式,促使各方自觉遵循公约与协议。
社论最后强调,全球范围的AI竞赛不代表人类一定变得更安全或者更加富有。真正的可持续发展,需要各国围绕AI安全标准和合理应用达成更广泛共识。中国提出成立世界AI合作组织的主张值得国际社会关注和支持,全球的学者和科研机构也应主动参与,共同塑造未来治理新格局。





