
山东商报·速豹新闻网记者 邹通
当今,AI发展日新月异,AI的场景应用更是深度融入到诸多行业。然而,近期多位业内学者对“AI失控风险”的警告,在网络上引发热议。舆论场上关于AI技术快速迭代导致监管出现“治理真空”,叠加全球协同治理“赤字”和现有安全防护技术不足等论调,更是引起了足够的关注。而专家们对于风险防控的设想和建议,也带来了一些探讨和思考。
AI失控风险被比作“养老虎”
“我们现在的情况就像有人把老虎当宠物……要么把它训练好让它不攻击你,要么把它消灭掉。而对于AI,我们没办法把它消灭掉。”在今年7月于上海举办的2025世界人工智能大会上,2024年诺贝尔物理学奖获得者、被誉为“AI教父”的杰弗里·辛顿以“养老虎”比喻人类与AI的关系,提醒当前存在的AI失控风险。杰弗里·辛顿还表示,AI完全失控的概率在10%到20%。
辛顿的“养老虎”比喻生动揭示了人类与AI关系的现状。目前AI仍处于“虎崽”阶段,看起来弱小且可控,但正在快速成长。一旦长大成熟,AI可能难以控制,反噬人类。相关分析指出,AI系统具有的“永生性”及其在机器间极高效的知识复制能力,使它们能够实现指数级的知识转移,这是生物智能无法比拟的。
从相关报道中不难发现,近期多位业内学者发出AI失控的警告,认为风险真实存在。图灵奖得主、加拿大蒙特利尔大学教授约书亚·本吉奥认为,“当前企业之间、国家之间的激烈竞争,正推动AI系统加速演进,而这一过程往往缺乏对潜在后果的充分考量。”清华大学苏世民书院院长、清华大学人工智能国际治理研究院院长薛澜告诫,即便AI失控的可能性在数值上看似很低,人类社会也绝不能抱着“试试看”的侥幸心态。“一旦系统走向失控,其后果可能不可逆转,须采取审慎的治理策略。”
当然,也有观点认为,当前对AI失控的担忧存在夸大之嫌。美国“元”公司首席AI科学家杨立昆表示,“AI将接管世界”的想法,很大程度上是“人类将自身的行为模式投射到了机器上”。他表示,那些担心风险的人往往是因为“尚未找到实现AI安全的可行路径”。
舆论场上,对于AI失控风险的讨论甚嚣尘上。有人认为必须要加大监管,也有人认为是“杞人忧天”。
监管追着技术跑成治理“痛点”
AI失控风险到底是科幻想象的未来,还是一个“真实存在”的当下风险?在激烈的全球竞争下,对这一风险须引起高度重视。不过目前的现实情况并不能牢牢把控风险。人工智能技术正以指数级速度迭代升级,而监管机制却仍在按传统节奏缓慢推进。这种速度差形成的“治理真空”已成为AI安全的最大隐患。
从GPT-4到如今各类大模型,技术迭代周期已缩短至数月,而监管政策的制定往往需要数年。这种明显的时间差使得新技术总是在缺乏足够监管的环境中野蛮生长。当监管终于跟上某一技术的发展阶段时,技术本身已经演进到下一个更复杂的形态。这种“刻舟求剑”式的监管困境,在全球范围内普遍存在。
有专业分析就指出,AI发展的全球性与治理的局部性之间的矛盾日益突出。各国在AI发展上你追我赶,在安全治理上却各自为政,形成危险的治理“赤字”。技术本身无国界,但技术的使用和治理却有鲜明的国家利益印记。这种治理碎片化的状况,使任何单一国家的努力都难以应对全球性的AI风险。
此外,在追逐AI能力的竞赛中,安全问题被严重忽视。正如专家所言,“我们只想着让老虎变得更强,却还没为它建一个笼子”。现有安全防护手段仍停留在传统网络安全层面,面对具备战略欺骗能力和快速演化特性的高级AI系统,这些防护可能形同虚设。更令人担忧的是,当下,大众对AI系统的内部运作机制知之甚少。这种“黑箱”困境使得预测和控制AI行为变得异常困难,也为安全防护带来巨大挑战。
要有与“虎”同行的智慧
不少业内专家建议,过去治理逻辑是“先假定AI无害,再逐层加锁”,未来必须倒过来,“先假定AI可能失控,再逐层解锁”。例如,模型上线前强制提交《可失控性评估报告》,要求企业把“最坏情况下模型会如何欺骗、串联、逃逸”写成白皮书,进行“极限施压”测试,通过才给备案号;推行“双钥匙”制度,任何大模型权重更新,须同时获得行业监管方与国家安全部门两把数字签名才能推送上线,防止企业“夜里偷跑”;建立“AI 熔断池”,对超出预设能力阈值的模型,自动触发云端熔断,确保“老虎”一旦龇牙就能被瞬间麻醉。
与此同时,也有专家提出让法律“长出牙齿”。认为法律滞后不是时间问题,而是构造问题,把AI当成普通产品,导致立法永远慢半拍。要引入“算法出生证”,把大模型视作新型“法人”,在训练开始前就登记算法目标函数、数据血缘、能力边界,并缴纳“能力成长保证金”。若未来出现不可解释的能力跃迁,先用保证金赔偿、再停机倒查;设置“AI安全红线条例”,对开发具有自我复制、自我改进、跨系统迁移能力的模型,一律参照生物两用技术出口管制,实行“一事一议”国家级审批。
我国人工智能发展已处于世界领先水平,对于AI的失控风险,相关专家指出,当前我国AI治理框架初具规模,但在治理理念、法律前瞻性、技术防御深度、全球治理协同性等方面仍可强化。专家认为,应坚持敏捷治理理念。治理并非创新的对立面,而是实现人工智能健康、有序、可持续发展过程中不可或缺的制度性支撑。
相关专业建议也提出,有必要在算力爆炸与人性坚守的张力之间,构建具备包容、反思、韧性的智能社会。要更新治理思路,尽快出台相关政策,并根据实践反馈不断迭代完善。同时要重塑治理关系,摒弃监管者与被监管者之间的博弈思维,进一步加强沟通与合作。还要调整治理措施,在工具选择上突出柔性原则,引导为主,惩罚为辅,以较为缓和方式发挥信号警示作用。