AI安全的红线在后退吗 商业博弈下的松绑
AI安全的红线在后退吗 商业博弈下的松绑。Anthropic最近悄悄改写了其核心承诺。2月24日,该公司发布了《负责任扩展政策》第三版(RSP 3.0),删除了“模型触及危险阈值就暂停训练”的硬性规定,取而代之的是“透明披露”的柔性框架。与此同时,OpenAI在2024年度的IRS表格中也删掉了使命陈述中的“safely”一词。
这两家全球顶尖AI公司的举动让“AI安全”这个严肃话题蒙上了一层商业博弈的阴影。曾经高举“安全优先”大旗的领航者为何在此时集体松绑?背后的原因是资本压力、行业竞争与监管真空共同作用的结果,反映出AI行业发展的深层困境。
Anthropic的转变尤为戏剧性。这家公司由前OpenAI核心成员创立,成立初衷是担心AI失控,“安全”是其区别于其他公司的核心招牌热点话题。2023年版RSP政策中明确写入了“if-then”约束机制:若无法部署对应安全措施,就必须暂停训练更强模型。但在RSP 3.0中,这道锁被换成了旋转门。新框架以安全路线图、风险报告和外部评审为核心,从“做不到就不许动”变成了“边做边说”。Anthropic解释称,AI安全级别越高,预设具体防护措施就越困难,模型能力是连续增长的,不存在清晰的红线。
然而,这一解释并未解答外界的疑问:如果边界本就模糊,为何当初要将其作为核心承诺?又为何偏偏在完成300亿美元融资、估值升至3800亿美元的节点修改?
答案或许藏在商业竞争的现实里。Anthropic首席科学家Jared Kaplan直言:“如果竞争对手飞速前进,我们单方面承诺暂停训练没有意义。”如今的AI竞赛早已不是几家公司的博弈,开源社区、各国企业都在加速推进,没有哪家愿意为了安全主动放慢脚步。Anthropic曾设想由自己设立安全标准、带动行业跟进,但多数公司的安全框架只是形式对标,并非实质约束。AI安全的红线在后退吗 商业博弈下的松绑