Featured image of post 白宫要给AI装「安检门」——特朗普政府为何突然不「自由市场」了?

白宫要给AI装「安检门」——特朗普政府为何突然不「自由市场」了?

特朗普政府拟发布行政令,要求新AI模型发布前经过政府审查。从废除拜登AI令到亲手建起审查机制,一个「自由市场」政府的政策急转弯背后,是AI能力快到临界点的真实焦虑。

昨天刷到这条新闻的时候,我愣了好几秒。

《纽约时报》和路透社同步报道:特朗普政府正在考虑要求AI公司在发布新模型前,先接受政府审查。不是"我们建议你自查一下"那种,是正经的审查流程。

消息一出,整个AI圈的反应出奇一致——不是震惊于"政府要审查AI"这事儿本身,而是说这话的人不对

拜登政府在2023年干过类似的事,要求AI开发者向政府提交安全测试结果。特朗普一上台就把它废了,同时废掉的还有一系列联邦AI标准。过去一年半,这届白宫对AI的态度用一个表情包就能概括:别管我,让我跑。

废除监管、威胁制裁搞AI监管的州、高喊美国优先要赢下AI竞赛——都是同一套剧本。

现在剧本突然翻页了。

Mythos才是那个点燃引信的家伙

白宫正在酝酿的行政令,核心是成立一个由科技高管和政府官员组成的AI工作组,专门研究怎么对新模型搞"发布前审查"。白宫高级官员已经在最近几周跟Anthropic、Google和OpenAI的高管们通过气了。

这事儿还没定案。白宫官员对外说的口径是——关于行政令的讨论目前还只是"猜测",真要有啥政策 announcement,得特朗普本人亲自来。

但真正让我觉得有意思的是,这整件事的导火索。

不是GPT-5.5,不是Opus 4.7,是一个叫Mythos的模型。Anthropic开发的,能力强到能高效识别软件安全漏洞。强到什么程度?Anthropic自己说它"可能引发网络安全领域的清算",然后——拒绝公开发布

这就引出了一个白宫不得不面对的问题:如果一家公司可以单方面决定什么AI能力"太危险不能发布",那政府是不是也该有个发言权?

我后来想,这其实是个挺经典的囚徒困境。公司不发布,是出于责任感的自我约束;但如果另一家不那么有责任感的公司决定发布呢?或者更糟,有人用开源方式把类似能力放出来?

政府的思路是:不能把"什么能发布"这事完全交给AI公司。就像不能把"什么药能上市"完全交给制药公司。

道理是这个道理,但从这届白宫嘴里说出来,味道就很微妙了。

回头看那18个月的政策轨迹

要理解这个转向有多剧烈,得先看看特朗普上台后对AI干过什么。

2025年1月,上任第一天就签署行政令,废了拜登那套AI监管框架。

2025年12月,又签了一个,这次更狠——威胁从联邦宽带基金里扣钱,制裁那些搞"阻碍美国AI领先地位"的州法规。命令原文写得明明白白:“美国的AI公司必须能够在没有繁琐监管的情况下自由创新。”

2026年3月,白宫搞了个国家AI立法框架,核心主张是全国统一标准,不让各州各自为政。同一个月,还下令联邦机构全面停用Anthropic产品——原因是Anthropic拒绝放宽军事用途限制。

然后到了2026年5月。

同一个人,同一个政府,开始考虑AI发布前审查。

这个转向看起来矛盾,但仔细想想,逻辑线是通的。特朗普政府从来没反对过"监管"本身——它反对的是"别人来监管"。当监管权从加州和纽约州手里拿回来、握在联邦政府手里时,行政令就突然香了。

更重要的是,AI的能力曲线已经逼近了一道他们不得不正视的红线。

GPT-5.5、Opus 4.7 和一直没露面的 Mythos

三个几乎同时发生的技术节点,把白宫推到了谈判桌前。

GPT-5.5的Agent能力是一个量级变化。

4月24日发布的GPT-5.5,OpenAI说它是"为复杂真实世界工作设计"的。英国AI安全研究所的测试数据很吓人:GPT-5.5能独立完成一个模拟的32步企业网络攻击,一个人类安全专家需要20小时才能干完同样的事。OpenAI自己的安全评估把GPT-5.5的网络安全能力评为"高",距离最高档"临界"(能自主开发针对生产系统的零日漏洞利用)只差一档。

什么意思呢?以前的AI是个聊天框,你得告诉它每一步怎么做。现在它是一个可以自主行动的数字员工,给它一个目标,它会自己规划、自己找工具、自己纠错。当"可以自主行动"包括"可以发起网络攻击"时,政府不可能再装没看见。

Opus 4.7这边也不让人省心。

比GPT-5.5早一天发布的Claude Opus 4.7,在软件工程基准(SWE-Bench Pro)和MCP工具编排上领先GPT-5.5,232页的系统卡前所未有地长。Anthropic强调的是"严谨性和一致性"——换个角度理解:这模型能力很强,但也很复杂,行为边界不好确定。

两个前沿模型几乎同时达到相似的能力水位线。头部玩家们都在猛踩油门,任何一个的安全失误都可能是灾难性的。

但真正让白宫从"再看看吧"变成"得管管"的,是Mythos。

这个模型至今没有公开发布。Anthropic高管的原话是它"可能引发网络安全领域的清算"——不是修辞,是真的认为它能造成实质性破坏。所以Anthropic选择不发布它。

问题是,白宫看到的不是"Anthropic很有责任感",而是"如果下次发布的是一个没那么有责任感的公司呢?"

一个诡异的悖论:Anthropic被打了左脸,右脸又被叫去开会

这个故事里最黑色幽默的一幕是:正在被白宫叫去商量监管的Anthropic,同时也是被特朗普政府往死里制裁的对象。

就在几周前,特朗普签了行政令要联邦机构逐步淘汰Anthropic产品。五角大楼给它贴了"供应链风险"的标签,财政部、国务院、卫生与公众服务部相继停用Claude。Anthropic起诉了五角大楼,好在联邦法官发了临时禁令。

然后到了5月,白宫说:来,坐下聊聊AI安全的事。

又打又拉,这姿态挺诚实的。翻译一下就是:我需要你的技术,但我信不过你的价值观;我看重你的能力,但我不想被你绑架。

4月底特朗普在CNBC采访里话锋一转,说Anthropic"正在变得不错"“未来可以大有用处”。Axios紧接着报道白宫在起草允许联邦机构使用Anthropic的指引。从全面封杀到重新接纳到寻求合作——不到两个月,画了一条完整的U型曲线。

政商关系能做到这么拧巴的,也是少见。

那套欧盟剧本,美国抄不了

很多人看到这消息第一反应是:这不就是欧盟AI Act吗?

仔细看,差挺远的。

欧盟那套是基于风险分级——不可接受风险不能用,高风险要严管,有限风险贴个标签就行。核心出发点是保护公民权利,防止算法歧视和隐私侵犯。

白宫这次想搞的模式不一样。它是基于能力阈值——不管你是干什么的AI,只要能力到了某个水平线,就得先让我看看。出发点是国家安全,防止AI驱动的网络攻击和生物武器开发。

两者的共同困境倒是一致的:监管永远追不上技术迭代。欧盟AI Act从提案到生效花了三年多,GPT-5.5和Opus 4.7的发布间隔只有几天。

这事跟中国有什么关系?

说几个我觉得值得关注的点。

第一,中美之间的"监管鸿沟"可能会拉大。 如果美国真搞起发布前审查,中国AI公司的处境有点两难:跟着搞监管吧,可能拖慢自己迭代速度;坚持不干预吧,国际合作上可能陷入被动。

第二,开源和闭源的博弈会进入一个新阶段。 如果闭源模型受审查,开源可能变成绕开监管的通道——就像当年加密货币绕过传统金融体系一样。这个逻辑下,中国AI公司拥抱开源的可能性反而在增加。

第三,AI安全的国际标准之争会越来越激烈。 谁定义"安全",谁就握住了监管的尺子。美国搞以国家安全为导向的审查,欧盟搞以公民权利为导向的监管,中国可能会推出自己的版本——三套标准并行,全世界AI公司得做三套合规。

第四,人才流动的方向可能有变数。 如果美国监管趋严,一部分不愿意受政府审查约束的研究者可能把目光转向中国或其他地区。当年欧洲GDPR实施后一些AI创业者跑到美国去发展,历史可能重演,只是方向相反。

几个没人答得出来的问题

最后说几个我越想越觉得悬而未决的事。

工作组怎么运作?科技公司高管和政府官员坐一个委员会里,利益冲突怎么解决?Google的VP参与对OpenAI模型的审查,商业机密怎么保护?

审查标准怎么定?“危险"的AI模型怎么定义?是按能力来(能发起攻击就算),还是按意图来(被设计用于攻击才算)?一个能自主编程的AI Agent,既能帮开发者修bug,也能帮黑客写恶意软件——同一个东西,你怎么定它是有害还是无害?

通不过怎么办?白宫有权禁止一个模型发布吗?公司不服告到哪里?这可是碰了宪法第一修正案的底线——代码到底算不算受保护的言论?

这些问题目前一个答案都没有。

但有一件事是确定的——AI的能力曲线在以超出政策制定者预期的速度往上冲,“先看看再说"的窗口期正在关闭。

2025年12月,特朗普在废除州级AI监管的行政令里写:“美国的AI公司必须能够自由创新。”

六个月后,同一个政府在起草AI发布前审查的命令。

不是特朗普变了。是这个技术跑得太快了,快到让最坚定的自由市场信徒都开始怀疑自己的信仰。


参考来源:

RSS Feed 使用 Hugo 构建
主题 StackJimmy 设计