<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>GPT-5.4-Cyber on 奇诺分享 | 重在分享</title>
        <link>https://blog.ccino.org/tags/gpt-5.4-cyber/</link>
        <description>Recent content in GPT-5.4-Cyber on 奇诺分享 | 重在分享</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>zh-cn</language>
        <lastBuildDate>Wed, 29 Apr 2026 10:00:00 +0800</lastBuildDate><atom:link href="https://blog.ccino.org/tags/gpt-5.4-cyber/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>OpenAI 和 Anthropic 把 AI 黑客模型带进国会：谁有资格使用最危险的 AI？</title>
        <link>https://blog.ccino.org/p/openai-anthropic-ai-cyber-models-congress/</link>
        <pubDate>Wed, 29 Apr 2026 10:00:00 +0800</pubDate>
        
        <guid>https://blog.ccino.org/p/openai-anthropic-ai-cyber-models-congress/</guid>
        <description>&lt;img src="https://blog.ccino.org/p/openai-anthropic-ai-cyber-models-congress/imgs/cover.png" alt="Featured image of post OpenAI 和 Anthropic 把 AI 黑客模型带进国会：谁有资格使用最危险的 AI？" /&gt;&lt;p&gt;2026 年 4 月 28 日，OpenAI 和 Anthropic 做了一件很有信号意义的事。&lt;/p&gt;
&lt;p&gt;它们把各自最新的网络安全 AI 模型，带进了美国众议院国土安全委员会。&lt;/p&gt;
&lt;p&gt;不是发布会。&lt;/p&gt;
&lt;p&gt;不是产品演示。&lt;/p&gt;
&lt;p&gt;而是闭门汇报。&lt;/p&gt;
&lt;p&gt;Axios 的报道说，OpenAI 和 Anthropic 已经分别向国会议员和工作人员介绍了这些“具备网络能力”的新模型，以及它们可能给网络安全带来的影响。&lt;/p&gt;
&lt;p&gt;听起来像是一条普通的政策新闻。&lt;/p&gt;
&lt;p&gt;但它背后真正的问题是：&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;当 AI 已经可以帮助发现漏洞、分析攻击链、甚至辅助生成利用路径时，这种能力应该给谁用？&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;只给少数大型科技公司和政府机构？&lt;/p&gt;
&lt;p&gt;还是开放给更多经过验证的安全团队？&lt;/p&gt;
&lt;p&gt;这一次，OpenAI 和 Anthropic 给出了两套完全不同的答案。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;这次汇报为什么重要&#34;&gt;这次汇报为什么重要
&lt;/h2&gt;&lt;p&gt;过去几年，AI 安全讨论大多围绕几个主题：&lt;/p&gt;
&lt;p&gt;模型会不会胡说？&lt;/p&gt;
&lt;p&gt;会不会泄露隐私？&lt;/p&gt;
&lt;p&gt;会不会生成有害内容？&lt;/p&gt;
&lt;p&gt;会不会被越狱？&lt;/p&gt;
&lt;p&gt;但网络安全模型把问题推到了另一个层级。&lt;/p&gt;
&lt;p&gt;因为它不只是“说错话”。&lt;/p&gt;
&lt;p&gt;它可能帮助人发现真实系统里的漏洞。&lt;/p&gt;
&lt;p&gt;Anthropic 的 Claude Mythos Preview，据称在测试中发现了大量高严重性、此前未知的软件漏洞。OpenAI 的 GPT-5.4-Cyber，则是 GPT-5.4 面向防御性网络安全任务的专门版本，支持更深入的漏洞研究、恶意软件行为分析和二进制逆向。&lt;/p&gt;
&lt;p&gt;这类模型有一个天然的双重属性。&lt;/p&gt;
&lt;p&gt;同一项能力，防御者可以用来提前发现漏洞、修补系统；攻击者也可以用来降低攻击门槛、扩大攻击规模。&lt;/p&gt;
&lt;p&gt;所以国会关心的不是“AI 能不能写代码”。&lt;/p&gt;
&lt;p&gt;而是更现实的问题：&lt;/p&gt;
&lt;p&gt;如果这种模型继续进化，美国的关键基础设施、医院、电网、金融系统和地方政府网络，会不会先被攻击者用 AI 打穿？&lt;/p&gt;
&lt;p&gt;如果防御者也需要这种能力，谁来决定访问资格？&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;anthropic-的答案太危险所以只给少数人&#34;&gt;Anthropic 的答案：太危险，所以只给少数人
&lt;/h2&gt;&lt;p&gt;Anthropic 的路线很清楚：严格控制。&lt;/p&gt;
&lt;p&gt;它的代表模型是 Claude Mythos Preview。&lt;/p&gt;
&lt;p&gt;这个模型并没有面向公众发布，而是放进了一个叫 Project Glasswing 的防御计划里。&lt;/p&gt;
&lt;p&gt;根据公开报道，参与方包括 Apple、Google、Microsoft、AWS、Cisco、CrowdStrike、JPMorgan Chase、Linux Foundation 等少数大型机构。Axios 此前还提到，大约 40 个公司和组织获得了相关访问权限。&lt;/p&gt;
&lt;p&gt;Anthropic 的逻辑并不难理解。&lt;/p&gt;
&lt;p&gt;如果一个模型已经具备发现高危漏洞、分析复杂系统弱点的能力，那么让它进入公众可用状态，本身就是风险。&lt;/p&gt;
&lt;p&gt;尤其是在网络安全领域，能力扩散的速度可能比防御体系升级更快。&lt;/p&gt;
&lt;p&gt;一个普通攻击者过去需要多年经验才能完成的事情，如果被 AI 压缩成“提示词 + 工具调用 + 自动化分析”，那整个攻防生态都会被改写。&lt;/p&gt;
&lt;p&gt;所以 Anthropic 的选择是：&lt;/p&gt;
&lt;p&gt;先不给大众。&lt;/p&gt;
&lt;p&gt;先给少数最有能力、最有资源、也最能承担责任的机构。&lt;/p&gt;
&lt;p&gt;这些机构本身维护着大量关键软件、云基础设施、操作系统、浏览器、安全产品和金融系统。Anthropic 希望它们先用 Mythos 找出自己系统里的漏洞，形成防御经验，再逐步建立行业规则。&lt;/p&gt;
&lt;p&gt;这个策略的优点是显而易见的：&lt;/p&gt;
&lt;p&gt;风险可控。&lt;/p&gt;
&lt;p&gt;参与者可信。&lt;/p&gt;
&lt;p&gt;反馈质量高。&lt;/p&gt;
&lt;p&gt;一旦模型发现严重漏洞，少数大机构也更有能力快速修补。&lt;/p&gt;
&lt;p&gt;但缺点同样明显。&lt;/p&gt;
&lt;p&gt;如果只有巨头和少数政府部门能用最强防御工具，那么其他人怎么办？&lt;/p&gt;
&lt;p&gt;中小企业、地方医院、学校、市政系统、公共事业单位，往往才是最缺网络安全资源的一群人。它们没有 Apple、Google、Microsoft 那样的安全团队，却同样暴露在攻击面上。&lt;/p&gt;
&lt;p&gt;如果最强 AI 防御工具只给少数机构，那么安全能力可能会进一步集中。&lt;/p&gt;
&lt;p&gt;强者更强。&lt;/p&gt;
&lt;p&gt;弱者继续裸奔。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;openai-的答案可以开放但必须验证身份&#34;&gt;OpenAI 的答案：可以开放，但必须验证身份
&lt;/h2&gt;&lt;p&gt;OpenAI 选择了另一条路。&lt;/p&gt;
&lt;p&gt;它推出的是 GPT-5.4-Cyber。&lt;/p&gt;
&lt;p&gt;按照 The Next Web 的报道，这是 GPT-5.4 面向防御性网络安全任务的专门版本。它降低了普通模型在漏洞研究、恶意软件行为分析、利用链理解等方向上的拒答限制，并新增了二进制逆向能力。&lt;/p&gt;
&lt;p&gt;但 OpenAI 没有说“所有人都来用”。&lt;/p&gt;
&lt;p&gt;它把访问放进了 Trusted Access for Cyber 体系。&lt;/p&gt;
&lt;p&gt;简单说，就是分层访问。&lt;/p&gt;
&lt;p&gt;用户需要验证身份。&lt;/p&gt;
&lt;p&gt;不同级别的用户获得不同能力。&lt;/p&gt;
&lt;p&gt;最高级别的验证用户，才可以使用 GPT-5.4-Cyber。&lt;/p&gt;
&lt;p&gt;OpenAI 的路线可以概括为：&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;不是不开放，而是带身份、带监控、带权限地开放。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;这个思路和 Anthropic 很不一样。&lt;/p&gt;
&lt;p&gt;Anthropic 更像是在说：能力太危险，所以只能交给极少数机构。&lt;/p&gt;
&lt;p&gt;OpenAI 更像是在说：能力确实危险，但防御者也需要它；关键不是把门关死，而是建立访问制度。&lt;/p&gt;
&lt;p&gt;这背后有一个现实判断。&lt;/p&gt;
&lt;p&gt;攻击者并不会因为 OpenAI 和 Anthropic 谨慎，就停下来。&lt;/p&gt;
&lt;p&gt;开源模型会进步。&lt;/p&gt;
&lt;p&gt;地下工具会进步。&lt;/p&gt;
&lt;p&gt;其他国家和组织也会训练自己的网络安全模型。&lt;/p&gt;
&lt;p&gt;如果防御方不能广泛获得类似能力，那么未来可能出现一种不对称局面：攻击者用 AI 自动化发现漏洞，普通防御者还在靠人肉排查 CVE 清单。&lt;/p&gt;
&lt;p&gt;OpenAI 的赌注是：让更多经过验证的安全人员使用高级模型，可以提高整体防御水平。&lt;/p&gt;
&lt;p&gt;但它的问题也很尖锐。&lt;/p&gt;
&lt;p&gt;验证机制真的可靠么？&lt;/p&gt;
&lt;p&gt;权限分层能不能防止滥用？&lt;/p&gt;
&lt;p&gt;使用监控能不能及时发现异常？&lt;/p&gt;
&lt;p&gt;如果模型输出被转移、复用、包装成其他工具，平台还能控制吗？&lt;/p&gt;
&lt;p&gt;这不是简单的产品风控问题，而是网络安全 AI 的治理实验。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;真正的分歧安全能力应该集中还是扩散&#34;&gt;真正的分歧：安全能力应该集中，还是扩散？
&lt;/h2&gt;&lt;p&gt;&lt;img src=&#34;https://blog.ccino.org/p/openai-anthropic-ai-cyber-models-congress/imgs/access-models.png&#34;
	width=&#34;1376&#34;
	height=&#34;768&#34;
	srcset=&#34;https://blog.ccino.org/p/openai-anthropic-ai-cyber-models-congress/imgs/access-models_hu_f2632f657878b001.png 480w, https://blog.ccino.org/p/openai-anthropic-ai-cyber-models-congress/imgs/access-models_hu_1938860ed7e88648.png 1024w&#34;
	loading=&#34;lazy&#34;
	
		alt=&#34;两条路线：集中控制 vs 分层开放&#34;
	
	
		class=&#34;gallery-image&#34; 
		data-flex-grow=&#34;179&#34;
		data-flex-basis=&#34;430px&#34;
	
&gt;&lt;/p&gt;
&lt;p&gt;所以，OpenAI 和 Anthropic 的分歧，不是技术路线分歧。&lt;/p&gt;
&lt;p&gt;而是治理哲学分歧。&lt;/p&gt;
&lt;p&gt;Anthropic 认为，最危险的能力应该先集中在少数可信机构手里。&lt;/p&gt;
&lt;p&gt;OpenAI 认为，防御性能力应该在验证后更广泛地扩散。&lt;/p&gt;
&lt;p&gt;两边都有道理。&lt;/p&gt;
&lt;p&gt;如果能力扩散太快，攻击门槛会下降。&lt;/p&gt;
&lt;p&gt;如果能力集中太久，防御能力会垄断。&lt;/p&gt;
&lt;p&gt;这就是网络安全领域最麻烦的地方。&lt;/p&gt;
&lt;p&gt;不像图像生成，滥用后最多是版权、深伪、垃圾内容。&lt;/p&gt;
&lt;p&gt;网络安全模型一旦被滥用，影响的是现实系统。&lt;/p&gt;
&lt;p&gt;医院可能停摆。&lt;/p&gt;
&lt;p&gt;城市服务可能中断。&lt;/p&gt;
&lt;p&gt;金融系统可能被勒索。&lt;/p&gt;
&lt;p&gt;工业设备、汽车、航空、IoT、遗留银行系统这类难以及时修补的基础设施，风险尤其高。&lt;/p&gt;
&lt;p&gt;Bruce Schneier 在分析 Mythos 时提到一个很重要的判断：AI 不一定会让攻击方永久占优，关键取决于系统是否容易修补、是否容易验证。&lt;/p&gt;
&lt;p&gt;手机、浏览器、大型云服务这类系统，如果有快速更新机制，AI 反而可能帮助防御者更快发现和修复漏洞。&lt;/p&gt;
&lt;p&gt;但那些难以更新、难以验证、长期暴露在真实环境中的系统，就会成为最脆弱的目标。&lt;/p&gt;
&lt;p&gt;这也是为什么国会会关心这件事。&lt;/p&gt;
&lt;p&gt;因为它已经不是某家 AI 公司的产品策略，而是国家基础设施风险。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;实验室很强和真实世界可用不是一回事&#34;&gt;“实验室很强”和“真实世界可用”不是一回事
&lt;/h2&gt;&lt;p&gt;不过，也不能把这类模型神化。&lt;/p&gt;
&lt;p&gt;CyberScoop 报道中，美国联邦 CIO Greg Barbaccia 对 Mythos 的态度就很谨慎。&lt;/p&gt;
&lt;p&gt;他的核心意思是：&lt;/p&gt;
&lt;p&gt;测试和基准表现很重要，但不能直接等同于真实网络环境里的有效性。&lt;/p&gt;
&lt;p&gt;实验室里发现漏洞是一回事。&lt;/p&gt;
&lt;p&gt;面对一个有人防守、有告警系统、有权限边界、有复杂业务逻辑的真实网络，是另一回事。&lt;/p&gt;
&lt;p&gt;这句话很关键。&lt;/p&gt;
&lt;p&gt;很多 AI 模型在 benchmark 上看起来很强，但真实环境里会遇到一堆脏问题：&lt;/p&gt;
&lt;p&gt;系统文档不完整。&lt;/p&gt;
&lt;p&gt;资产清单不准确。&lt;/p&gt;
&lt;p&gt;权限边界混乱。&lt;/p&gt;
&lt;p&gt;历史包袱很多。&lt;/p&gt;
&lt;p&gt;告警噪声巨大。&lt;/p&gt;
&lt;p&gt;业务系统不能随便停机。&lt;/p&gt;
&lt;p&gt;安全团队真正缺的，也不只是“再发现一个漏洞”。&lt;/p&gt;
&lt;p&gt;他们缺的是判断：&lt;/p&gt;
&lt;p&gt;哪个漏洞真的影响核心资产？&lt;/p&gt;
&lt;p&gt;哪个漏洞只是理论风险？&lt;/p&gt;
&lt;p&gt;哪个修复可以立即做？&lt;/p&gt;
&lt;p&gt;哪个修复会影响生产系统？&lt;/p&gt;
&lt;p&gt;哪个风险应该优先处理？&lt;/p&gt;
&lt;p&gt;所以 AI 网络安全模型的价值，不能只看它能不能发现漏洞。&lt;/p&gt;
&lt;p&gt;更要看它能不能进入完整的防御流程。&lt;/p&gt;
&lt;p&gt;这也是 Schneier 提到的 VulnOps 方向：用 AI agent 持续在真实技术栈上测试漏洞、验证修复、过滤误报，并把安全测试变成软件工程的日常流程。&lt;/p&gt;
&lt;p&gt;换句话说，未来的安全 AI 不应该只是一个”黑客聊天机器人”。&lt;/p&gt;
&lt;p&gt;它更像是一套持续运行的防御系统。&lt;/p&gt;
&lt;p&gt;发现。&lt;/p&gt;
&lt;p&gt;验证。&lt;/p&gt;
&lt;p&gt;排序。&lt;/p&gt;
&lt;p&gt;修复。&lt;/p&gt;
&lt;p&gt;复测。&lt;/p&gt;
&lt;p&gt;留痕。&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://blog.ccino.org/p/openai-anthropic-ai-cyber-models-congress/imgs/vulnops-workflow.png&#34;
	width=&#34;1376&#34;
	height=&#34;768&#34;
	srcset=&#34;https://blog.ccino.org/p/openai-anthropic-ai-cyber-models-congress/imgs/vulnops-workflow_hu_74dbeeb0ccdcd5a7.png 480w, https://blog.ccino.org/p/openai-anthropic-ai-cyber-models-congress/imgs/vulnops-workflow_hu_ffbb342793987c0b.png 1024w&#34;
	loading=&#34;lazy&#34;
	
		alt=&#34;VulnOps：AI 安全代理进入开发流程&#34;
	
	
		class=&#34;gallery-image&#34; 
		data-flex-grow=&#34;179&#34;
		data-flex-basis=&#34;430px&#34;
	
&gt;&lt;/p&gt;
&lt;p&gt;这才是真正的价值。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;cisa-没有访问权限说明问题更复杂&#34;&gt;CISA 没有访问权限，说明问题更复杂
&lt;/h2&gt;&lt;p&gt;还有一个细节很值得注意。&lt;/p&gt;
&lt;p&gt;Axios 此前报道，美国网络安全和基础设施安全局 CISA 并没有获得 Anthropic Mythos 的访问权限。&lt;/p&gt;
&lt;p&gt;这很微妙。&lt;/p&gt;
&lt;p&gt;CISA 是美国负责保护民用联邦网络和关键基础设施的重要机构。按理说，如果有一个强大的防御性网络安全模型，它应该是最需要访问的一方。&lt;/p&gt;
&lt;p&gt;但现实并没有这么顺。&lt;/p&gt;
&lt;p&gt;有些政府机构已经在测试 Mythos，比如 NSA 和商务部相关 AI 测试机构；财政部也在寻求访问。但 CISA 仍然在外面。&lt;/p&gt;
&lt;p&gt;这说明“谁有资格使用最危险的 AI”并不是一个简单的技术审核问题。&lt;/p&gt;
&lt;p&gt;它牵涉公司政策。&lt;/p&gt;
&lt;p&gt;政府采购。&lt;/p&gt;
&lt;p&gt;供应链风险认定。&lt;/p&gt;
&lt;p&gt;军方使用边界。&lt;/p&gt;
&lt;p&gt;监管关系。&lt;/p&gt;
&lt;p&gt;机构间权限协调。&lt;/p&gt;
&lt;p&gt;Anthropic 此前因为军方使用限制问题，与美国国防部门发生过冲突。这个背景也让 Mythos 在政府内部的访问安排更复杂。&lt;/p&gt;
&lt;p&gt;所以，AI 网络安全模型越强，越不可能只是一个 SaaS 产品。&lt;/p&gt;
&lt;p&gt;它会变成政策问题。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;对普通开发者意味着什么&#34;&gt;对普通开发者意味着什么
&lt;/h2&gt;&lt;p&gt;这件事听起来离普通开发者很远。&lt;/p&gt;
&lt;p&gt;国会、Anthropic、OpenAI、CISA、NSA、Mythos、GPT-5.4-Cyber，都是大词。&lt;/p&gt;
&lt;p&gt;但它其实和每个软件团队都有关。&lt;/p&gt;
&lt;p&gt;因为这类能力迟早会下沉。&lt;/p&gt;
&lt;p&gt;今天是顶级实验室和政府闭门讨论。&lt;/p&gt;
&lt;p&gt;明天可能是大型企业安全团队的内部工具。&lt;/p&gt;
&lt;p&gt;后天就会变成开发流程的一部分。&lt;/p&gt;
&lt;p&gt;未来的软件工程，很可能会默认包含一层 AI 安全代理：&lt;/p&gt;
&lt;p&gt;提交代码后，它自动做漏洞扫描。&lt;/p&gt;
&lt;p&gt;部署前，它自动构造攻击路径验证。&lt;/p&gt;
&lt;p&gt;依赖升级时，它自动判断 CVE 是否真正影响当前系统。&lt;/p&gt;
&lt;p&gt;系统上线后，它持续模拟攻击面，检查权限边界和配置错误。&lt;/p&gt;
&lt;p&gt;这不是科幻。&lt;/p&gt;
&lt;p&gt;它只是把今天已经存在的 SAST、DAST、依赖扫描、红队演练、日志分析、安全审计，重新用 AI 串成一个更连续的流程。&lt;/p&gt;
&lt;p&gt;但这里有一个前提：&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;AI 不能替代安全制度。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;最小权限、资产清单、日志留存、快速修补、变更审计、网络隔离、密钥管理、依赖治理，这些老东西不会因为 AI 出现而过时。&lt;/p&gt;
&lt;p&gt;恰恰相反，它们会更重要。&lt;/p&gt;
&lt;p&gt;因为 AI 越强，越需要清晰的系统边界和可验证的工程流程。&lt;/p&gt;
&lt;p&gt;如果你的系统本来就没有权限边界、没有资产清单、没有测试环境、没有日志，那 AI 只会更快地告诉你：你到底有多脆弱。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;最危险的-ai到底应该给谁用&#34;&gt;最危险的 AI，到底应该给谁用？
&lt;/h2&gt;&lt;p&gt;回到最开始的问题。&lt;/p&gt;
&lt;p&gt;谁有资格使用最危险的 AI？&lt;/p&gt;
&lt;p&gt;Anthropic 的答案是：少数可信机构先用。&lt;/p&gt;
&lt;p&gt;OpenAI 的答案是：经过验证的防御者分层使用。&lt;/p&gt;
&lt;p&gt;我更倾向于认为，未来不会只有一种答案。&lt;/p&gt;
&lt;p&gt;最强能力，短期内一定会被严格限制。&lt;/p&gt;
&lt;p&gt;但防御性能力，长期一定会向更多组织扩散。&lt;/p&gt;
&lt;p&gt;因为网络安全不是少数巨头能单独解决的问题。&lt;/p&gt;
&lt;p&gt;攻击面分布在整个社会。&lt;/p&gt;
&lt;p&gt;医院、学校、地方政府、小企业、开源项目、工业系统、个人设备，都是攻击面的一部分。&lt;/p&gt;
&lt;p&gt;如果只有少数机构拥有 AI 防御工具，那么整体安全并不会真正提高。&lt;/p&gt;
&lt;p&gt;但如果完全开放，又会制造新的灾难。&lt;/p&gt;
&lt;p&gt;所以真正需要建立的，不是“开放”或“封闭”二选一，而是一套新的访问制度：&lt;/p&gt;
&lt;p&gt;谁可以用？&lt;/p&gt;
&lt;p&gt;用到什么能力级别？&lt;/p&gt;
&lt;p&gt;是否需要身份验证？&lt;/p&gt;
&lt;p&gt;是否需要日志审计？&lt;/p&gt;
&lt;p&gt;是否允许数据保留？&lt;/p&gt;
&lt;p&gt;发现漏洞后如何披露？&lt;/p&gt;
&lt;p&gt;模型输出是否能进入自动化执行链？&lt;/p&gt;
&lt;p&gt;出现滥用由谁负责？&lt;/p&gt;
&lt;p&gt;这些问题，比模型本身更难。&lt;/p&gt;
&lt;p&gt;也更重要。&lt;/p&gt;
&lt;p&gt;OpenAI 和 Anthropic 把 AI 黑客模型带进国会，标志着一个新阶段的开始。&lt;/p&gt;
&lt;p&gt;AI 网络安全不再只是工程师之间的技术竞赛。&lt;/p&gt;
&lt;p&gt;它正在变成监管问题、产业问题、国家安全问题，也会变成每个软件团队迟早要面对的工程问题。&lt;/p&gt;
&lt;p&gt;未来最重要的能力，也许不是“让 AI 找到漏洞”。&lt;/p&gt;
&lt;p&gt;而是让人类社会决定：&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;这种能找到漏洞的 AI，应该被怎样安全地使用。&lt;/strong&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;参考来源&#34;&gt;参考来源
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.axios.com/2026/04/28/openai-anthropic-congress-cyber-briefings&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Axios: OpenAI, Anthropic brief House Homeland Security on AI cyber threats&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.axios.com/2026/04/22/openai-gpt-cyber-government-meeting&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Axios: OpenAI briefs feds and Five Eyes on new cyber product&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.axios.com/2026/04/21/cisa-anthropic-mythos-ai-security&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Axios: CISA doesn&amp;rsquo;t have access to Anthropic&amp;rsquo;s Mythos&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://thenextweb.com/news/openai-gpt-5-4-cyber-trusted-access-defenders-mythos&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;The Next Web: OpenAI releases GPT-5.4-Cyber for vetted security teams&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.schneier.com/blog/archives/2026/04/what-anthropics-mythos-means-for-the-future-of-cybersecurity.html&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Schneier on Security: What Anthropic’s Mythos Means for the Future of Cybersecurity&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://cyberscoop.com/anthropic-mythos-federal-cybersecurity-evaluation-greg-barbaccia/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;CyberScoop: Federal CIO cautious on Anthropic’s Mythos despite planned rollout&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.youtube.com/watch?v=iHQj4pBB47c&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;KYC AI LABS: The AI Cybersecurity Arms Race: Mythos vs. GPT-5.4-Cyber&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.youtube.com/watch?v=KUAN7WdMa0k&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Permiso Security: Episode 09 - Mythos, GPT-5.4 Cyber, and Opus 4.7&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
</description>
        </item>
        
    </channel>
</rss>
