all posts
AI技术 · ZH

Glasswing 计划深度解读:AI 正式进入网络安全主战场

May 8, 2026·11 min read·by PandaTalk

Glasswing 计划深度解读:AI 正式进入网络安全主战场

2026 年 4 月,Anthropic 联合 12 家科技巨头发布了 Project Glasswing(玻璃翅膀计划),这可能是 AI 行业迄今为止在网络安全领域最大规模的一次集体行动。

这篇文章带你拆解这件事的来龙去脉、技术细节和深远影响。


一、这件事为什么重要?

先看阵容:AWS、Apple、Google、Microsoft、NVIDIA、Cisco、CrowdStrike、Broadcom、JPMorganChase、Palo Alto Networks、Linux 基金会,再加上 Anthropic 自己。

12 家公司,横跨云计算、操作系统、芯片、网络安全、金融、开源基础设施。这几乎覆盖了全球数字基础设施的每一个关键节点。

它们联手做一件事:用 AI 给全世界最重要的软件做安全体检。

这意味着 AI 在网络安全领域的角色,正式从"辅助工具"升级为"核心战力"。

二、Mythos Preview:一个专为找漏洞而生的模型

Glasswing 计划的核心武器是 Anthropic 新开发的 Claude Mythos Preview 模型。

这个模型的定位很明确——它不是通用聊天助手,而是一个专门训练来发现软件漏洞的前沿模型。它的能力已经接近甚至超过顶级人类安全研究员。

三个标志性发现

来看它已经找到的几个漏洞,每一个都足以让安全圈震动:

1. OpenBSD 里藏了 27 年的远程崩溃漏洞

OpenBSD 是以安全著称的操作系统,被广泛用于防火墙和关键服务器。一个隐藏了 27 年的漏洞,意味着无数人类安全专家在长达四分之一个世纪里都没有发现它。Mythos 找到了。

2. FFmpeg 里藏了 16 年的漏洞

FFmpeg 是全球使用最广泛的音视频处理库,几乎所有的视频播放器、流媒体平台底层都在用它。自动化安全测试工具对这段代码执行了 500 万次模糊测试,全部通过。Mythos 用完全不同的方式找到了人和机器都漏掉的问题。

3. Linux 内核多漏洞链式利用

Mythos 发现了多个 Linux 内核漏洞,并能将它们串联起来实现权限提升——这是高级渗透测试中才会出现的操作。模型具备了"把多个小问题组合成大问题"的推理能力。

基准测试:83.1% vs 66.6%

在 CyberGym 漏洞复现基准测试中,Mythos Preview 的准确率达到 83.1%,比 Claude Opus 4.6 的 66.6% 高出近 17 个百分点。这个跳跃幅度在 AI 安全评测中非常显著。

三、1 亿美元不是营销,是战略投资

Anthropic 为这个计划投入的资源相当惊人:

  • 1 亿美元模型使用额度,免费提供给参与组织
  • 250 万美元捐给 Linux 基金会旗下的 Alpha-Omega 和 OpenSSF
  • 150 万美元捐给 Apache 软件基金会

这笔钱的流向很有讲究。Alpha-Omega 和 OpenSSF 是专门负责开源软件安全的项目,Apache 基金会则维护着全球大量关键开源组件。这说明 Anthropic 非常清楚——现代互联网的安全瓶颈,不在大公司的商业软件里,而在那些由少数志愿者维护的开源项目中。

CrowdStrike 的 CTO Elia Zaitsev 说了一句话,精准概括了当前的安全困境:

"从漏洞被发现到被攻击者利用之间的窗口已经坍塌——过去需要几个月,现在借助 AI 只需几分钟。"

攻击者已经在用 AI 了。如果防守方不跟上,差距只会越来越大。

四、为什么叫"玻璃翅膀"?

项目名取自玻璃翅蝶(Greta oto),一种翅膀近乎透明的蝴蝶。

这个比喻有两层意思:

  1. 隐蔽性——玻璃翅蝶靠透明翅膀隐匿于环境中,就像那些潜伏在代码里数十年的漏洞,肉眼看不见,工具也扫不出来
  2. 透明性——Anthropic 承诺 90 天内公开报告发现的漏洞和修复成果,用透明的方式推动行业改进

这个命名比大多数科技公司的项目名都要考究。

五、关于安全的平衡术

这里有一个微妙的矛盾:一个能找到零日漏洞的 AI,如果落入错误的人手中,就是最强大的攻击武器。

Anthropic 对此采取了几个措施:

不公开发布。 Mythos Preview 不会像 Claude Sonnet 或 Opus 那样面向所有人开放。它仅限于经过审核的合作伙伴和安全组织使用。

内置安全限制。 未来的 Claude Opus 版本将加入专门的安全防护层,检测并阻止模型生成最危险的输出内容。

负责任的漏洞披露。 已发现的漏洞,能修的已经修了;还没修的,通过加密哈希的方式进行了披露——这意味着漏洞的存在被记录下来,但具体细节在修复之前不会公开。

验证计划。 对于合法安全研究人员因模型安全限制而受到影响的情况,可以申请加入 Cyber Verification Program 获得例外授权。

这套机制说明 Anthropic 认真思考过"能力越大,责任越大"这个问题,并且给出了一个相对完整的方案。

六、国家安全的维度

Glasswing 计划明确提到了国家安全。Anthropic 表示:

  • 保护关键基础设施是民主国家的首要安全优先事项
  • 美国及其盟友必须保持 AI 技术的决定性领先优势
  • 愿意与各级政府合作评估和缓解安全风险

这段话的潜台词很清楚:AI 网络安全能力已经成为国家间竞争的战略资源。谁先掌握用 AI 大规模发现和修复漏洞的能力,谁就在网络战中占据防守优势。

JPMorganChase 的加入也值得注意——这是参与者中唯一的金融机构,说明金融系统的网络安全已经被提升到了与科技基础设施同等的优先级。

七、对普通开发者意味着什么?

如果你是开发者,这件事有几个值得关注的点:

1. AI 安全审计将成为标配。 如果一个模型能发现 27 年没人找到的漏洞,未来的代码审查流程中,AI 安全扫描将从"可选"变成"必须"。

2. 开源项目将获得更多安全支持。 Anthropic 和合作伙伴向开源基金会的资金投入,加上 40 多家关键基础设施组织获得的免费访问权,意味着很多长期缺乏安全审计的开源项目终于有机会被系统性地扫描一遍。

3. 安全研究的门槛会降低。 当 AI 能自动发现和复现漏洞时,安全研究不再只是少数精英专家的领地。更多的开发者可以借助 AI 工具参与安全贡献。

4. 模型定价暗示了商业化路径。 Mythos Preview 的 API 定价(输入 $25、输出 $125 / 百万 token)是目前所有 Claude 模型中最贵的。这意味着 Anthropic 将安全能力定位为高端专业服务,而非大众消费产品。

八、这件事的本质

剥开技术细节和合作伙伴名单,Glasswing 计划的本质是一个信号:AI 公司正在从"构建能力"阶段进入"承担责任"阶段。

过去两年,AI 行业的主旋律是"我的模型能做什么"。从 Glasswing 开始,叙事转向了"我的模型应该为世界做什么"。

Anthropic 选择把自己最强的模型能力投入到网络安全——一个不那么性感但极其关键的领域,联合了几乎所有重要的科技力量,承诺 90 天内公开成果,并且主动讨论国家安全和行业监管。

这不仅仅是一次产品发布。这是 AI 行业走向成熟的一个标志性事件。


Project Glasswing 的 90 天报告窗口已开始计时。届时我们将看到这个计划的真正成效。

━━━ fin ━━━

If you read this far — thank you.
Come tell me what you thought on X.