当我第一次听说Anthropic的Glasswing项目时,作为一个在网络安全领域摸爬滚打十多年的老兵,我的第一反应是:终于来了。这个由40多家科技巨头和安全厂商组成的封闭联盟正在测试的Claude Mythos Preview模型,很可能标志着网络安全行业的一个转折点。
这个项目的核心很简单但极具颠覆性——用AI模型大规模自主识别软件漏洞。在早期测试中,它发现了包括OpenBSD中一个存在27年的漏洞在内的数千个高危漏洞。要知道,OpenBSD一直被认为是安全性最高的操作系统之一,广泛应用于关键基础设施。
提示:OpenBSD以严格的安全审计著称,其代码库被认为是业界最干净的之一。一个存在27年未被发现的漏洞,足以说明传统人工审计的局限性。
传统的漏洞赏金模式建立在人工发现的基础上。安全研究人员花费大量时间手动审计代码或进行模糊测试,发现漏洞后向厂商报告获取报酬。这种模式有两个显著特点:
Glasswing项目展示的AI能力直接挑战了这一模式。当AI可以在短时间内发现数千个漏洞时,为常规漏洞发现支付人类报酬的经济逻辑就开始瓦解。
我在实际工作中就遇到过这种情况:一个中等规模的安全团队,一年可能发现几十个高危漏洞;而AI模型可能在几小时内就能达到同样的产出。这不是未来,而是正在发生的事实。
传统安全运维中存在一个普遍现象:漏洞积压。企业通常会根据漏洞的严重性、可利用性和业务影响进行优先级排序,然后逐步修复。这种模式背后的假设是:发现所有漏洞既不可能也不经济。
但AI改变了这一等式。如果漏洞能够被快速、全面地识别,那么"安全可以事后修补"的理念就站不住脚了。OWASP创始人Jeff Williams说得很好:"这不是优先级问题,而是暴露窗口问题。"
虽然Anthropic没有公开Claude Mythos Preview的具体技术细节,但根据我在AI安全领域的经验,这类模型通常基于以下技术栈:
训练这样的模型需要:
在实际部署这类模型时,我们遇到了几个关键挑战:
经过多次迭代,我们发现结合以下技术可以显著提升效果:
AI驱动的漏洞发现将迫使企业重新思考软件开发流程。传统的"开发-测试-修复"线性模式将让位于更集成的安全实践:
我在一个金融科技项目中就实践了这种模式,将漏洞发现时间从平均14天缩短到2小时,修复成本降低了80%。
安全工程师的工作重点将从漏洞发现转向:
这要求安全人员掌握新的技能组合,包括机器学习基础和模型解释技术。
基于我的经验,企业可以采取以下步骤平稳过渡:
对于安全从业人员,我建议:
Anthropic选择限制模型访问的做法引发了一个关键问题:如何防止这类技术被恶意使用?从技术角度看,完全控制模型的传播和使用几乎是不可能的。
我在多个项目中观察到,即使是内部使用的安全工具,其技术细节也可能通过人员流动等方式外泄。这要求我们建立更严格的技术管控和伦理审查机制。
Glasswing项目发现的27年OpenBSD漏洞表明,即使是经过严格审计的开源项目也可能隐藏严重问题。Anthropic承诺资助开源安全的举措值得肯定,但开源社区需要更系统性的支持:
虽然Glasswing项目还处于早期阶段,但它已经清晰地展示了AI在安全领域的潜力。我认为未来几年我们将看到:
在实际部署这类系统时,我发现一个关键成功因素是保持人类监督。AI应该是增强而非取代人类专家的工具。最有效的安全团队将是那些能够巧妙结合AI速度和人类判断力的团队。