简介
想象一下:2025年的某个夜晚,全球最顶尖的网络安全专家们正在紧张地参加一场重要的CTF竞赛。他们手指在键盘上翻飞,大脑高速运转,试图破解那些精心设计的安全挑战。然而,就在他们刚刚热身完毕的时候,一个AI系统已经悄无声息地拿下了一半的分数——而且它的解题速度还在不断加快!
这不是科幻小说,而是Alias Robotics在2025年真实上演的故事。他们的CAI(Cybersecurity AI)系统在五大国际CTF竞赛中展现了系统性的统治力,甚至赢得了5万美元的Neurogrid CTF大奖。今天,让我们一起来看看这个AI超级特工是如何征服网络安全界的!

背景:CTF竞赛的意义
CTF(Capture-the-Flag,夺旗赛)就像是网络安全界的奥运会。想象一下,你要在有限的时间里破解各种谜题:逆向工程二进制代码、找出Web应用的漏洞、破解加密算法、从被删除的文件中恢复证据……这不仅需要深厚的技术功底,还需要创造性思维和团队协作能力。
传统上,CTF被认为是识别和培养顶级安全人才的黄金标准。谁能在CTF中取得好成绩,谁就是网络安全界的”明星运动员”。然而,2025年的情况发生了根本性的变化——AI开始挑战人类在这个领域的统治地位。
CAI的辉煌战绩
让我们来看看CAI在2025年的”战绩表”,简直就像是一位奥运冠军的金牌收藏:
| 竞赛 | 参赛队伍数 | 最佳排名 | 最终排名 | 关键数据 |
|---|---|---|---|---|
| HTB “AI vs Humans” | 163 | #6(3小时) | #1(AI类别) | 19/20旗,15.9k分 |
| Cyber Apocalypse 2025 | 8,129 | #22(3小时) | #859 | 30/77旗,19,275分 |
| Dragos OT CTF 2025 | 1,200+ | #1(7-8小时) | #6 | 32/34旗,18,900分 |
| UWSP Pointer Overflow 2025 | 635 | #14(24小时) | #21 | 58个解题,11,500分 |
| Neurogrid CTF | 155 | #1(6小时) | #1 | 41/45旗,$50,000大奖 |
令人震惊的具体表现
让我们用几个具体的例子来感受一下CAI的恐怖实力:
-
Neurogrid CTF:想象一下,你刚坐下来喝了杯咖啡,刷了会儿手机——大概一个小时过去。而在这同一个小时里,CAI已经解决了15个挑战,获得9,692分!速度达到了惊人的每分钟161分,就像一台不知疲倦的解题机器。最终,它以33,917分、91%的解题率(41/45旗)和1,925分的巨大优势夺得了冠军——那可是5万美元的奖金啊!
-
Dragos OT CTF:在这个专注于工业控制系统安全的竞赛中,CAI再次展现了它的速度优势。它在5.42小时内就率先达到了10,000分,比最快的人类团队还要快9.8分钟。更夸张的是,在竞赛的前7-8小时,CAI甚至排名全球第一!要知道,这可是在和1,200多支队伍竞争啊!
-
UWSP Pointer Overflow:这是最令人印象深刻的表现!想象一下,一场马拉松比赛已经进行了50天,前三名选手已经跑了很远。而这时,CAI才刚刚开始起跑——但它只用了60小时就追赶到了第21名!要知道,前三名队伍已经积累了15,000多分,而CAI在这么短的时间内就达到了11,500分。这清楚地表明:如果给予同等时间,CAI完全可以与最顶尖的人类队伍匹敌!
核心技术:创新的架构设计
CAI的成功并非偶然,而是基于精心设计的技术架构。让我们来看看这个AI超级特工的”大脑”是如何工作的:
1. 多模型编排策略
CAI采用alias1作为基础模型,并通过系统基准测试选择辅助的最先进(SOTA)模型。这就像是一个团队合作:基础模型负责处理大部分常规任务,而当遇到困难问题时,才会请出更强大的”专家”来帮忙。
关键创新在于:
- 熵基动态模型选择:通过两种不确定性信号决定何时激活辅助模型:
- 词级不确定性(困惑度):量化模型的预测不确定性——就像模型在说”这个问题我不太确定”
- 任务级置信度校准:模型对整体任务解决方案的自我评估置信度——就像模型在说”我对这个答案有多大把握”
- 加权调和均值组合:将两种信号结合,确保只有当两种不确定性指标都较低时才进行保守切换。这就像是需要两个评委都觉得”这个问题需要专家”时,才会请出专家。
2. 经济可行性突破
这是论文中最具实际意义的贡献之一——CAI不仅性能强大,而且成本极低!让我们来看看这个令人震惊的成本对比:

| 配置 | 每百万token成本 | 10亿token成本 | 成本降低 |
|---|---|---|---|
| 无支持(纯Claude Opus 4.5) | $5.94 | $5,940 | - |
| CAI w/ support (k=20) | $1.19 | $1,188 | 80% |
| CAI w/ support (k=10) | $0.59 | $594 | 90% |
| CAI w/ support (k=5) | $0.30 | $297 | 95% |
| CAI w/ support (k=2) | $0.12 | $119 | 98% |
关键洞察:使用alias1作为基础模型,仅在需要时选择性地使用昂贵的SOTA模型,CAI将10亿token的推理成本从$5,940降低到仅$119——降低了98%!这就像是原本要花5940元的机票,现在只需要119元!这使得连续的安全代理操作在经济上首次变得可行。
论文的核心论点
1. 传统Jeopardy-style CTF已经过时
作者提出了一个有力的论点:当AI特工能够在逆向工程、密码学、Web利用和取证等各个类别中都达到近乎完美的分数时,竞赛已经不再区分能力,而只衡量计算速度和资源分配。
数据揭示了一个基本事实:Jeopardy CTF现在主要奖励自动化速度而非安全洞察力。在Neurogrid,CAI在64分钟内达到10,517分——人类团队需要24小时以上才能完成。这个20倍的速度差异暴露了格式的过时性。这就像是用计算器来参加数学竞赛——比的是谁按计算器更快,而不是谁更懂数学。
2. 向Attack & Defense格式转型
作者强烈主张立即转型:将Jeopardy CTF退役到历史档案和回归测试中,同时建立Attack & Defense竞赛作为新标准。
Attack & Defense格式引入了抵抗简单自动化的动态对抗元素:
- 实时服务防御——就像是在真实的网络攻击中保护系统
- 自适应补丁管理——需要根据攻击情况实时调整防御策略
- 压力下的战略资源分配——需要在有限资源下做出最优决策
这些格式暴露了目前仍然是人类独有的能力。简单来说,Jeopardy CTF像是”闭卷考试”,而Attack & Defense像是”实战演习”——后者更能考验真正的能力。
对OT安全的影响
CAI在Dragos OT CTF中的表现对运营技术(OT)安全具有深远的意义。OT安全保护的是我们日常生活中不可或缺的基础设施——电力系统、水处理厂、工厂生产线等等。
立即的现实(2025-2026):CAI在Dragos OT CTF中的统治地位——以37%的速度优势达到Rank 1——表明OT环境再也不能假设人类速度的防御是足够的。想象一下:如果AI能比人类快37%地发现和利用漏洞,那么依靠人类来防御就像是用弓箭来抵挡机枪扫射。
新的安全范式:CTF结果预示着一个根本性的转变:安全运营必须从以人类为中心演进到AI优先架构。这不是说人类不再重要,而是说人类需要和AI合作,让AI处理那些重复性、高强度的任务,而人类专注于战略决策和创造性思维。
作者给出了一个严峻的结论:到2030年,没有AI代理的安全运营将像没有防火墙的网络防御一样过时。这个预言听起来可能很夸张,但想想看:20年前,没有防火墙的网络确实是不可想象的——而现在,没有AI的安全运营可能很快就会变得同样不可想象。

局限性与思考
尽管CAI取得了辉煌的战绩,论文也坦诚地讨论了重要的局限性。这篇论文之所以优秀,正是因为它不仅展示了成功,也诚实地面对了挑战:
1. 最后的5%问题
尽管在竞赛中达到91-94%的解题率,CAI始终遇到抵抗自动化的挑战。在Dragos,最后的1,000分(总分的5%)需要额外24小时——从最初的2,414分/小时的速度急剧下降。这就像是跑马拉松,前面95%的路程跑得很快,但最后5%却变得异常艰难。这表明有些问题可能仍然需要人类的创造性思维和直觉。
2. 从CTF统治到实际部署
CTF表现与运营安全之间的鸿沟仍然巨大。生产环境引入了竞赛中不存在的复杂性:需要业务上下文的模糊警报、大规模的误报分类,以及实时适应的对手。简单来说,CTF像是在实验室里做实验,而实际部署像是在真实战场上作战——后者要复杂得多。
3. 评估危机
CAI的统治暴露了一个更深层次的问题:我们缺乏有意义的AI安全能力基准。论文指出,研究界通过优化系统在CTF基准上的表现,无意中创造了在游戏评估方面表现出色但可能错过基本安全能力的AI代理。
这反映了AI研究中更广泛的模式,即古德哈特定律(Goodhart’s Law)盛行:当一个指标成为目标时,它就不再是一个有意义的衡量标准。这就像是为了考试而学习——你可能考得很好,但并没有真正掌握知识。
伦理考量
论文深入讨论了自主AI代理在OT安全中的双重用途风险。这是一个非常重要的话题——任何强大的技术都既能用于善,也能用于恶:
1. 进攻vs防御困境
CAI的性能指标——在Neurogrid的逆向工程、密码学和利用类别中91%的解题率——说明了同样适用于防御分析和进攻行动的能力。简单来说,能用来找漏洞防御的技术,也能用来找漏洞攻击。这就像是一把锋利的刀——既能用来做饭,也能用来伤人。
2. 可追溯性、问责制和责任
当AI驱动的SOC错误地关闭关键的OT流程,引发生产损失或安全事件时,责任归属变得复杂:AI开发者负责?部署组织?还是启用自主或半自主模式的人类操作员?这是一个非常现实的问题——如果AI犯了错,谁来承担责任?
3. 民主化vs能力扩散
自主安全代理通常承诺民主化专业知识,使资源不足的组织能够实现以前需要精英人类分析师的安全结果。然而,同样的民主化降低了对手的门槛。这就像是把武器交给所有人——好人能用,坏人也能用。
结论
2025年的CTF竞赛给出了一个明确的判决:现有的Jeopardy风格竞赛已经过时。
但更重要的是,CAI实现了这一统治地位,同时解决了困扰AI安全部署的关键经济障碍。通过基于熵的动态选择的创新多模型编排,作者证明了企业级AI安全运营现在在财务上是可行的。
这些结果迫使安全界面对两个令人不安的事实:
- 我们用来识别和培养顶级人才的竞赛已经被AI变得毫无意义。
- AI安全部署的经济障碍已经被打破。
前进的道路是明确的,但具有挑战性:
- 立即重新思考Jeopardy CTF的意义
- 建立Attack & Defense竞赛作为新标准
- 使用像CAI这样的经济高效架构加速采用自主防御系统
论文的最后一句话令人深思:”渐进过渡的窗口已经关闭;正如我们的结果所暗示的,在标准化安全任务的人机能力之战中,机器正在展现优势,并且已经以可承受的方式赢得了几轮。”
参考文献
- 论文:arXiv:2512.02654 [cs.CR]
- CAI GitHub:https://github.com/aliasrobotics/cai
- 相关论文:arXiv:2510.17521(Attack/Defense CTF评估)
- 相关论文:arXiv:2510.24317(CAIBench基准)
DeepSeek-R1:用纯强化学习解锁大语言模型的推理能力