引言:科学研究的新纪元
想象一下:2026 年的某一天,企业家 Iban Borras 坐在电脑前,他的研究团队不是几个博士后,而是 Claude Opus、Gemini Pro、ChatGPT 和 Manus——四个 AI 模型。这不是科幻小说,而是正在发生的科学革命。
在这项里程碑式的实验中,Borras 不再把 AI 当成简单的编码助手或”百度百科升级版”,而是把它们当作真正的思维伙伴。结果呢?一篇正式发表在 Zenodo 上的论文,四个 AI 都被列为共同作者。
这标志着科学合作的边界被彻底重新定义了。

突破:四个 AI 模型作为共同研究员
Borras 的实验就像组建了一支”AI 复仇者联盟”:每个模型都有自己的特殊技能,组合在一起就能产生化学反应。他们要挑战的是一个关于现实本质的理论假设——这种高深的课题以前只有人类顶尖科学家才能碰。
最终,这篇论文发表在 Zenodo 上(DOI: 10.5281/zenodo.18721271),四个 AI 都被堂堂正正地列为共同作者。
这是历史上首次有记录的案例表明:AI 模型不仅参与了,而且在实验设计、实施和同行评审中都做出了实质性贡献。
各个 AI 模型的独特角色
让我们来认识一下这支”梦之队”的每位成员:
Claude Opus:假设设计与伦理严谨性的守护者 🧠
Claude Opus 就像团队里的”首席理论官”。它的工作不是点头称是,而是挑战假设、指出方法论缺陷——就像最严苛的学术审稿人。
根据 LLM-Stats 2026 年 2 月的基准测试,Claude Opus 4.6 实现了 0.9 的 GPQA 分数——这是商业可用模型中的最高水平。这种能力让它特别适合高风险的科学推理任务,而且它的伦理校准还能确保研究避免确认偏差,特别是在迭代验证周期中。
Gemini Pro:模式识别与数据分析专家 📊
Gemini Pro 是团队里的”数据侦探”。Borras 有 200 GB 的二进制数据集,换做传统统计工具可能要分析好几个月,但 Gemini Pro 能快速识别出其中微妙的相关性——那些人类可能永远发现不了的模式。
而且,Gemini 与 Google 数据基础设施的集成就像开了”上帝视角”,能够与公共科学存储库进行交叉引用,大大增强了研究中提出的统计指标的有效性。XDA Developers 评价说:Gemini 在大规模模式识别方面的优势,对于检测 23 次实验迭代中的混淆变量是不可或缺的。
ChatGPT 和 Manus:计算架构的建筑师 ⚙️🔍
ChatGPT 负责”搭架子”:把抽象假设转化为可执行的代码框架。与此同时,专用模型 Manus 就像一个”异常猎手”,在二进制数据流中发现了隐藏的异常——这些发现最终成为了整个假设的核心。
这四个模型不是各自为政,而是组成了一个动态的多智能体批评系统。它们互相质疑、互相验证,结果是:这种组合的表现超越了仅由人类或单一 AI 组成的方法。
同行评审过程:当 AI 产生分歧时
研究过程最有趣的部分是什么?是 AI 们吵架的时候!
想象一下这个场景:Claude 拍着桌子说”这个结果可靠!”,Gemini 立刻推推眼镜说”等等,这里有个统计异常”。这些分歧不是靠 Borras 这个”老板”来拍板,而是通过迭代对话来解决——AI 们你来我往,迫使 Borras 不断完善假设、验证输出。
这种”协作张力”听起来有点乱,但结果却意外地好:产生的发现足够稳健,足以发表,还顺便引发了学术界关于 AI 作者身份合法性的大辩论。
更广泛的趋势:AI 正在加速科学发现
Borras 的实验不是孤例。OpenAI 2026 年 1 月发布的《AI 作为科学合作者》报告,揭示了一个更宏大的趋势——AI 已经悄悄渗透到科学研究的每一个角落:

- 每周 840 万条高级科学和数学消息在 ChatGPT 上交换——这相当于每秒有 13 条深度科学讨论!
- 约 130 万每周用户专注于高级数学和科学主题——这不是普通用户,是真正的科研工作者
- 每月高级科学消息数量增长近 50%——这个增长曲线比很多创业公司还猛
这些数据告诉我们一个简单的事实:AI 已经不再是实验性的附加品,而是正在成为科学家日常工作流程中的标准工具。
数学领域的突破:从竞赛到发现
在所有科学领域中,数学的 AI 突破可能最让人震惊。
GPT-5.2 Thinking 在 2025 年的 AIME(美国 Invitational 数学考试)中取得了满分——而且是无需外部工具、完全靠自己”想”出来的。要知道,这是人类数学天才都未必能做到的事情。
但更令人印象深刻的是:GPT-5.2 系列已经从”考试高手”迈向了真正的数学发现。在”Google 证明”的 FrontierMath 问题集上,GPT-5.2 Thinking 已经解决了第 1-3 级中 40.3% 的问题。
最厉害的还在后面:2026 年初,GPT-5.2 为几个 Erdős 开放问题的解决方案做出了贡献——这些解决方案甚至得到了数学大神 Terence Tao 的验证!
物理、化学和生物学领域的应用
数学只是开始,AI 正在全面入侵各个科学领域:

物理学 ⚛️
LLM 正在美国国家实验室等主要设施中”上班”。它们的角色是:作为复杂操作堆栈和内部知识库之上的统一层——就像给整个实验室装了一个智能中枢,加速分析和决策。
在理论物理学中,LLM 更是成为了”思维伙伴”:一方面压缩研究人员的认知开销(帮你记复杂的公式和推导),另一方面又能扩大探索空间(提出人类想不到的新思路)。
化学 🧪
ChatGPT 在化学中的应用已经进化了:从简单的”这个反应怎么做”的一次性问答,转向了多步骤工作流程。它能在自然语言和化学表示之间自由转换,还知道什么时候该调用外部工具进行验证和检索。
生物学 🧬
在蛋白质科学中,AlphaFold 3 代表了一个巨大的飞跃。它通过基于扩散的架构,能够预测包含蛋白质、DNA、RNA 以及小分子的复合物的联合 3D 结构——这是以前想都不敢想的事情。
伦理意义与 AI 作者身份的未来
随着 Claude Opus 4.6 和 Grok-4 等模型在推理保真度方面的进步,一个问题越来越无法回避:什么时候 AI 从”助手”变成了”合作者”?
现在的期刊编辑们正在头疼:是不是应该强制要求作者披露 AI 的贡献?毕竟,如果 AI 做了这么多工作,只把人类列为作者似乎不太公平。
Borras 的论文(可在 Zenodo 上获取,DOI: 10.5281/zenodo.18721271)做出了一个很好的榜样:它不仅在 GitHub 上公开了完整源代码,还透明地记录了每个 AI 的具体角色。
“如果一个模型提出控制变量、反驳一个指标,并与你迭代数周——它不是一个工具。它是一个合作者。” — Iban Borras
这句话值得我们深思。
结语:人类-AI 研究集体的时代
这个案例研究标志着一个范式转变:科学的未来可能不属于孤独的天才,而是属于人类-AI 研究集体。
经过同行评审的 AI 作者身份不再是科幻小说——它是计算探究的新标准。
正如 OpenAI 科学副总裁 Kevin Weil 所说:
“AI 越来越多地被用作科学合作者,我们正在看到它在实际研究环境中的影响不断增长。更多研究人员正在使用高级推理系统在开放问题上取得进展、解释复杂数据,并在实验工作中更快地迭代。”
2026 年可能会被铭记为一个转折点:AI 从工具转变为真正的科学合作者。
而这,仅仅是个开始。
参考资料:
CAI:征服全球CTF竞赛的AI网络安全超级特工