ai学术, 论文解读,

一分钟读论文:《AI无节制采用威胁学术根基》

Unbug By Unbug Follow Mar 05, 2026 · 1 min read
一分钟读论文:《AI无节制采用威胁学术根基》
Share this

SISSA和帝国理工学院Nature论文警告:AI无节制使用正威胁学术根基:

  • NeurIPS投稿量5年翻倍,AAAI 2026收3.1万篇投稿,被迫试点AI评审
  • AI代理论文复现任务得分<20%,使用LLM辅助写作者认知能力衰退

AI 威胁学术根基

观点:AI处理数据不可或缺,但无节制采用会破坏学术”为人类推进知识”的根本目的。

令人警醒的核心数据

论文揭示了多个令人警醒的趋势:

指标 数据
论文数量爆炸 NeurIPS 2020 到 2025 年,投稿量 翻倍
评审系统崩溃 AAAI 2026 正在试点 AI 辅助评审来处理创纪录的 31,000 篇投稿
复现能力低下 最好的 AI 代理在天体物理学论文复现任务上得分 不到 20%
认知能力下降 使用 LLM 辅助写作的参与者,神经连接和认知能力出现长期衰退

三个层面的风险

1. 科学质量的风险

  • 衍生性工作:LLM 最终依赖训练数据中已有的概念,难以产生真正原创的科学思想
  • 幻觉问题:即使最新版本的 LLM 仍然会编造内容
  • 可解释性丧失:LLM 的”思维链”被证明只是事后 retrofit,不反映真实推理过程
  • “AI 科学垃圾”:错误将越来越难以发现和纠正

2. 人类科学家的风险

  • 科学敏锐度下降:将深度思考外包给 LLM 代理会削弱我们自己的科学能力
  • 创造力受抑制:对比实验显示,使用 LLM 的被试在聚合思维和发散思维上都表现更差
  • 下一代危机:如果学习像科学家一样思考的艰难过程被 chatbot 提示取代,研究生可能变成”提示工程师”

3. 系统性风险

  • 经费结构变化:昂贵的博士奖学金可能迅速被更便宜的 API 额度取代
  • 科学素养衰退:可能在数年内而非数十年内发生
  • AI 军备竞赛:学生、科学家和机构可能都感到被困在这场竞赛中

论文信息

  • 标题:The indiscriminate adoption of AI threatens the foundations of academia
  • 作者:Roberto Trotta(SISSA、帝国理工学院)
  • 发表:Nature Human Behaviour

争议与反思

诺贝尔得主 Venki Ramakrishnan 的话令人不寒而栗:”最终这些论文都将由 AI 代理撰写,然后另一个 AI 代理阅读、分析并为人类生成摘要。”

但作者并不反对 AI 本身——他承认 AI 在处理海量数据时将不可或缺。问题在于”无节制”的采用。

论文呼吁就 AI 驱动的研究展开一场包括科学家和人文学者在内的辩论,确保未来的科学保持其本质的人类品质。

这篇论文最深刻的警示是:我们不应该急于实现 Turing 在 1950 年的愿景——”机器最终将在所有纯智力领域与人类竞争”——因为这会破坏学术存在的根本理由:为人类推进知识、教育年轻心灵、增进我们对自身在世界中位置的理解。

Releated