你有没有过这样的经历:AI 系统做出了一个糟糕的决策,但追究责任时,开发者说”我只是批准了 CI 绿灯”,运维说”我按流程执行的”,最后谁都不负责?
最新的研究揭示了一个令人不安的真相:当 AI 智能体系统规模化时,会出现”责任真空”——决策被执行,但没有任何实体能同时拥有批准决策的权威和理解决策基础的认知能力。
核心发现:权威与能力的结构性错配
这不是流程偏差或技术缺陷,而是决策生成吞吐量超过有限人类验证能力时的结构性属性:
- 形式正确但实质空虚:流程被正确遵循,系统按设计运行,没有个人偏离
- 权威与理解分离:有批准权的人缺乏理解能力,有理解能力的人缺乏批准权
- 不是人的错:这不是人为错误,而是系统设计问题
CI 放大效应:更多自动化 = 更严重的问题
论文最具争议性的发现是CI 放大动态:增加自动化验证覆盖率会提高代理信号密度,但不会恢复人类能力。
反直觉的结论:
- 更多自动化 ≠ 更好的治理:在固定的时间和注意力约束下,这加速了广义的认知卸载
- 代理信号密度增加:更多的自动化检查 = 更多的”绿灯”信号
- 差距扩大:正式批准与认知理解之间的鸿沟被进一步拉大
- 自动化放大而非缓解:额外的自动化放大了责任真空,而不是减轻它
解决方案:重新思考责任归属
论文提出了两个主要出路:
- 明确重新设计决策边界:不是每个决策都需要人类批准,设计适合人类认知能力的决策单元
- 从单个决策转向批次或系统级所有权:对一批决策或整个系统的结果负责,而不是单个决策
现实意义
这篇论文的价值在于它触及了 AI 治理的核心困境:
- 目前的” human-in-the-loop” 模式在规模化时会失效
- 仪式化的批准创造了虚假的安全感
- 要求”人类监督”的法规可能在实践中无效
- 需要考虑系统级的责任归属
“我们定义这种状态为责任真空:决策发生,但责任无法有意义地归因,因为权威和验证能力不重合。决策被正式批准,但没有被实质性拥有。” —— Romanchuk & Bondar, 2026