ai, 神经科学, 机器学习,

突破传统:ReSU 神经网络单元——从果蝇大脑中获得的 AI 新灵感

Unbug By Unbug Follow Mar 02, 2026 · 1 min read
突破传统:ReSU 神经网络单元——从果蝇大脑中获得的 AI 新灵感
Share this

引言:打破深度学习的局限

在深度学习领域,我们已经习惯了两个核心概念:ReLU(整流线性单元)作为神经元的基本构建块,以及误差反向传播作为训练网络的主要方法。这两者的组合推动了 AI 革命,但它们也存在根本性的局限:

  • ReLU 是静态的,只处理同时到达的输入,丢弃了生物神经元丰富的时间动态特性
  • 反向传播需要海量标注数据,且依赖跨层的非局部交互,而这在生物大脑中找不到对应机制

更重要的是,当前的 AI 系统在几个关键方面远不如生物智能:

  1. 缺乏真正的组合推理和长期规划能力
  2. 效率极低——训练需要兆瓦时能源和数十亿标注样本,而人脑仅需约 20W
  3. 容易产生幻觉、泛化能力脆弱

如果我们想让 AI 更强大、更可靠、更高效,就需要从根本上重新思考神经网络的架构。

突破:ReSU——受生物启发的新型神经元单元

来自 Simons 基金会 Flatiron 研究所的研究团队提出了一种全新的神经元模型:Rectified Spectral Units(整流谱单元,简称 ReSU)。这篇发表在 AAAI 2026 的论文《A Network of Biologically Inspired Rectified Spectral Units (ReSUs) Learns Hierarchical Features Without Error Backpropagation》为我们展示了一个完全不同的思路。

ReSU 的核心创新

ReSU 的设计理念非常简洁但深刻:每个神经元应该学习预测未来

具体来说,每个 ReSU 通过以下步骤工作:

  1. 时间窗口投影:将输入历史的最近窗口投影到一个规范方向上
  2. 规范相关分析(CCA):这个规范方向是通过对之前观察到的”过去-未来”输入对进行 CCA 获得的
  3. 整流:然后整流其正分量或负分量

数学表达式:

  • ON ReSU: z⁺t,i = max[ vi Cpp-1/2 pt, 0 ]
  • OFF ReSU: z⁻t,i = max[ -vi Cpp-1/2 pt, 0 ]

其中 vi 是第 i 个奇异向量,pt 是过去的滞后向量。

为什么这很重要?

与 ReLU 相比,ReSU 具有几个关键优势:

  1. 时间动态性:ReSU 处理的是时间序列,而不是静态输入
  2. 自监督学习:不需要标注数据,通过预测未来进行学习
  3. 生物学合理性:突触权重通过输入的过去-未来 CCA 获得,不需要跨层通信
  4. 局部学习规则:已有研究表明 CCA 可以通过局部学习规则实现

实验验证:重现果蝇视觉系统

为了验证 ReSU 的计算能力和生物学保真度,研究团队选择了一个完美的测试平台:果蝇的视觉运动检测通路。这个通路在解剖学和生理学上都得到了极其精确的描述,是理想的指导和试验场。

实验设置

研究团队构建了一个受果蝇启发的两层 ReSU 网络:

  • 第一层:每个单元由单个像素驱动,学习时间滤波器
  • 第二层:在空间上汇集第一层的输出,学习方向选择性

训练数据是通过以恒定速度扫描自然场景获得的平移自然图像。

惊人的结果

实验结果令人震惊:

  1. 第一层单元:每个由单个像素驱动,发展出类似于果蝇 L1/L2 和 L3 光感受器后神经元的时间滤波器,包括它们根据信噪比(SNR)进行的经验观察到的适应

  2. 第二层单元:在空间上汇集第一层的输出,变得具有方向选择性——类似于 T4 运动检测细胞——其学习到的突触权重模式近似于从连接组重建中获得的模式

具体发现

让我们更详细地看看这些结果:

**第一层(L1/L2/L3 神经元):

  • 第一个滤波器本质上是低通的,类似于 L3 神经元
  • 第二个滤波器是平滑的时间导数,预测与 L1-L2 相似的输出
  • L1 输出被下游突触整流,选择性地响应对比度增加(ON 响应)
  • L2 输出在相反方向整流,响应对比度降低(OFF 响应)
  • 滤波器会根据 SNR 动态调整——在低噪声下,滤波器显示多个波瓣;随着噪声增加,它逐渐过渡到单波瓣形状

**第二层(T4 神经元):

  • 对首选方向的运动响应最强, sharply peaked
  • 对零方向的较弱响应可以通过阈值抑制
  • 学习到的突触权重重现了果蝇 T4a 神经元上突触输入的大部分符号模式,并近似了相对幅度

为什么这篇论文重要?

这篇论文的重要性体现在几个层面:

1. 理论层面

ReSU 网络提供了:

  • 建模感觉回路的原则性框架
  • 构建深度自监督神经网络的生物学基础、无反向传播的范式

2. 实践层面

这种方法可能继承人脑相对于传统 ReLU/反向传播架构的优势:

  • 更高的能效
  • 更好的泛化能力
  • 更少的数据需求
  • 更稳健的推理

3. 神经科学层面

ReSU 网络不仅带来 AI 的进步,还帮助我们理解生物系统如何工作:

  • “我们可以使用这个架构解释果蝇视觉系统中的大量现有实验数据” — 论文作者 Qin 说
  • 这种理论与实验的闭环是神经科学的梦想

未来展望

研究团队已经在几个方向上扩展这项工作:

  1. 更深的网络:他们最近将这项工作扩展到三层 ReSU 网络,更好地捕捉果蝇运动检测通路
  2. 双向学习:当前的两层网络仅在单向(从左到右)平移的图像上训练,而三层 ReSU 网络从双向平移的图像中学习
  3. 自动记忆长度:未来的工作将致力于开发基于输入统计自动确定最佳记忆长度的方法
  4. 自上而下的反馈:探索如何在当前框架中结合自上而下的反馈

结语:AI 的新方向

这篇论文代表了 AI 研究的一个重要转向:从纯粹的工程方法转向受神经科学启发的方法

在深度学习主导 AI 领域十多年后,我们开始看到一些新的思路正在涌现。ReSU 不是对现有方法的 incremental 改进,而是一个根本性的重新思考。

正如论文作者所说:

“如果我们希望使 AI 更强大、更可靠和更高效,就需要理解这种差距的根本原因。”

ReSU 网络可能就是这个问题的答案之一。它不仅为构建更像大脑的 AI 提供了一条路径,还为理解大脑本身的工作原理提供了新的工具。

这就是那种不那么广为人知但可能改变游戏规则的研究——正是我们 Micropaper 想要收录的类型。


参考资料:

Releated