研究论文

3DGS^2-TR: Scalable Second-Order Trust-Region Method for 3D Gaussian Splatting

一篇关于二阶信赖域优化的 3DGS 论文,核心思路是用无矩阵对角 Hessian 近似曲率,并通过逐参数信赖域稳定高斯更新。

January 2026优化arXiv:2602.00395

详细解读

大多数 3DGS 管线依赖一阶优化,因为参数数量巨大,渲染器又高度非线性。3DGS^2-TR 问的是:能不能利用二阶信息,但不付出密集 Hessian 那种不可承受的显存和计算代价。它给出的答案是无矩阵的对角 Hessian 近似。

曲率估计只使用 Hessian 对角线,并通过 Hutchinson 风格的随机估计高效计算。它不能捕获所有参数交互,但能让优化器知道不同参数局部曲率尺度不同,从而比纯一阶更新更合理地分配步长。

信赖域部分负责稳定性。透明度、协方差、位置等高斯参数在投影和 alpha 合成后会产生强非线性影响;基于平方 Hellinger 距离的逐参数信赖域会限制危险更新,避免在梯度或曲率不可靠时把场景推坏。

论文有意使用无 densification 的对照设置来隔离优化器效果,因为 densification 本身会改变表示并掩盖优化问题。它的价值在于说明 3DGS 训练速度仍有算法空间,不只是调学习率和训练轮数。

论文解决了什么

3DGS^2-TR 直接改进优化器,用可扩展的二阶信赖域方法替代常见的一阶 ADAM 风格更新。

方法用 Hutchinson 风格的对角 Hessian 近似和平方 Hellinger 信赖域提升收敛,同时避免密集二阶方法的显存成本。

核心思路

  • 使用无矩阵对角 Hessian 近似,避免存储密集曲率。
  • 保持接近 ADAM 的渐进计算和显存复杂度。
  • 通过逐参数信赖域稳定非线性高斯更新。
  • 在受控初始化下以更少迭代获得更好质量。

为什么重要

  • 它从优化器层面处理 3DGS 收敛问题,而不是只改表示。
  • 它适合大场景,因为额外密集曲率内存不可接受。
  • 它让研究者能更清楚地比较 densification 之外的优化行为。

适合阅读的人

  • 你在调 3DGS 训练循环或优化器 schedule。
  • 你关注图形和视觉系统中的二阶优化。
  • 你想减少训练迭代,而不是简单牺牲质量。

局限与注意点

  • 对角 Hessian 无法建模所有参数交互。
  • 信赖域超参数增加了优化器复杂度。
  • 无 densification 的受控分析不一定完全预测所有生产管线表现。