在剛剛落幕的SIGGRAPH Asia 2025大會上,一場聚焦3D場景重建技術的國際競賽引發全球關注。由國內企業摩爾線程組成的MT-AI團隊,憑借自主研發的3D Gaussian Splatting(3DGS)算法框架LiteGS,在60秒極限重建挑戰中斬獲銀獎,成為首個在該領域躋身國際前列的中國團隊。
這項被稱為"三維重建范式革命"的技術,通過數百萬個各向異性高斯基元構建場景模型,在保持NeRF級渲染質量的同時,將效率提升數百倍。其核心突破在于解決了傳統方法中畫質、速度與資源占用的三角困境,尤其在光線追蹤、VR/AR實時渲染等場景展現出獨特優勢。技術評估顯示,LiteGS在PSNR質量指標上達到27.58的頂尖水平,而34秒的重建速度較多數參賽方案縮短近半。
競賽任務極具挑戰性:參賽者需在60秒內,基于存在誤差的相機軌跡和SLAM點云數據,完成從視頻序列到高精度3D場景的完整重建。主辦方采用PSNR與重建速度的復合評價體系,確保結果兼具學術嚴謹性與工程實用性。目前所有競賽數據與評估結果已通過中大GAP實驗室官網公開,供全球研究者下載驗證。
摩爾線程的突破性進展源于全棧技術整合能力。團隊創新性提出"Warp-Based Raster"渲染范式,通過單線程塊處理原則重構梯度計算流程,結合混合精度策略將計算開銷降低70%。數據管理層引入的聚類-剔除-壓縮流水線,使高斯基元的空間局部性提升3倍以上。算法層面采用的像素不透明度梯度方差指標,較傳統方法能更精準定位欠擬合區域,這些改進共同構成了LiteGS的性能基石。
實測數據顯示,在達到同等重建質量時,LiteGS的訓練速度較主流方案提升最高達10.8倍,參數量減少50%以上。針對輕量化場景開發的精簡模型,僅需原版10%的訓練時間和20%的參數量即可實現相同效果。這種跨層次的協同優化,使該技術在自動駕駛環境建模、數字孿生等實時性要求嚴苛的領域具有顯著優勢。
作為技術普惠的重要舉措,摩爾線程已將LiteGS核心代碼庫在GitHub平臺開源。該框架包含完整的GPU加速模塊、數據預處理工具鏈和算法優化接口,支持研究者快速構建定制化解決方案。開源文檔顯示,開發者通過簡單配置即可在現有3DGS流程中集成LiteGS的加速組件,平均可獲得4-7倍的訓練提速。
這項成果的工程價值已獲國際學術界認可。在SIGGRAPH Asia技術展示環節,評審專家特別指出LiteGS"重新定義了3D場景重建的性能邊界"。其創新性的全鏈路優化方法,為神經渲染領域解決訓練效率瓶頸提供了新思路。目前已有多個國際研究團隊基于LiteGS開展擴展研究,相關論文正在計算機視覺頂會CVPR審核中。
據內部人士透露,摩爾線程正將該技術深度整合至其MUSA智能計算架構。在即將召開的首屆MUSA開發者大會上,團隊將發布面向具身智能的3DGS應用框架,展示如何通過實時環境建模提升機器人路徑規劃能力。這項技術突破或將加速AI從感知智能向認知智能的演進,為工業自動化、智慧醫療等領域帶來新的發展契機。










