在剛剛落幕的SIGGRAPH Asia 2025大會上,一場聚焦3D場景重建技術(shù)的國際競賽引發(fā)全球關(guān)注。由國內(nèi)企業(yè)摩爾線程組成的MT-AI團(tuán)隊(duì),憑借自主研發(fā)的3D Gaussian Splatting(3DGS)算法框架LiteGS,在60秒極限重建挑戰(zhàn)中斬獲銀獎,成為首個在該領(lǐng)域躋身國際前列的中國團(tuán)隊(duì)。
這項(xiàng)被稱為"三維重建范式革命"的技術(shù),通過數(shù)百萬個各向異性高斯基元構(gòu)建場景模型,在保持NeRF級渲染質(zhì)量的同時,將效率提升數(shù)百倍。其核心突破在于解決了傳統(tǒng)方法中畫質(zhì)、速度與資源占用的三角困境,尤其在光線追蹤、VR/AR實(shí)時渲染等場景展現(xiàn)出獨(dú)特優(yōu)勢。技術(shù)評估顯示,LiteGS在PSNR質(zhì)量指標(biāo)上達(dá)到27.58的頂尖水平,而34秒的重建速度較多數(shù)參賽方案縮短近半。
競賽任務(wù)極具挑戰(zhàn)性:參賽者需在60秒內(nèi),基于存在誤差的相機(jī)軌跡和SLAM點(diǎn)云數(shù)據(jù),完成從視頻序列到高精度3D場景的完整重建。主辦方采用PSNR與重建速度的復(fù)合評價體系,確保結(jié)果兼具學(xué)術(shù)嚴(yán)謹(jǐn)性與工程實(shí)用性。目前所有競賽數(shù)據(jù)與評估結(jié)果已通過中大GAP實(shí)驗(yàn)室官網(wǎng)公開,供全球研究者下載驗(yàn)證。
摩爾線程的突破性進(jìn)展源于全棧技術(shù)整合能力。團(tuán)隊(duì)創(chuàng)新性提出"Warp-Based Raster"渲染范式,通過單線程塊處理原則重構(gòu)梯度計(jì)算流程,結(jié)合混合精度策略將計(jì)算開銷降低70%。數(shù)據(jù)管理層引入的聚類-剔除-壓縮流水線,使高斯基元的空間局部性提升3倍以上。算法層面采用的像素不透明度梯度方差指標(biāo),較傳統(tǒng)方法能更精準(zhǔn)定位欠擬合區(qū)域,這些改進(jìn)共同構(gòu)成了LiteGS的性能基石。
實(shí)測數(shù)據(jù)顯示,在達(dá)到同等重建質(zhì)量時,LiteGS的訓(xùn)練速度較主流方案提升最高達(dá)10.8倍,參數(shù)量減少50%以上。針對輕量化場景開發(fā)的精簡模型,僅需原版10%的訓(xùn)練時間和20%的參數(shù)量即可實(shí)現(xiàn)相同效果。這種跨層次的協(xié)同優(yōu)化,使該技術(shù)在自動駕駛環(huán)境建模、數(shù)字孿生等實(shí)時性要求嚴(yán)苛的領(lǐng)域具有顯著優(yōu)勢。
作為技術(shù)普惠的重要舉措,摩爾線程已將LiteGS核心代碼庫在GitHub平臺開源。該框架包含完整的GPU加速模塊、數(shù)據(jù)預(yù)處理工具鏈和算法優(yōu)化接口,支持研究者快速構(gòu)建定制化解決方案。開源文檔顯示,開發(fā)者通過簡單配置即可在現(xiàn)有3DGS流程中集成LiteGS的加速組件,平均可獲得4-7倍的訓(xùn)練提速。
這項(xiàng)成果的工程價值已獲國際學(xué)術(shù)界認(rèn)可。在SIGGRAPH Asia技術(shù)展示環(huán)節(jié),評審專家特別指出LiteGS"重新定義了3D場景重建的性能邊界"。其創(chuàng)新性的全鏈路優(yōu)化方法,為神經(jīng)渲染領(lǐng)域解決訓(xùn)練效率瓶頸提供了新思路。目前已有多個國際研究團(tuán)隊(duì)基于LiteGS開展擴(kuò)展研究,相關(guān)論文正在計(jì)算機(jī)視覺頂會CVPR審核中。
據(jù)內(nèi)部人士透露,摩爾線程正將該技術(shù)深度整合至其MUSA智能計(jì)算架構(gòu)。在即將召開的首屆MUSA開發(fā)者大會上,團(tuán)隊(duì)將發(fā)布面向具身智能的3DGS應(yīng)用框架,展示如何通過實(shí)時環(huán)境建模提升機(jī)器人路徑規(guī)劃能力。這項(xiàng)技術(shù)突破或?qū)⒓铀貯I從感知智能向認(rèn)知智能的演進(jìn),為工業(yè)自動化、智慧醫(yī)療等領(lǐng)域帶來新的發(fā)展契機(jī)。










