在智能手機攝影領(lǐng)域,極低光照環(huán)境下的成像質(zhì)量始終是技術(shù)突破的難點。當(dāng)環(huán)境光線微弱到接近相機傳感器極限時,傳統(tǒng)成像系統(tǒng)往往會出現(xiàn)顆粒感明顯、噪點堆積的問題,甚至導(dǎo)致畫面細節(jié)嚴(yán)重丟失。這種物理層面的光線捕捉限制,長期以來制約著移動端攝影的夜間表現(xiàn)力。
為突破這一技術(shù)瓶頸,蘋果公司聯(lián)合普渡大學(xué)研發(fā)團隊提出全新解決方案。不同于傳統(tǒng)后期降噪算法通過犧牲細節(jié)換取畫面平滑度的處理方式,新模型DarkDiff創(chuàng)新性地將擴散生成技術(shù)深度整合至相機成像鏈路。該技術(shù)通過模擬光線在真實場景中的傳播規(guī)律,在圖像生成階段直接優(yōu)化光信號轉(zhuǎn)換過程,而非對已失真的圖像進行修復(fù)。
實驗數(shù)據(jù)顯示,在照度低于0.1lux的極端環(huán)境下,采用新技術(shù)的成像系統(tǒng)可將噪點密度降低62%,同時保留91%的原始細節(jié)信息。傳統(tǒng)算法為壓制噪點常導(dǎo)致發(fā)絲紋理模糊、建筑輪廓失真等問題,而DarkDiff模型通過多尺度特征融合機制,在消除噪點的同時能精準(zhǔn)還原物體邊緣與材質(zhì)特征。這種從信號源頭進行優(yōu)化的方式,使夜間成像效果更接近人眼真實感知。
該技術(shù)突破標(biāo)志著移動影像處理進入新階段。通過將生成式AI與硬件傳感器深度耦合,成像系統(tǒng)不再依賴粗暴的像素級修改,而是構(gòu)建起從光信號采集到圖像呈現(xiàn)的完整優(yōu)化鏈路。這種技術(shù)路徑不僅適用于智能手機,也為專業(yè)攝影設(shè)備、安防監(jiān)控等領(lǐng)域的低光成像提供了新思路。隨著算法效率的持續(xù)提升,未來用戶有望在更多場景下獲得清晰純凈的夜間影像體驗。










