科技領域傳來新進展,蘋果公司與普渡大學共同研發出一種創新型AI技術,旨在攻克極低光照環境下的拍攝難題。這項名為DarkDiff的技術,為手機攝影在暗光場景下的表現帶來了全新可能。
在光線極其微弱的情況下,手機拍攝的照片常常布滿噪點。傳統算法為掩蓋噪點,往往會對圖像進行過度平滑處理,結果導致照片細節丟失,畫面呈現出類似油畫的涂抹質感,嚴重影響成像質量。
為解決這一長期困擾攝影界的問題,蘋果與普渡大學的研究團隊另辟蹊徑,推出DarkDiff新型AI模型。該模型突破傳統后期修圖的思路,創造性地將預訓練的生成式擴散模型應用于相機的圖像信號處理(ISP)流程,從圖像生成的源頭提升畫質。
DarkDiff的核心創新點在于介入時機。與在成像后進行AI修補不同,它在相機ISP處理原始傳感器數據(Raw Data)的早期階段就已介入。ISP負責白平衡、去馬賽克等基礎處理,生成線性RGB圖像后,DarkDiff隨即接手,進行降噪和細節生成。這種深度集成的方式,讓AI能夠精準理解照片黑暗區域應有的紋理細節,而非簡單地對像素進行模糊處理。
生成式AI在應用中常出現“幻覺”問題,即無中生有地篡改畫面內容,生成不存在的物體。為避免這種情況,DarkDiff引入了“局部圖像塊注意力機制”。該機制強制模型關注圖像的局部結構,確保AI在增強細節的同時,嚴格忠實于原始場景。研究人員還采用“無分類器引導”技術,通過調節引導強度,在圖像的平滑度與銳利度之間找到最佳平衡,有效避免生成偽影。
為驗證DarkDiff的實際效果,研究人員使用索尼A7SII相機在極暗環境下拍攝測試樣本,曝光時間短至0.033秒。將DarkDiff處理后的圖像與使用三腳架長曝光(時長為測試圖300倍)拍攝的參考圖進行對比,結果顯示,DarkDiff在色彩還原和細節清晰度方面均優于現有的Raw增強模型。
盡管DarkDiff展現出驚人的效果,但距離實際應用仍面臨諸多挑戰。研究人員坦言,該技術的處理速度遠慢于傳統算法,且對算力需求巨大。若在手機本地運行,將迅速耗盡電池電量,未來可能需要依托云端處理。模型在識別低光場景下的非英文文本時仍存在一定局限。目前,這項研究更多展示了蘋果在計算攝影領域的探索方向,短期內未必會直接應用于新款iPhone。











