【輕鬆懂】NeRF v.s. 3D Gaussian Splatting 一次看

你拍幾張照片,AI就能讓你飛進3D世界?NeRF和3D Gaussian Splatting,這兩大AI重建技術正在改寫虛擬攝影、數位孿生與空間記憶的未來。本篇深入淺出解密它們的差異、應用與渲染秘密!

【輕鬆懂】NeRF v.s. 3D Gaussian Splatting 一次看


AI 能讓 2D 照片「變 3D 」?

只要幾張不同角度的 2D 照片,AI 就能重建出一個 3D 空間,讓你像無人機一樣在畫面中飛行穿梭。這是今天兩大技術主角:NeRF(Neural Radiance Fields, 神經輻射場)與 3D Gaussian Splatting(3D高斯潑濺)的真實應用。

核心問題很簡單:我們能不能用幾張照片,重建出一個新視角的畫面?學術上這叫「新視角合成(novel view synthesis)」,可以應用在電影、VR、數位博物館甚至 AI 導覽。

這兩種方法,看起來都很厲害,哪一個更快?哪一個更省空間?到底差在哪?比較一次看:

項目NeRF(像描光線的畫家)3DGS(像潑墨的小孩)
技術類型隱式神經網路(INR)顯式點雲(高斯橢球)
渲染邏輯光線追蹤(Ray Tracing)光柵化(Rasterization)
畫面生成速度慢(約 10 FPS)快(約 90 FPS)
資料體積小(模型幾十 MB)大(場景可達 GB 等級)
編輯彈性需重訓整體模型可直接改泡泡,像編輯 3D 圖層
優勢場景可攜性強、雲端分享即時互動、VR 遊戲、AI 導覽
視覺風格精緻細緻,類似電影光線追蹤效果濃烈明亮,像是潑墨拼貼視覺

NeRF像打光,3DGS像潑漆

如果你第一次接觸 NeRF,不妨想像這樣的畫面:每個畫素都像一束光從攝影機打出去,AI根據這道光線在場景中的位置與方向,計算出它該有的顏色與透明度。這其實就是一種 AI 版的「光線追蹤」(ray tracing),用學習來模擬光的反射和折射。

而 3D Gaussian Splatting 則完全不同。它不是一束光一束光去算,而是先在空間中撒出「高斯橢球」(像是一團團半透明顏色的橢圓球體、泡泡),然後用傳統 GPU 最擅長的「光柵化」(rasterization)方式,把這些泡泡一口氣渲染成一張圖。它像是讓小朋友拿透明顏料在空中潑灑,畫面就是這樣疊出來的。

這也導致兩者速度有很大的差別:3DGS 可以每秒渲染90幀,NeRF 最快版本也才10幀左右。但代價是,3DGS 超級吃記憶體,因為每一個高斯點都要記錄位置、顏色、大小與透明度等參數,資料量可能是 NeRF 的10到100倍。

為什麼兩種技術差這麼多?關鍵在「底層引擎」

你可以把 NeRF 看成是 AI 版的光線追蹤(ray tracing):每次都從攝影機的位置「射一束光」,AI幫你算出這束光在場景中碰到什麼東西、該呈現什麼顏色。這很真實,但也很慢。

相反地,3DGS 則是建構出一個 3D 的橢圓球體、泡泡「點雲」,每顆泡泡都是一個高斯分佈的顏色點,然後一次渲染整個畫面。這就像傳統 3D 遊戲用的光柵化引擎,速度快、符合 GPU 設計邏輯,也因此成為目前 AI 影像合成領域的新寵。

不過,NeRF 的優勢在於簡潔。它最後只是一個幾十 MB 大小的神經網路模型,便於儲存與分享。3DGS 則會產出一個高達上 GB 的巨型資料檔,每個場景都有成千上萬個高斯點,雖然可以快速渲染,但存起來就很笨重。

NeRF vs. 3DGS:不同的選擇,不同的未來

NeRF 的學名叫隱式神經表示(Implicit Neural Representation, INR),因為它的重建結果藏在神經網路參數裡,人類難以直接閱讀。

3DGS 則是顯式表示(Explicit Representation),打開資料檔,裡面每個泡泡的位置、大小、顏色,易讀性高,也容易修改。

這代表什麼?在 NeRF 中,修改場景或理解細節得靠重訓整個模型;而在 3DGS 中,你可以直接調整某顆泡泡,就像編輯 3D 圖層一樣直覺。

未來誰會勝出?NeRF 在壓縮、可攜性方面佔優;3DGS 則在即時互動、遊戲與虛擬實境場景中發揮強大實力。也許答案是:它們都會存在,互補彼此。

NeRF 像是一位畫家,用光線細細描繪每一筆;3DGS 則像潑墨高手,用泡泡灑出整幅畫面。兩者的 AI 底層邏輯不同、優劣互見,但共同目標只有一個——讓你用幾張照片,就能進入一個立體、沉浸、可互動的 3D 世界。

未來的數位攝影、VR 遊戲、甚至 AI 導覽,可能都會建立在這些技術之上。你現在看到的,不只是照片重建而已,而是重新定義「影像」與「現實」的邊界。

source: edward ahn

image by bad decision studio

Read more

加拿大新創 Taalas 直接把 AI 模型變成晶片!每秒 17000 token 的 HC1

加拿大新創 Taalas 直接把 AI 模型變成晶片!每秒 17000 token 的 HC1

感謝大家熱情參與「AI 郵報年度訂閱調查」!目前調查已正式結束,我們收到了非常多寶貴的建議,有些人覺得我們可以辦更多的實體活動或是 Workshop (這些我們目前都在籌備中!很快就有消息能跟大家分享)。 但在整理名單時,我們發現系統設定未能完整擷取到部分讀者的 Manus 註冊 Email。為了確保您的抽獎權益不因系統問題受損,請先前已填寫過的夥伴,撥冗 10 秒鐘回到原表單連結補填 Email,我們將以此作為最終的中獎與發獎憑證。 👉 補填連結: AI 郵報訂戶調查 * 得獎公布: 將於下期電子報正式揭曉。 * 特別說明: 活動目前已截止,本次補填僅限原參與者領獎資格確認;新填寫的朋友雖然無法計入抽獎,但我們依然非常感謝您的支持! 另外,我們正將大家的 Feedback 整理成一份精華 Report,預計於下週與各位分享,敬請期待! 接著馬上讓我們進入本週的五件 AI 大事,搭配觀察筆記 讓你不只是看熱鬧,也能看懂門道。 本周焦點事件 1. 加拿大新創 Taalas 直接把 AI

[AI郵報新年特輯] 2025 - 26 Top 5 AI 工具 & 大事件回顧

[AI郵報新年特輯] 2025 - 26 Top 5 AI 工具 & 大事件回顧

新年快樂,各位 AI 狂熱者!(文末有抽獎活動!抽十位 Manus 8000 積分 Pro 會員!) 在點開這封信、開始閱讀本週的週年回顧前,請先給螢幕前的自己鼓鼓掌。老實說,在農曆新年期間還能保持「開信」的慣性,基本上已經是 AI 成癮者了,如果開一個戒斷互助會,我想是沒有人會來的,因為就我們來說,用 AI 已經成為不想戒、不能戒的習慣了。 上週我們啟動了《AI 郵報》的年度訂戶調查(目前仍在進行中,點這裡前往填寫)。在後台看反饋時,有讀者對我們的題目設計蠻有興趣,私底下詢問我們「為什麼要問閱讀週報時,同時還在做什麼?」 這題看似閒聊,但其實是因為我之前研究 Netflix 的一個啟發。當大家在討論 Disney+ 或 YouTube 或是其他本地 OTT 對於