Nvidia 加強生成式 AI 運行,全力推廣 TensorRT

Nvidia 最近宣布了一個大舉動,他們將 TensorRT-LLM SDK 擴展到 Windows 和更多的大型語言模型(LLMs),像是 Stable Diffusion。這個舉動的背後目的很簡單,就是要讓這些大型語言模型和相關的 AI 工具運行得更快、更順暢。

Nvidia 加強生成式 AI 運行,全力推廣 TensorRT

Nvidia 最近宣布了一個大舉動,他們將 TensorRT-LLM SDK 擴展到 Windows 和更多的大型語言模型(LLMs),像是 Stable Diffusion。這個舉動的背後目的很簡單,就是要讓這些大型語言模型和相關的 AI 工具運行得更快、更順暢。

那 TensorRT 到底是什麼呢?簡單來說,它是一個幫助加速「推理」的工具。推理是一個過程,通過已經訓練好的資料和計算概率來得出結果。有了 TensorRT,Nvidia 希望在這個生成式 AI 的領域扮演更重要的角色。

TensorRT-LLM 的厲害之處在於,它可以讓像 Meta 的 Llama 2 和 Stability AI 的 Stable Diffusion 這樣的大型語言模型,在 Nvidia 的 H100 GPU 上運行得更快。Nvidia 自己也說,用 TensorRT-LLM 來運行這些模型,使用者的體驗會有顯著的提升,特別是在更複雜的應用,像是寫作和編碼助手。

這樣一來,Nvidia 不只是提供強大的 GPU 來訓練和運行這些大型語言模型,還提供了這個讓模型運行更快的軟件,這意味著用戶不需要尋找其他替代方案來降低生成式 AI 的成本。Nvidia 也表示,TensorRT-LLM 會對外開放,任何人都可以使用或整合它。

但 Nvidia 也看到了未來的挑戰,雖然他們在生成式 AI 的硬件方面是領頭羊,但隨著生成式 AI 的快速發展,不需要大量昂貴 GPU 的新方法也在出現。像是 Microsoft 和 AMD,已經宣布他們會製造自己的晶片,減少對 Nvidia 的依賴。因此 Nvidia 正在積極尋找新的機會,確保他們在這個領域繼續領先。

Read more

NVIDIA 宣布 2026 年晶片銷售上看 5,000 億美元,全球佈局全面加速

NVIDIA 宣布 2026 年晶片銷售上看 5,000 億美元,全球佈局全面加速

能源與算力的不平等,相信大家已經從能源概念股的漲幅程度看得出來。 AI 的熱度一路飆升,但背後的配電、冷卻、土地、建廠都跟不上。根據 CNBC 去年的報導,全球新建的資料中心園區,其峰值用電可支撐 70 萬戶家庭,單一園區的需求高達 1 GW(十億瓦)。 有限資源不只有電力,土地也成了戰場。美國開發商 Tract 表示,它已在全國為 AI 基礎設施組裝了超過 23,000 英畝土地。AI 的浪潮不只是演算法革命,更像是一場新的「能源殖民」。 能源現在成了這場 AI 革命最稀缺的資源。 算力是指數增長的,但能源供給卻只能線性擴張。 那就進入我們本週精選的 AI 新聞,搭配一段觀察筆記, 讓你不只是看熱鬧,也能看懂門道。 本周焦點事件 1. NVIDIA 宣布 2026

lock-1