Nvidia 加強生成式 AI 運行,全力推廣 TensorRT

Nvidia 最近宣布了一個大舉動,他們將 TensorRT-LLM SDK 擴展到 Windows 和更多的大型語言模型(LLMs),像是 Stable Diffusion。這個舉動的背後目的很簡單,就是要讓這些大型語言模型和相關的 AI 工具運行得更快、更順暢。

Nvidia 加強生成式 AI 運行,全力推廣 TensorRT

Nvidia 最近宣布了一個大舉動,他們將 TensorRT-LLM SDK 擴展到 Windows 和更多的大型語言模型(LLMs),像是 Stable Diffusion。這個舉動的背後目的很簡單,就是要讓這些大型語言模型和相關的 AI 工具運行得更快、更順暢。

那 TensorRT 到底是什麼呢?簡單來說,它是一個幫助加速「推理」的工具。推理是一個過程,通過已經訓練好的資料和計算概率來得出結果。有了 TensorRT,Nvidia 希望在這個生成式 AI 的領域扮演更重要的角色。

TensorRT-LLM 的厲害之處在於,它可以讓像 Meta 的 Llama 2 和 Stability AI 的 Stable Diffusion 這樣的大型語言模型,在 Nvidia 的 H100 GPU 上運行得更快。Nvidia 自己也說,用 TensorRT-LLM 來運行這些模型,使用者的體驗會有顯著的提升,特別是在更複雜的應用,像是寫作和編碼助手。

這樣一來,Nvidia 不只是提供強大的 GPU 來訓練和運行這些大型語言模型,還提供了這個讓模型運行更快的軟件,這意味著用戶不需要尋找其他替代方案來降低生成式 AI 的成本。Nvidia 也表示,TensorRT-LLM 會對外開放,任何人都可以使用或整合它。

但 Nvidia 也看到了未來的挑戰,雖然他們在生成式 AI 的硬件方面是領頭羊,但隨著生成式 AI 的快速發展,不需要大量昂貴 GPU 的新方法也在出現。像是 Microsoft 和 AMD,已經宣布他們會製造自己的晶片,減少對 Nvidia 的依賴。因此 Nvidia 正在積極尋找新的機會,確保他們在這個領域繼續領先。

Read more

Elon Musk 最新訪談:軌道資料中心、機器人海嘯、全民高收入、勸退醫學院...

Elon Musk 最新訪談:軌道資料中心、機器人海嘯、全民高收入、勸退醫學院...

本週最值得關注的訪談,莫過於 Elon Musk 在 Peter Diamandis 主持的《Moonshots》Podcast 中長達三小時的深聊。 整場訪談像在看 Musk 寫一部關於 2035 年的小說,一層層拆解他眼中十年的成長、改變邏輯:從 AI 奇點、AI 的終點是太陽能、機器人影響經濟結構、全民高收入到勸退醫學院與人類壽命...真的是天南聊到地北。因為內容有趣又有知識點,所以本週特別幫大家整理出這場訪談的四大精華觀點。 這週廢話不多說,馬上讓我們進入本週的五件 AI 大事,搭配一段觀察筆記 讓你不只是看熱鬧,也能看懂門道。 本周焦點事件 1. 馬斯克在《Moonshots》Podcast 中的未來全景:奇點、能源、機器人與經濟模式重構 2. ChatGPT Health 上線:AI 開始讀懂你的醫療紀錄了