耐能智慧 AI晶片KL730即將問世,將大幅降低AI運營公司成本

在生成人工智能的世界中,計算能力和獲取最先進、最強大的芯片已成為一場戰鬥。邊緣AI科技公司耐能智慧(Kneron)日前宣布,將在今年年底前推出全新的神經處理單元(NPU)芯片,名為KL730,為運行大型語言模型(LLM)的成本大幅降低。

Share
耐能智慧 AI晶片KL730即將問世,將大幅降低AI運營公司成本

在生成人工智能的世界中,計算能力和獲取最先進、最強大的晶片已成為一場戰鬥。邊緣AI科技公司耐能智慧(Kneron)日前宣布,將在今年年底前推出全新的神經處理單元(NPU)晶片,名為KL730,將大幅降低運算大型語言模型(LLM)的成本。

Kneron指出,KL730 NPU芯片的問世將大大降低運行大型語言模型的成本,這款處理器是專為機器學習和人工智能應用而設計。過去,成本一直是運行龐大AI模型的一大挑戰,KL730的推出有望在這一領域帶來一個嶄新的發展。

KL730是Kneron的下一代處理器,該公司在2021年推出了支持Transformer模型的KL530晶片,該模型支撐著一些生成式AI模型。Kneron的首席執行官Albert 劉向The Verge透露,NPU晶片專門為AI而設計,這消除了最初為處理圖像而設計的晶片被迫為AI工作的問題。他暗指了對人工智能晶片巨頭Nvidia的間接批評。他表示:“我想說的是,如果你擁有像我們這樣功能強大且輕量級的晶片,那麼你就可以將像GPT這樣強大的Transformer模型帶到多種設備中。”

耐能智慧 KL730邊緣AI晶片 (image:耐能智慧)

劉雖然沒有透露KL730的具體價格,但他指出與GPU晶片相比,他們的KL530晶片使用戶運營成本下降了75%。這項數據彰顯了新一代AI專用晶片的優勢。

多數AI公司和雲提供商都傾向於使用Nvidia的H100 Tensor Core GPU晶片,因為這被認為是最易於使用的處理器之一,能夠提供運行生成人工智能模型所需的計算能力。然而即使有這種能力,運行大型語言模型通常需要多個H100晶片,並需要進行模型“分解”以使其運行。

儘管如此,隨著對AI晶片的需求不斷增長,H100的價格飆升至每片約40,000美元左右。Nvidia已經宣布計劃在2024年第二季度推出更強大的AI芯片,同時競爭對手也在積極蠢蠢欲動,AMD計劃在今年第四季度推出自家的AI芯片。

Kneron表示,與之前的晶片相比,KL730的能效有了“三到四倍的飛躍”,並且具有每秒0.35兆次運算的基礎計算能力。新晶片還使得用戶能夠完全離線運行模型,無需連接到雲服務供應商,同時更安全地處理數據。

Kneron的KL730晶片在AI硬體領域引發了新的潮流,通過專為AI而設計的晶片,讓成本降低、效能提升,並且開創了更加安全、更具效率的AI應用可能性。在這個愈發重要的領域,Kneron的努力和創新必將為AI技術的未來描繪出更燦爛的前景。

Read more

SMIC Q1 2026:AI 晶片荒推動海外訂單回流中國,中芯國際業績亮眼

SMIC Q1 2026:AI 晶片荒推動海外訂單回流中國,中芯國際業績亮眼

中芯國際(SMIC)2026年第一季財報發布,AI浪潮重塑全球晶圓代工版圖,中國正成為少數仍有餘裕產能的關鍵製造基地。全球AI基礎建設競賽持續升溫,台積電、三星等國際晶圓大廠將產能全面轉向先進製程,導致傳統成熟製程出現嚴重供不應求的局面。SMIC Q1營收達25.05億美元,Q2展望大幅超預期,營收季增指引為14%至16%。

不用攝影棚,也能做 AI 數字人教學短影音|Codex HeyGen 完整實作指南

不用攝影棚,也能做 AI 數字人教學短影音|Codex HeyGen 完整實作指南

完整實作指南:從 Codex 規劃、HeyGen 生成,到 HyperFrames 剪輯輸出。深入解析三個工具如何分工、如何串接成可重複使用的短影音製作 workflow。包含可複製的 Codex Prompt 模板、HeyGen 任務參數、HyperFrames 檔案結構、Render 前檢查清單,以及如何把流程變成模板。適合想要建立標準化內容生產系統的創作者。

lock-1