史丹佛研究揭示全球的人工智慧模型缺乏透明度

史丹佛人工智慧中心(HAI)最近發布了一份報告,揭示了AI基礎模型的開發者,包括像OpenAI和Meta這樣的公司,並未釋放有關其對社會潛在影響的足夠信息。史丹佛HAI推出了其基礎模型透明度指數,追踪了10個最受歡迎的AI模型的創建者是否披露有關他們的工作和人們如何使用他們系統的訊息。

史丹佛研究揭示全球的人工智慧模型缺乏透明度

史丹佛人工智慧中心(HAI)最近發布了一份報告,揭示了AI基礎模型的開發者,包括像OpenAI和Meta這樣的公司,並未釋放有關其對社會潛在影響的足夠信息。史丹佛HAI推出了其基礎模型透明度指數,追踪了10個最受歡迎的AI模型的創建者是否披露有關他們的工作和人們如何使用他們系統的訊息。

在評估的模型中,Meta的Llama 2得分最高,其次是BloomZ,然後是OpenAI的GPT-4。但是,沒有一個模型得到特別高的分數。透明度可以是一個廣泛的概念,研究人員的定義是基於100個指標的信息,關於模型是如何構建的,它們是如何工作的,以及人們是如何使用。

10 個基礎模型提供者的分數分為 13 個子域,每個子域有 3 個或更多指標。 主要子域層級的分析揭示了哪些類型的透明度或不透明度導致上述發現的可操作的見解。

報告發現,沒有任何模型的創建者披露了任何有關社會影響的信息,包括在何處說明隱私、版權或偏見投訴。該指數的目標是為政府和公司提供一個基準,一些擬議的法規,如歐盟的AI法案,可能很快會迫使大型基礎模型的開發者提供透明度報告。

儘管生成式人工智慧有一個龐大開源社區,但該領域的這些大公司並不公開分享研究或代碼,OpenAI儘管在其名稱中有“開放”一詞,但由於競爭和安全方面的顧慮,不再公開其它研究資訊。

Read more

Meta 正在「收購」OpenAI?只是用更狠毒的方式

Meta 正在「收購」OpenAI?只是用更狠毒的方式

上週大家過得還好嗎? 這次丹娜絲颱風給台灣帶來的災情不小,南部和東部尤其嚴重。我的台南老家也被摧毀了,今天南下的高速公路充滿了倒掉的樹。寫這封週報的時候,其實心裡還掛著很多事,但還是想把這週值得關注的 AI 新聞整理好。希望大家都平安,也別忘了在忙碌之餘多多關心身邊的人。 讓我們轉換心情!這週也一樣,精選 5 則值得關注的 AI 新聞,搭配一段觀察筆記, 讓你不只是看熱鬧,也能看懂門道。 本週焦點事件 1. Meta 正在「收購」OpenAI? 2. Google Veo 3 結束測試,全球開放! 3. 針對 300 位軟體高層做的調查報告,揭露 AI 軟體公司的新成長曲線 4. Spotify 爆紅神秘樂團,其實是 AI 生的? 5. AI 幫助一對夫妻成功懷孕?

lock-1
【影音工具教學】用一張照片,拍出電影級特效?Higgsfield 把這件事變簡單了

【影音工具教學】用一張照片,拍出電影級特效?Higgsfield 把這件事變簡單了

過去,電影裡那些超誇張的鏡頭,都是一群專業團隊花大錢、大把時間才拍出來的。 比如《駭客任務》的子彈時間,為了讓主角在空中定格旋轉,現場要擺上幾十台相機,每台各拍一張,再拼成一段連貫的動畫。 但現在,只要一張照片,一個按鈕。 Higgsfield,直接讓 AI 幫你拍出這種級別的特效。

lock-1