藝術家使用 Nightshade 工具對抗生成式 AI,保護其藝術作品

為了對抗用於訓練 AI 模型的數據,一個名為 Nightshade 的新工具被開發出來,這個工具允許用戶將其附加到他們的創意作品上,從而破壞或“毒化”使用該藝術作品的訓練數據。最終,這可能會破壞像 DALL-E、Stable Diffusion 和 Midjourney 這樣的 AI 藝術平台的未來模型,使其無法創建圖像。

藝術家使用 Nightshade 工具對抗生成式 AI,保護其藝術作品

為了對抗用於訓練 AI 模型的數據,一個名為 Nightshade 的新工具被開發出來,這個工具允許用戶將其附加到他們的創意作品上,從而破壞或“毒化”使用該藝術作品的訓練數據。最終,這可能會破壞像 DALL-E、Stable Diffusion 和 Midjourney 這樣的 AI 藝術平台的未來模型,使其無法創建圖像。

Nightshade 會對數位藝術作品中的像素進行不可見的更改,當作品被模型用於訓練時,這種“毒藥”會利用一個安全漏洞來混淆模型,使其不再將汽車的圖像讀作汽車,而是將其讀作牛。

Nightshade 的創建者之一、芝加哥大學的教授 Ben Zhao 希望能夠改變目前的平衡,使其偏向於那些使用受版權保護的數據訓練模型的 AI 公司。Nightshade 的研究論文指出,用於文本到圖像的 AI 模型的訓練數據容易受到該工具釋放的攻擊類型的影響。

藝術家可以將他們的作品上傳到 Glaze,這是 Nightshade 創建者製作的一個工具,它可以遮蓋他們的藝術風格,例如,將通常的寫實畫變成立體派畫作。Nightshade 將被整合到 Glaze 中,讓用戶選擇他們是否想使用這種毒藥,使模型無法模仿他們的藝術風格。

版權問題仍然是一個灰色地帶,許多關於版權侵權的訴訟仍在法庭上進行,三位藝術家在今年1月起訴了 Stable Diffusion、Midjourney 和藝術網站 DeviantArt,稱其模型未經許可就使用了他們的藝術作品。同時,防止網路爬蟲未經許可取得資料的方法僅限於阻止爬蟲的存取。Adobe 等公司計劃使用標記來標記某些內容是否是人工智慧生成的,同時也顯示誰擁有該圖像。

Read more

Figma 上市的大功臣與下一步 - Evan Wallace & 設計界的 GitHub?

Figma 上市的大功臣與下一步 - Evan Wallace & 設計界的 GitHub?

這是我寫過最長的一篇電子報(對不起 XD),但我保證值得。因為 Figma 掛牌上市,讓我第一次真正 Dig in 這家公司的技術奇蹟──從 Evan Wallace 如何把專業設計工具塞進瀏覽器,到 Figma 是否能成為「設計界的 GitHub」;此外,這期也會帶你看 Anthropic 超車 OpenAI、Meta 的個人超級 AI 助理願景,以及 AI 界的 Netflix Showrunner。還有,我們 8/14 也要辦第一次實體小聚,真的很想和你碰杯聊聊!

lock-1