藝術家使用 Nightshade 工具對抗生成式 AI,保護其藝術作品

為了對抗用於訓練 AI 模型的數據,一個名為 Nightshade 的新工具被開發出來,這個工具允許用戶將其附加到他們的創意作品上,從而破壞或“毒化”使用該藝術作品的訓練數據。最終,這可能會破壞像 DALL-E、Stable Diffusion 和 Midjourney 這樣的 AI 藝術平台的未來模型,使其無法創建圖像。

藝術家使用 Nightshade 工具對抗生成式 AI,保護其藝術作品

為了對抗用於訓練 AI 模型的數據,一個名為 Nightshade 的新工具被開發出來,這個工具允許用戶將其附加到他們的創意作品上,從而破壞或“毒化”使用該藝術作品的訓練數據。最終,這可能會破壞像 DALL-E、Stable Diffusion 和 Midjourney 這樣的 AI 藝術平台的未來模型,使其無法創建圖像。

Nightshade 會對數位藝術作品中的像素進行不可見的更改,當作品被模型用於訓練時,這種“毒藥”會利用一個安全漏洞來混淆模型,使其不再將汽車的圖像讀作汽車,而是將其讀作牛。

Nightshade 的創建者之一、芝加哥大學的教授 Ben Zhao 希望能夠改變目前的平衡,使其偏向於那些使用受版權保護的數據訓練模型的 AI 公司。Nightshade 的研究論文指出,用於文本到圖像的 AI 模型的訓練數據容易受到該工具釋放的攻擊類型的影響。

藝術家可以將他們的作品上傳到 Glaze,這是 Nightshade 創建者製作的一個工具,它可以遮蓋他們的藝術風格,例如,將通常的寫實畫變成立體派畫作。Nightshade 將被整合到 Glaze 中,讓用戶選擇他們是否想使用這種毒藥,使模型無法模仿他們的藝術風格。

版權問題仍然是一個灰色地帶,許多關於版權侵權的訴訟仍在法庭上進行,三位藝術家在今年1月起訴了 Stable Diffusion、Midjourney 和藝術網站 DeviantArt,稱其模型未經許可就使用了他們的藝術作品。同時,防止網路爬蟲未經許可取得資料的方法僅限於阻止爬蟲的存取。Adobe 等公司計劃使用標記來標記某些內容是否是人工智慧生成的,同時也顯示誰擁有該圖像。

Read more

【影音工具教學】AI ASMR 影片怎麼做?用 Veo 3 生成高品質畫面與聲音!

【影音工具教學】AI ASMR 影片怎麼做?用 Veo 3 生成高品質畫面與聲音!

Veo 3 是目前最懂「聲音」的 AI 影片工具,能根據提示詞自動生成同步的畫面與音效,成為打造 ASMR 類影片的秘密武器。這篇教學將帶你從撰寫 prompt 開始,教你如何讓 Veo 不只「看見」你想像的畫面,也能「聽見」你腦中的聲音節奏。附上範本與實例,讓你第一次寫 prompt 就能切出一刀療癒的紅蘿蔔。

lock-1
【科技新聞】AI 導入加速裁員潮?Amazon CEO:精通 AI 才有機會留下

【科技新聞】AI 導入加速裁員潮?Amazon CEO:精通 AI 才有機會留下

隨著人工智慧技術快速擴展應用,亞馬遜執行長安迪·賈西(Andy Jassy)近日向員工發出內部備忘錄,明確指出,生成式 AI 與智能代理(agent)的導入將在未來數年「減少」公司的企業人力規模。他表示,這波人力變動是由於公司在各部門大規模採用 AI 所帶來的「效率提升」,但並未具體說明預計影響的人數。