人人人免费人人专区人人,欧美精品不卡,欧美大片无尺码在线观看,久久精品小视频,成人免费黄色大片,欧美+亚洲+精品+三区

研究顯示為人工智能生成圖像添加水印以打擊虛假信息和深度偽造可能毫無意義

微新創想(idea2003.com) 10月7日消息:今年 7 月,白宮宣布,七家大型科技公司已承諾采取人工智能安全措施,包括部署水印,以確保算法生成的內容可以與真人作品區分開來。

在這些巨頭中,亞馬遜、谷歌和 OpenAI 都特別提到了水印技術——即在文本和圖像中添加信息以證明內容出處的技術——作為抵御其生成式人工智能模型所產生的錯誤信息、欺詐和深度偽造的一種方法。

這樣做的目的是,人工智能生成的材料將被巧妙地標記,以便在有人試圖將其內容冒充為人類制作的內容時,能夠被檢測和識別出來。

但學者們警告說,圖像中的數字水印——在創建內容時添加噪聲,然后在圖像數據集中檢測該噪聲模式的存在——可能并不能提供多少安全保證。

日前來自馬里蘭大學的研究團隊取得了重大突破,他們制定了一種繞過嵌入在 AI 生成圖像中的所有水印保護的方法。在接受 Wired 采訪時,計算機科學教授 Soheil Feizi 表示,目前沒有可靠的方法可以為 AI 生成的圖像加上水印,他的團隊成功地繞過了「所有方法」

就目前而言,惡意行為者繞過水印仍然太容易。而且,還可以將水印添加到人工制作的圖像中,從而觸發誤報。

數字水印已被各種 AI 公司推崇為一種功能,使用戶能夠知道圖像是否是借助 AI 生成的。問題是我們仍然沒有萬無一失、無法被操縱的水印技術。

Feizi 和他的團隊在一份預印本論文中詳細記錄了他們的研究結果。在論文中,研究人員表示,使用微妙的圖像擾動的水印方法可以輕松地通過擴散凈化攻擊來破解。

這種方法的工作原理是,在使用 AI 生成圖像時,會對其應用一種人眼不可見的特定噪聲模式。問題在于,這種模式可以很容易地被修改或移除,而對整體圖像的更改很小。

同樣,使用大量擾動的水印技術,即對圖像進行重大更改的技術,可以通過易于移除水印的模型替代對抗攻擊來破解。

此外,惡意行為者可以使用水印技術來針對真正的藝術家,將他們的圖像標記上會導致它們被錯誤地識別為由 AI 生成的模式。這可能會損害藝術家的聲譽。

您可能還喜歡...

發表回復

您的郵箱地址不會被公開。 必填項已用 * 標注