先進的人工智能工具正在崛起,但「安全」并不是監管人工智能的最佳標準
微新創想(idea2003.com) 10月16日消息:微軟于上周發布了其 Bing Image Creator 的新版本,這是一個由 OpenAI 的新模型 DALL-E 3 提供支持的 AI 圖像生成工具。它旨在提供比之前的圖像生成 AI 模型(如 Midjourney、Stable Diffusion 或 OpenAI 自己的 DALL-E 2)更強大的功能,包括比以前更豐富地理解復雜用戶請求的能力。
與過去一年發布的大多數生成式 AI 模型一樣,OpenAI 和微軟的模型都非常強調「安全」。在圖像生成的情況下,安全可以指的是系統生成偽造真實人物圖像的能力的限制,或者識別提供的圖像中的人物。但安全也意味著更廣泛的內容:正如微軟所表明的,它已構建了一個內容審查系統,將拒絕生成有害或不適當內容的任何請求,包括任何可能被視為種族主義、性別歧視或其他令人反感的內容。
在 Bing Image Creator 發布后的幾小時內,該內容審查系統就面臨了考驗。用戶很快就能生成著名卡通角色在飛往 911 事件前的世界貿易中心的飛機駕駛艙內的圖像,以及某人與饒有意思地類似說唱歌手 Drake 的形象解救納粹集中營的圖像。
內容審查系統通常會拒絕明確請求描繪 911 事件或者飛機駕駛艙窗戶里能看到雙子塔的圖像。但用戶發現了一種變通方法:他們指示系統創建像海綿寶寶這樣的角色在一架飛機上,背景是紐約市的天際線,以及「兩座高樓大廈」。
顯然,這種「藝術」幼稚且毫無品味。但它在相對低風險的環境中提出了一個更廣泛的問題,涉及人工智能安全工作的性質,甚至安全本身的性質。
隨著 AI 變得更加強大,個體將能夠以越來越精確的方式運用它,就像 Adobe Photoshop 擁有比 Microsoft Paint 更多的選項一樣。隨著這一趨勢的發展,將變得更難以根據媒體、學術界和許多 AI 公司所提倡的「安全」的廣泛定義來制定系統。AI 可以受到更精確的控制,聰明的用戶將能夠更精確地找到繞過旨在防止制作冒犯自由觀念的內容的審查規則的方法。
即使按照廣泛定義的安全標準,制定一個高度先進的 AI 系統是可能的,也不清楚這樣的系統是否令人滿意。互聯網惡作劇者用來生成上述圖像的變通方法是操縱系統的方式。但請考慮哪種系統聽起來更令人擔憂:一個可以操縱以生成一些人可能會感到冒犯的內容的系統,還是一個可以窺視用戶的內心、理解他們真正的動機,并決定是否愿意遵守的系統?前者是數字工具的延伸,盡管能力極強,但已經有幾十年了。后者讓人想起了《2001 太空漫游》中的 HAL 9000。即使這樣的系統是可能的,也很不清楚它是否是一個好的創造,特別是如果它是為了防止人們在互聯網上感到冒犯而被創建的。
隨著 AI 變得更加強大,以及擁有如此令人擔憂的能力的可能性變得更清晰,有必要在最初就確定 AI 系統應受用戶控制。增加安全性的努力直接與這一目標相沖突,可能導致高度強大的 AI 系統是為了滿足監管機構和其他守門人而建,而不是個體用戶。
通用人工智能工具的崛起,如 DALL-E 3 或 ChatGPT,以及即將到來的更強大的系統,引發了政策制定者、技術專家和所有相關公民的嚴重擔憂,確保系統符合安全的過于寬泛的標準不是其中之一。可以想象,未來幾年可能會出現 AI 系統,例如,能夠民主化開發新型生物武器,但 AI 已經被用于幫助人類探索科學和工程的新領域,如核聚變和癌癥治療。它們將有一天被用于教育數百萬兒童,并幫助公民應對不斷發展的挑戰。
我們如何處理這些新工具,我們是否信任它們,以及我們如何將它們納入我們的社會,將決定它們是否會使個人和整體的能力提升。倘若幸運的話,也許它還能提升我們討論的基調。