Surfshark 安全報告顯示 AI 事故飆升:特斯拉、Facebook、OpenAI 占據前三
站長之家(ChinaZ.com) 6月29日消息:據安全公司 Surfshark 表示,第一個「AI 事故」差點引發了全球核戰爭。最近出現的 AI 事故、錯誤、欺詐和詐騙包括利用深度偽造技術影響政治、聊天機器人提供錯誤的健康信息,以及危及行人安全的自動駕駛汽車。
根據 Surfshark 的報告,最糟糕的違規者是特斯拉、Facebook 和 OpenAI,它們占所有已知 AI 事故的 24.5%。
1983 年,蘇聯的一個自動化系統誤以為發現了來自美國的核導彈,差點引發全球沖突。這是 Surfshark 報告中的第一個事件(盡管 20 世紀 80 年代的自動化系統是否算作人工智能還存在爭議)。
而在最近發生的事故中,美國國家飲食失調協會(NEDA)不得不關閉其聊天機器人 Tessa,因為 Tessa 給正在尋求飲食紊亂幫助的人提供了危險的建議。最近的其他事故包括特斯拉的自動駕駛系統未能注意到違反交通規則的行人,并且路易斯安那州警方因 Clearview AI 開發的面部識別系統誤以為一個杰斐遜郡居民是另一人而錯誤逮捕了他。
Surfshark 表示,這些 AI 事件正在迅速增長。鑒于過去一年中對人工智能的投資和使用大幅增加,這并不令人震驚。根據軟件評論服務 G2 的數據,從 2022 年 2 月到 2023 年 2 月,聊天機器人的搜索流量增長了 261%,而 G2 數據庫中增長最快的三款軟件產品均為人工智能產品。
「即使人們對人工智能的使用普遍持懷疑態度,78% 的受訪者表示他們相信人工智能驅動的解決方案的準確性和可靠性。」G2 的代表基于最近針對 1700 名軟件購買者的調查表示。
盡管存在這種信任,但 AI 事故數量從 2014 年至 2022 年的早期人工智能年平均 10 起增加到過去幾年的年平均 79 起。這意味著在短短六年內增長了 690%,且增速正在加快。截至 2023 年 5 月,2022 年全年的事件數量已經達到了一半。
據安全公司 Surfshark 發言人 Elena Babarskaite 表示:「一個最近的明顯例子是流傳的教皇穿著白色色羽絨服的深度偽造圖像,展示了通過 AI 圖像生成器實現的驚人逼真效果。然而,其影響超出了娛樂,因為 AI 增強的虛假新聞在將來可能繼續誤導公眾。其他更嚴重的 AI 事件甚至可能誘發種族主義、暴力或犯罪。」
事實上,Surfshark 列出的 520 個 AI 事故報告中,有 83 個使用了「黑人」一詞,包括上述錯誤逮捕以及眾所周知的 Facebook AI 工具將黑人男性標記為「靈長類動物」的事件。
一些偏見正在從 AI 系統中消除,但很明顯,在大規模追求向一切添加人工智能的過程中,安全和公平并不總是關鍵考慮因素。
至于占已記錄人工智能事件 25% 的 Facebook、特斯拉和 OpenAI,它們面臨的挑戰包括 Facebook 的算法無法發現暴力內容,以及詐騙者利用 Facebook 上的深度偽造圖像和視頻來詐騙人們。
特斯拉的 AI 問題主要集中在該公司的 Autopilot 和全自動駕駛軟件產品上,可能會突然剎車(導致 2022 年底在舊金山發生了一起八車相撞事故)或者未能注意到前方的車輛和行人。OpenAI 的挑戰主要涉及在訓練中使用的數據隱私以及 OpenAI 用戶的隱私。