比爾蓋茨最新分享:AI 產生的Deepfake和虛假信息,讓社會風險上升,AI將奪走人們的工作,也會繼承我們的偏見并虛構事實!
如果一個超級 AI 設定了自己的目標,會發生什么?如果這些目標與人類的目標沖突怎么辦?我們應該根本不制造超級 AI 嗎?
AI 技術在進步的同時,又會給社會帶來怎樣的風險,人們真的會丟掉工作?那么又是誰會丟掉工作?
比爾蓋茨在本周發表了一篇名為《The risks of AI are real but manageable》的文章,分享出了對 AI 風險的關注,以及較為樂觀的態度,蓋茨認為我們可以通過歷史的經驗和合作來應對這些風險。
此外,蓋茨也在呼吁政府、企業和個人積極應對,并強調了技術發展和監管之間的平衡,以下為這篇博客的全文,總共分為四個部分:
-
AI 產生的Deepfake和虛假信息
-
AI 對社會的風險變得更容易
-
AI 將奪走人們的工作
-
AI 繼承我們的偏見并虛構事實
enjoy ? ~
AI 會不會影響選舉結果?如果未來的 AI 決定不再需要人類并試圖消滅我們,該怎么辦?
這些都是合理的問題,對它們引起的關注需要認真對待。但是,我們有充分的理由相信我們可以應對這些問題:這不是第一次重大創新引入了需要控制的新威脅。我們以前就做到了。
無論是汽車的問世還是個人計算機和互聯網的興起,人們都經歷了其他改變的時刻,并且盡管經歷了很多動蕩,但最終都變得更好。在第一輛汽車上路不久之后,就發生了第一次車禍。但我們沒有禁止汽車的使用,我們采取了限速、安全標準、許可要求、酒駕法規和其他交通規則。
我們現在正處于另一個深刻變革的早期階段,即 AI 時代。這類似于限速和安全帶出現之前的不確定時期。AI 的發展速度如此之快,以至于我們不清楚接下來會發生什么。我們面臨的重大問題涉及當前技術的運作方式、人們將如何惡意使用它以及 AI 將如何改變我們作為一個社會和個人。
在這種時刻,感到不安是很自然的。但歷史表明,我們有能力解決新技術帶來的挑戰。
蓋茨以前寫過關于 AI 將如何徹底改變我們生活的文章。它將幫助解決以前看似無法解決的問題,例如健康、教育、氣候變化等。蓋茨基金會將其作為優先事項,并且首席執行官馬克·蘇茲曼最近分享了他對 AI 在減少不平等方面作用的思考。
在這篇文章中,蓋茨承認經常聽到和讀到的擔憂,其中許多他不僅認同,同時還解釋了對這些問題的看法。
從迄今為止關于 AI 風險的所有已經寫過的內容來看,有一件事很明確:沒有人擁有所有答案;另一件明顯的事情是,AI 的未來并不像一些人認為的那么悲觀,也不像其他人認為的那么樂觀。風險是真實存在的,但蓋茨對能夠管理這些風險持樂觀態度。在討論每個關注點時,會回到幾個主題上:
-
AI 造成的許多問題都有歷史先例。例如,它將對教育產生重大影響,但幾十年前手持計算器和最近允許在教室里使用計算機也產生了重大影響。我們可以從過去的經驗中學習到成功的方法。
-
AI 引起的許多問題也可以通過 AI 的幫助來解決。
-
我們需要調整現有法律并采用新法律,就像現有的欺詐法律必須針對在線世界進行調整一樣。
在這篇文章中,蓋茨將重點關注已經存在或即將出現的風險。無論是在十年內還是在一個世紀內達到這一點,社會都需要面對深刻的問題。如果一個超級 AI 設定了自己的目標,會發生什么?如果這些目標與人類的目標沖突怎么辦?我們應該根本不制造超級 AI 嗎?
但是,思考這些長期風險不應以犧牲更直接的風險為代價。現在蓋茨將轉向它們。
01AI 產生的Deepfake和虛假信息
技術被用來傳播謊言和不實信息的觀念并不新鮮。幾個世紀以來,人們一直使用書籍和傳單進行這樣的行為。隨著文字處理器、激光打印機、電子郵件和社交網絡的出現,這變得更加容易。
AI 將這個制造虛假文本的問題推向了極致,并允許幾乎任何人創建虛假的音頻和視頻,被稱為Deepfake。如果你收到一個聽起來像你的孩子說“我被綁架了,請在接下來的10分鐘內向這個銀行賬戶匯款1000美元,并且不要報警”的語音信息,它將產生可怕的情緒影響,遠遠超出了一封說同樣話的電子郵件的影響。
從更大的規模來看,由 AI 生成的Deepfake可以用來試圖扭轉選舉結果。當然,要對選舉的合法贏家產生懷疑并不需要復雜的技術,但 AI 將使它變得更容易。
已經有虛假視頻出現,其中包含了眾所周知的政治家的捏造鏡頭。想象一下,在一次重要選舉的早晨,一段顯示一位候選人搶劫銀行的視頻走紅。這是假的,但新聞媒體和競選活動需要花費數小時才能證明這一點。有多少人會看到它并在最后一刻改變他們的選票?它可能會傾斜天平,特別是在選舉結果非常接近的情況下。
當OpenAI的聯合創始人Sam Altman之前在美國參議院委員會作證時,兩黨的參議員都關注 AI 對選舉和民主的影響,蓋茨希望這個問題能夠持續引起所有人的關注。
當然,我們還沒有解決虛假信息和Deepfake的問題,但是有兩件事讓蓋茨保持謹慎樂觀。首先,人們有能力學會不輕信一切。多年來,電子郵件用戶會上當受騙,因為有人假扮成尼日利亞王子,承諾分享大筆回報以換取你的信用卡號碼。但最終,大多數人學會了仔細審查這些電子郵件。隨著詐騙活動變得更加復雜,很多受害者也變得更加警覺。我們需要為Deepfake建立同樣的警覺性。
另一個讓蓋茨感到有希望的事情是, AI 可以幫助識別Deepfake,并創造Deepfake。例如,英特爾已經開發了一個Deepfake檢測器,政府機構DARPA也正在研發能夠識別視頻或音頻是否被篡改的技術。
這將是一個循環的過程:有人找到一種檢測虛假的方法,其他人想出如何對抗它的辦法,其他人開發對抗對策,依此類推。這不會取得完美的成功,但我們也不會無助。
02AI 對社會的風險變得更容易
當黑客想要找到軟件中的漏洞時,他們通過暴力方法來實現,編寫代碼來尋找潛在的弱點,直到他們找到一種入侵方式。這需要花費時間和耐心,因為需要經過很多盲區。
想要對抗黑客的安全專家也必須做同樣的事情。你手機或筆記本上安裝的每一個軟件補丁都代表著許多人花費的時間搜索。
AI 模型將通過幫助黑客編寫更有效的代碼來加速這一過程。他們還可以使用關于個人的公開信息,比如工作地點和朋友是誰,來開發比我們今天看到的更先進的釣魚攻擊。
好消息是, AI 也可以用于善良的目的,而不僅僅是壞的。政府和私營部門的安全團隊需要擁有最新的工具,以在犯罪分子利用之前找到并修復安全漏洞。蓋茨希望軟件安全行業在這方面擴大他們已經在這方面做的工作,這應該是他們的首要關注。
這也是為什么我們不應該試圖暫時阻止人們實施 AI 新發展的原因,正如一些人提出的那樣。網絡犯罪分子不會停止制造新工具。想要使用 AI 設計核武器和生物恐怖襲擊的人也不會停下來。阻止他們的努力需要以相同的速度繼續進行。
在全球范圍內還存在一個相關的風險:對于可以用于設計和發動對其他國家進行網絡攻擊的 AI 的軍備競賽。每個政府都希望擁有最強大的技術,以便阻止來自對手的攻擊。不讓任何人領先的這種激勵可能會引發制造越來越危險的網絡武器的競賽。每個人都會受損。
這是一個可怕的想法,但我們有歷史可以指導我們。雖然世界上的核不擴散體制有其缺陷,但它阻止了蓋茨這一代人在成長過程中非常害怕的全面核戰爭。政府應考慮建立類似國際原子能機構的全球 AI 機構。
03AI 將奪走人們的工作
在接下來的幾年里, AI 對工作的主要影響將是幫助人們更高效地完成工作。無論他們是在工廠工作還是在辦公室處理銷售電話和應付賬款。最終, AI 將足夠好,可以表達觀點,從而能夠為你撰寫電子郵件并管理您的收件箱。你可以用簡單的英語或其他語言提出請求,生成一個豐富的工作介紹。
正如蓋茨在2月份的文章中所說,當生產力提高時,對社會是有益的。它讓人們有更多時間去做其他事情,無論是在工作還是在家。幫助他人的需求,如教學、照顧患者和支持老年人,將永遠存在。但是確實有一些工人在我們過渡到以 AI 為核心的工作環境中需要支持和再培訓。這是政府和企業的責任,他們需要善于管理,以避免工人被落下,避免類似于美國制造業就業下降時期發生的對人們生活的干擾。
此外,請記住,這并不是新技術首次引起勞動力市場的重大變動。蓋茨不認為 AI 的影響會像工業革命那樣戲劇性,但它肯定會像個人計算機的問世一樣重大。
文字處理應用程序并沒有淘汰辦公室工作,但它們永遠改變了辦公室工作。雇主和員工不得不適應,他們也適應了。AI 帶來的變革將是一個坎坷的過渡,但有足夠的理由認為我們可以減少對人們生活和謀生的干擾。
04AI 繼承我們的偏見并虛構事實
幻覺是指當 AI 自信地提出一些根本不正確的主張時。這通常發生是因為機器不理解你請求的背景。如果讓 AI 寫一個關于去月球度假的短篇小說,它可能會給出一個非常富有想象力的答案。但是如果讓它幫助你計劃去坦桑尼亞的旅行,它可能會試圖將你發送到一個并不存在的酒店。
AI 存在幻覺和偏見的風險。要理解為什么會發生幻覺和偏見,了解當今最常見的 AI 模型如何工作是很重要的。它們本質上是非常復雜的版本,允許你的電子郵件應用程序預測你即將輸入的下一個單詞的代碼:它們掃描大量的文本(在某些情況下幾乎涵蓋了在線所有可用的文本),并分析它以找到人類語言中的模式。
當你向 AI 提問時,它會查看你使用的詞語,然后搜索通常與這些詞語相關聯的文本塊。如果你寫下“列出煎餅的配料”,它可能會注意到“面粉、糖、鹽、泡打粉、牛奶和雞蛋”這些詞通常與該短語一起出現。然后,根據它對這些詞語通常出現順序的了解,它生成一個答案。(采用這種方式工作的 AI 模型使用了所謂的Transformer。GPT-4就是這樣一個模型。)
這個過程解釋了為什么 AI 可能會出現幻覺或看起來存在偏見。它沒有你提問的問題或你告訴它的事情的上下文。如果你告訴它犯了一個錯誤,它可能會說:“抱歉,我打錯了。”但這是一個幻覺——它沒有打任何東西。它之所以這么說,只是因為它已經掃描了足夠的文本,知道在某人糾正他們時,人們經常寫下“抱歉,我打錯了”這句話。
類似地, AI 模型繼承了所訓練文本中存在的任何偏見。如果一個模型大量閱讀關于醫生的文章,而這些文章主要提到男性醫生,那么它的答案就會假設大多數醫生都是男性。
盡管有些研究人員認為幻覺是一個固有的問題,蓋茨并不認同,但他對 AI 模型能夠隨著時間的推移學會區分事實和虛構持樂觀態度,例如OpenAI正在這方面進行有希望的研究。
其他組織,包括阿蘭·圖靈研究所和國家標準與技術研究所,也在解決偏見問題。一種方法是將人類價值觀和更高級的推理融入到 AI 中。
這類似于自我意識的人類的工作方式:也許你會假設大多數醫生都是男性,但你知道這種假設是錯誤的,并且在更深入的思考后,你會意識到女性醫生同樣是存在的。
蓋茨不認為幻覺和偏見是不可解決的問,我們有能力改進我們的技術,以便更好地適應我們的需求,蓋茨相信 AI 將逐漸變得更加準確和客觀。
當然,我們需要保持警惕,并將 AI 的發展置于公眾監督之下,以確保它被用于積極的和公正的方式。政府和行業監管機構需要承擔起監督和審查的責任,以確保 AI 技術的使用符合倫理和法律標準。
在整個 AI 領域中,透明度、問責制和參與是關鍵。我們需要確保人們可以理解 AI 是如何做出決策的,他們可以向誰尋求答案和投訴,并且他們對這些系統的設計和規則有所發言權。
這些問題是復雜的,并且需要社會各界的合作來解決。沒有一個人或組織可以解決所有問題,但通過共同努力,我們可以發展出一個可以使 AI 發揮其最大潛力,并減輕其風險的方法。
Reference:
https://www.gatesnotes.com/The-risks-of-AI-are-real-but-manageable
本文為專欄作者授權微新創想發表,版權歸原作者所有。文章系作者個人觀點,不代表微新創想立場,轉載請聯系原作者。如有任何疑問,請聯系http://www.i0562.net/。