人人人免费人人专区人人,欧美精品不卡,欧美大片无尺码在线观看,久久精品小视频,成人免费黄色大片,欧美+亚洲+精品+三区

奧特曼沒有陰謀

一旦愿意相信陰謀,這個世界其實到處都可以是陰謀。

編者按:本文來自微信公眾號 劉潤(ID:runliu-pub),作者:二蔓 ,編輯:李桑,微新創想經授權發布。

2023年,每天都是大新聞。而其中的一大半,都和AI有關。

今年年初,ChatGPT突然爆火。緊接著,就是AI領域一顆又一顆的重磅炸彈。GPT-4、Microsoft 365 Copilot、Midjourney V5、Google PaLM API,扎堆引爆。鋪天蓋地的新消息,席卷了每一個人的視覺神經。

就在上個月末(5月31日),AI界又發生了一件大事兒。

包括OpenAI CEO,山姆·奧特曼(Sam Altman)等人在內的,一眾全球范圍內AI領域的重要人物,共同聯署了一封公開信,呼吁全球共同努力,降低人工智能導致的滅絕風險。

這封公開信很短,短到總共就只有22個詞。

Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.

應將緩解人工智能導致的滅絕風險,與其他社會規模風險(如大流行病和核戰爭)等視作等同,作為全球優先事項。

字越少,事兒越大。

這到底是發生了什么?我記得前一陣子好像也有這么一封信。人工智能的高速發展不是提升效率的好事嗎?怎么就和大流行病、核戰爭扯上關系了?他們到底是在擔憂些什么?這和我有什么關系?

這些問題,太重要了。

于是,我試著梳理了一下,想知道這封公開信到底是怎么來的,人們對AI的擔憂到底是怎么一步一步走到今天的,我們又該怎么辦?

然后,我越梳理越有一種感覺,越梳理這種感覺就越強烈:

山姆·奧特曼的格局,可能遠比我們想象的,還要大得多。

什么意思?

這件事,可能還要從兩個多月之前開始說起。

01滅絕風險

還記得上一封著名的“AI公開信”嗎?

3月30日,著名企業家埃隆·馬斯克等一千多名業界、學界人士聯署發表公開信,呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統,暫停至少6個月。

3月30日,距離年初那一波爆火的GPT-3.5,才剛剛過去119天。距離更強大的GPT-4的推出,才剛剛過去了2周。

圖片

這是要干什么?為什么眾多大咖要一起呼吁,他們到底在擔憂什么?

我想,最主要的原因,還是因為AI的發展,實在是太快了。

如果相關的監管和法律沒有跟上,甚至連發明者也缺乏有效的控制手段。在這種條件下,無限制地使用AI,如果出現問題,很可能就會對社會和人類構成深遠的風險。

比如,如果人工智能系統設計不當或被惡意使用,可能會導致數據泄露、隱私侵犯、社會不公等等問題。

比如,隨著人工智能的進一步發展,未來可能會出現“超級人工智能”的存在。這種智能可能會遠超人類的智力水平,對人類產生滅絕風險。

哪有這么夸張?。緼I,不是來幫助我們提升效率的好東西嗎?況且,AI又不是這兩年才有的東西。要是真有這么夸張,早干什么去了?

這是因為,就連從業者也沒有想到,連接主義,竟然能強大到這個地步。

02連接主義

什么是連接主義?

在很長的一段時間里,AI的發展,走的其實是一條名叫“邏輯主義(Logicism)”的道路。

邏輯主義,說白了就是主張用公理和邏輯體系,來搭建一套人工智能系統。

比如你想學習一門語言,你要知道語法規則?!爸髡Z+謂語+賓語”,就是一種句子規則?!拔遥ㄖ髡Z)想要(謂語)吃飯(賓語)”,就符合這種規則。通過列舉各種各樣的規則和邏輯,來讓AI學習語言。

但你想想,語言是多么微妙,復雜,富有情感。女朋友一個“嗯”字,背后就有八萬四千種情緒。規則怎么可能窮舉,邏輯怎么可能沒有漏洞。

而且,人根本就不是這樣學習的。你從小學習語言,是先學習語法嗎?不。我們是在一個環境里,跟著媽媽咿呀學語,跟著爸爸哼哼唧唧,看著看著,聽著聽著,自然就會了。

這個“自然就會了”,其實是因為人腦的神經元不斷連接。人腦的神經元數量,據說可以達到1000億個,這些神經元,一旦接觸外界的刺激,就會產生連接。刺激越多,連接就越多,直到人腦突然涌現出知識和智慧。很多事情,自然就會了。

這種人腦產生智能的方式,也被用在了AI上。給AI很多數據,讓它自己看,自己學,自己感受。這個路線,又叫“連接主義(Connectionism)”。連接主義,也成為現在AI發展的主流。

換句話說,今天的AI越來越厲害,是因為真的越來越像個“人”了。而且,是一個擁有上萬億“神經元”的“人”。

那么,明天呢?明天的AI,又會變成什么樣?誰知道上萬億個神經元在接觸了大量的外界刺激之后,會涌現出怎樣可怕的知識和智慧來?

這種來自未知的恐懼,用埃隆·馬斯克(Elon Reeve Musk)的話說就是:

人工智能,遠比核武器更加危險。

所以,必須要有人呼吁,必須要有人干預,必須要有人大聲疾呼。

那么,收到3月30日那封公開信的從業者們,真的會乖乖地暫停AI訓練嗎?大概率不會的。

為什么?因為這是一個“壞的納什均衡”。

03納什均衡

什么是“壞的納什均衡”?

你在劇場看戲劇。這出戲演得特別好,特別妙??墒?,第一排的那幫人,真的太可惡了。為了能看得更清楚一些,他們竟然忍不住站了起來。

這下可好。他們一旦站起來,第二排的觀眾就被擋住了。于是,第二排觀眾也站起來了。接著,就是第三排,第四排,第五排。

就這樣,整個劇場的人,最后都是站著看完的這場戲。

但是,你發現沒有,整個劇場都站起來了之后,大家從觀看視線的角度,還是跟原來坐著一樣。本來所有人都可以舒舒服服地坐著看,但就是因為第一排的人站起來了,所有人就都得跟著站起來看。

這就是“壞的納什均衡”。

每一個參與其中的人的“最優策略”,是“不遵守規則”。每一個人的不遵守規則,又會導致“最差結果”。

所以,一紙公開信,很容易變成一張“今天誰復習誰是小狗”的廢紙。一到家,只有那個提議的人沒復習。

所謂的暫停開發,很容易就會演變成秘密開發。前排所有的觀眾都站起來了,我不站起來,我就看不到戲劇了。對面所有的對手都舉著槍,我要是把槍放下,我就必死無疑。萬一別人都在研究,就我沒有,那我的損失就太大了。

那怎么辦?

這時,最好的解決辦法就是:行政手段。

04行政手段

什么是行政手段?

誰都不準站起來,誰站起來罰款,是行政手段。禁止參加校外的輔導課,誰參加就罰款,是行政手段。不允許使用不合規的廣告,誰使用就罰款,是行政手段。

3,2,1。都給我把槍放下來。

當所有人只要“不遵守規則”就會受到足夠力度的懲罰的時候,每個人才會乖乖地遵守規則。當每個人都遵守規則的時候,才會發現,坐著,也許也挺好。

于是,5月16日晚上,山姆·奧特曼,走上了美國參議院的聽證會,并在聽證會上表示,政府監管對行業的未來至關重要。

你能想象嗎?山姆·奧特曼,竟然在聽證會上表示:我愿意遵守規則,請給我戴上手銬。而且,我建議你可以這樣給我戴。

第一,建立一個政府機構,給我們發放許可證,如果模型不符合政府制定的安全準則,也可以撤銷這些許可證。

第二,為高能力的人工智能模型制定安全標準,并建立模型必須通過的具體功能測試,確保它不產生危險內容。

第三,引入與創造者及政府無關的第三方專家進行獨立評估,以確保人工智能工具在立法準則內運行。

一刀,兩刀,三刀。刀刀砍在要害上。

有了許可證之后,開發AI所需要的數據,可能就拿不到了。有了安全標準之后,OpenAI目前已有的能力,可能會受到強烈的限制。有了第三方專家之后,所有炫目華麗的科技,可能都要在鐐銬下起舞。

而這個召喚手銬的人,不是某個還在觀望AI的人,不是某家還沒成功開發的公司,而是OpenAI的首席執行官,AI世界的重要人物,某種意義上未來世界的領跑者,山姆·奧特曼。

天啊,這是什么樣的格局。

可是,他會這么說,應該也不奇怪吧?該賺的錢,他早就賺夠了。監管之后,所有人都不發展了,OpenAI領頭羊的位置反而得到了保護。這副手銬對山姆·奧特曼來說,簡直就是實打實的金手銬呀!

唉。那我想說,這也太低估奧特曼的境界了。

OpenAI,根本就是一家非營利機構。

05非營利機構

什么是非營利機構?

非營利機構,在英文世界里叫做,Non-Profit Organization,指的是那些不以營利為目的的組織。非營利組織的運作并不是為了產生利益,這一點通常被視為這類組織的主要特性。但是,關鍵是但是,但是,非營利組織還是必須產生收益,以提供其活動的資金,只不過它的收入和支出都是受到嚴格限制的。

舉個例子。

你是一家非營利機構性質的私立學校創始人,你的夢想,是通過特有的教學理念,來提升中國學生的綜合素質。而這家擁有遠大夢想的私立學校,收入不菲。我的孩子想到你這里來上學,光是一年的學費就要大20萬。你每年招收500名學生,那么這家私立學校每年能從學費上拿到的收入,是整整1個億。這1個億,是給你用來支付教師工資、購買課桌椅、提升教學環境,用來支撐各類運行費用,用來實現“非營利目的”的。

注意,重點來了。這1個億,在支撐完各種費用之后,還有盈余,怎么辦?對不起,多出來的錢,你不能從中分紅。你得把這筆錢,用在請更好的老師、買更好的課桌椅上??墒强墒?,那萬一我收的學費,還不足以支撐運行費用,怎么辦?很遺憾,你也不能融資。你只能接受別人的捐贈。

這就是:非營利機構。

你見過的一些私立學校,是非營利機構;你聽過的一些基金會,是非營利機構;而這家一飛沖天的OpenAI,竟然也是非營利機構。

而奧特曼的夢想,是在這個非營利機構里,用(在很多人眼里,根本不可能的)通用人工智能,造福全人類。不是賺錢。但是,如果他一不小心賺到錢了,這筆錢也要繼續投入到“造福全人類”中去,是不能從中分紅,再拿回去買房買車買島買飛機的。

于是,在聽證會的現場,我們看到了那個我不知道該怎么形容的表情。

圖片

在吃驚地向聽證會核實了好幾次提問之后,山姆·奧特曼才帶著木訥地表情回答說:我在開放人工智能中沒有股權,我賺到的錢只夠我購買食物和保險。

我根本就沒有錢。

???怎么可能。就連聽證會都吃驚地說到:你需要一個律師,我懷疑你被人騙了。

天啊。這是怎樣一個理工男,怎樣一個鐵憨憨,怎樣一個理想主義者。

他要通過人工智能,造福全人類。他要實現他的理想,而不是賺錢。也許他會一不小心賺到錢,但請放心,他一定會繼續用這筆錢來造福全人類。

但現在,為了更好地造福全人類,也順帶著實現我的理想,請為我戴上手銬。

于是,他終于在一個致力于推動AI安全研究和政策的非營利組織Safe AI Society發起的,呼吁全球的研究者、政策制定者和公眾共同努力而不是只有從業者的,只有22個詞的公開信上,簽下了自己的名字。

Sam Altman。

06最后的話

那么,簽下這封公開信之后,AI的世界將會變成什么樣呢?

還不確切知道。看后面發展吧。但我想,這大概只是一個開始。

也許,我們要等很久很久,才能見到GPT-4.5了。也許,我們很快會迎來一套全新的法規,全新的部門。也許,我們將會用上更高效,同時也更安全的人工智能。

那么,這對我們又意味著什么?

也許,我們最應該從中習得的一件事就是:永遠,不要放棄做一個理想主義者。永遠,不要放棄做一個有格局的人。永遠,不要忘記自己的初心。

唉。很多人都希望改變世界。但是走著走著,就被這個世界改變了。即使沒有被改變,世界也會說,你變了。

他們會說,3月30日的公開信,是在“GPT-4剛剛推出2周”的時候呼吁的,明擺著就是為了打壓山姆·奧特曼。

他們會說,5月16日的聽證會,請求政府實行行業監管,明擺著就是為了持證上崗,實行壟斷。

他們會說,5月31日的公開信,肯定是因為山姆·奧特曼已經得到了官方人員的許諾,才簽的字。

他們會說,不過就是天天露臉,想火想瘋了罷了。

他們會說,搞不好,連這個人都是假的!

一旦愿意相信陰謀,這個世界其實到處都可以是陰謀。

只是,在這個糖果商不會告訴你吃得太多會蛀牙的世界里,我愿意相信他沒有陰謀。

在這個太多人在灰色地帶做著明明就令行禁止的事的世界里,我愿意相信他沒有陰謀。

在這個很多人眼中鈔能力就是一切的世界里,我愿意相信他沒有陰謀。

我愿意相信,奧特曼沒有陰謀。

就像我愿意相信,人性本善。

唉。

本文為專欄作者授權微新創想發表,版權歸原作者所有。文章系作者個人觀點,不代表微新創想立場,轉載請聯系原作者。如有任何疑問,請聯系http://www.i0562.net/。

您可能還喜歡...

發表回復

您的郵箱地址不會被公開。 必填項已用 * 標注