久草免费在线,丁香六月综合,无码禁片av http://www.i0562.net Sat, 17 Jun 2023 00:48:40 +0000 zh-Hans hourly 1 https://wordpress.org/?v=6.8 奧特曼沒有陰謀 http://www.i0562.net/dongtai/1057.html http://www.i0562.net/dongtai/1057.html#respond Sat, 17 Jun 2023 00:41:22 +0000 一旦愿意相信陰謀,這個世界其實到處都可以是陰謀。

編者按:本文來自微信公眾號 劉潤(ID:runliu-pub),作者:二蔓 ,編輯:李桑,微新創想經授權發布。

2023年,每天都是大新聞。而其中的一大半,都和AI有關。

今年年初,ChatGPT突然爆火。緊接著,就是AI領域一顆又一顆的重磅炸彈。GPT-4、Microsoft 365 Copilot、Midjourney V5、Google PaLM API,扎堆引爆。鋪天蓋地的新消息,席卷了每一個人的視覺神經。

就在上個月末(5月31日),AI界又發生了一件大事兒。

包括OpenAI CEO,山姆·奧特曼(Sam Altman)等人在內的,一眾全球范圍內AI領域的重要人物,共同聯署了一封公開信,呼吁全球共同努力,降低人工智能導致的滅絕風險。

這封公開信很短,短到總共就只有22個詞。

Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.

應將緩解人工智能導致的滅絕風險,與其他社會規模風險(如大流行病和核戰爭)等視作等同,作為全球優先事項。

字越少,事兒越大。

這到底是發生了什么?我記得前一陣子好像也有這么一封信。人工智能的高速發展不是提升效率的好事嗎?怎么就和大流行病、核戰爭扯上關系了?他們到底是在擔憂些什么?這和我有什么關系?

這些問題,太重要了。

于是,我試著梳理了一下,想知道這封公開信到底是怎么來的,人們對AI的擔憂到底是怎么一步一步走到今天的,我們又該怎么辦?

然后,我越梳理越有一種感覺,越梳理這種感覺就越強烈:

山姆·奧特曼的格局,可能遠比我們想象的,還要大得多。

什么意思?

這件事,可能還要從兩個多月之前開始說起。

01滅絕風險

還記得上一封著名的“AI公開信”嗎?

3月30日,著名企業家埃隆·馬斯克等一千多名業界、學界人士聯署發表公開信,呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統,暫停至少6個月。

3月30日,距離年初那一波爆火的GPT-3.5,才剛剛過去119天。距離更強大的GPT-4的推出,才剛剛過去了2周。

圖片

這是要干什么?為什么眾多大咖要一起呼吁,他們到底在擔憂什么?

我想,最主要的原因,還是因為AI的發展,實在是太快了。

如果相關的監管和法律沒有跟上,甚至連發明者也缺乏有效的控制手段。在這種條件下,無限制地使用AI,如果出現問題,很可能就會對社會和人類構成深遠的風險。

比如,如果人工智能系統設計不當或被惡意使用,可能會導致數據泄露、隱私侵犯、社會不公等等問題。

比如,隨著人工智能的進一步發展,未來可能會出現“超級人工智能”的存在。這種智能可能會遠超人類的智力水平,對人類產生滅絕風險。

哪有這么夸張啊?AI,不是來幫助我們提升效率的好東西嗎?況且,AI又不是這兩年才有的東西。要是真有這么夸張,早干什么去了?

這是因為,就連從業者也沒有想到,連接主義,竟然能強大到這個地步。

02連接主義

什么是連接主義?

在很長的一段時間里,AI的發展,走的其實是一條名叫“邏輯主義(Logicism)”的道路。

邏輯主義,說白了就是主張用公理和邏輯體系,來搭建一套人工智能系統。

比如你想學習一門語言,你要知道語法規則。“主語+謂語+賓語”,就是一種句子規則。“我(主語)想要(謂語)吃飯(賓語)”,就符合這種規則。通過列舉各種各樣的規則和邏輯,來讓AI學習語言。

但你想想,語言是多么微妙,復雜,富有情感。女朋友一個“嗯”字,背后就有八萬四千種情緒。規則怎么可能窮舉,邏輯怎么可能沒有漏洞。

而且,人根本就不是這樣學習的。你從小學習語言,是先學習語法嗎?不。我們是在一個環境里,跟著媽媽咿呀學語,跟著爸爸哼哼唧唧,看著看著,聽著聽著,自然就會了。

這個“自然就會了”,其實是因為人腦的神經元不斷連接。人腦的神經元數量,據說可以達到1000億個,這些神經元,一旦接觸外界的刺激,就會產生連接。刺激越多,連接就越多,直到人腦突然涌現出知識和智慧。很多事情,自然就會了。

這種人腦產生智能的方式,也被用在了AI上。給AI很多數據,讓它自己看,自己學,自己感受。這個路線,又叫“連接主義(Connectionism)”。連接主義,也成為現在AI發展的主流。

換句話說,今天的AI越來越厲害,是因為真的越來越像個“人”了。而且,是一個擁有上萬億“神經元”的“人”。

那么,明天呢?明天的AI,又會變成什么樣?誰知道上萬億個神經元在接觸了大量的外界刺激之后,會涌現出怎樣可怕的知識和智慧來?

這種來自未知的恐懼,用埃隆·馬斯克(Elon Reeve Musk)的話說就是:

人工智能,遠比核武器更加危險。

所以,必須要有人呼吁,必須要有人干預,必須要有人大聲疾呼。

那么,收到3月30日那封公開信的從業者們,真的會乖乖地暫停AI訓練嗎?大概率不會的。

為什么?因為這是一個“壞的納什均衡”。

03納什均衡

什么是“壞的納什均衡”?

你在劇場看戲劇。這出戲演得特別好,特別妙。可是,第一排的那幫人,真的太可惡了。為了能看得更清楚一些,他們竟然忍不住站了起來。

這下可好。他們一旦站起來,第二排的觀眾就被擋住了。于是,第二排觀眾也站起來了。接著,就是第三排,第四排,第五排。

就這樣,整個劇場的人,最后都是站著看完的這場戲。

但是,你發現沒有,整個劇場都站起來了之后,大家從觀看視線的角度,還是跟原來坐著一樣。本來所有人都可以舒舒服服地坐著看,但就是因為第一排的人站起來了,所有人就都得跟著站起來看。

這就是“壞的納什均衡”。

每一個參與其中的人的“最優策略”,是“不遵守規則”。每一個人的不遵守規則,又會導致“最差結果”。

所以,一紙公開信,很容易變成一張“今天誰復習誰是小狗”的廢紙。一到家,只有那個提議的人沒復習。

所謂的暫停開發,很容易就會演變成秘密開發。前排所有的觀眾都站起來了,我不站起來,我就看不到戲劇了。對面所有的對手都舉著槍,我要是把槍放下,我就必死無疑。萬一別人都在研究,就我沒有,那我的損失就太大了。

那怎么辦?

這時,最好的解決辦法就是:行政手段。

04行政手段

什么是行政手段?

誰都不準站起來,誰站起來罰款,是行政手段。禁止參加校外的輔導課,誰參加就罰款,是行政手段。不允許使用不合規的廣告,誰使用就罰款,是行政手段。

3,2,1。都給我把槍放下來。

當所有人只要“不遵守規則”就會受到足夠力度的懲罰的時候,每個人才會乖乖地遵守規則。當每個人都遵守規則的時候,才會發現,坐著,也許也挺好。

于是,5月16日晚上,山姆·奧特曼,走上了美國參議院的聽證會,并在聽證會上表示,政府監管對行業的未來至關重要。

你能想象嗎?山姆·奧特曼,竟然在聽證會上表示:我愿意遵守規則,請給我戴上手銬。而且,我建議你可以這樣給我戴。

第一,建立一個政府機構,給我們發放許可證,如果模型不符合政府制定的安全準則,也可以撤銷這些許可證。

第二,為高能力的人工智能模型制定安全標準,并建立模型必須通過的具體功能測試,確保它不產生危險內容。

第三,引入與創造者及政府無關的第三方專家進行獨立評估,以確保人工智能工具在立法準則內運行。

一刀,兩刀,三刀。刀刀砍在要害上。

有了許可證之后,開發AI所需要的數據,可能就拿不到了。有了安全標準之后,OpenAI目前已有的能力,可能會受到強烈的限制。有了第三方專家之后,所有炫目華麗的科技,可能都要在鐐銬下起舞。

而這個召喚手銬的人,不是某個還在觀望AI的人,不是某家還沒成功開發的公司,而是OpenAI的首席執行官,AI世界的重要人物,某種意義上未來世界的領跑者,山姆·奧特曼。

天啊,這是什么樣的格局。

可是,他會這么說,應該也不奇怪吧?該賺的錢,他早就賺夠了。監管之后,所有人都不發展了,OpenAI領頭羊的位置反而得到了保護。這副手銬對山姆·奧特曼來說,簡直就是實打實的金手銬呀!

唉。那我想說,這也太低估奧特曼的境界了。

OpenAI,根本就是一家非營利機構。

05非營利機構

什么是非營利機構?

非營利機構,在英文世界里叫做,Non-Profit Organization,指的是那些不以營利為目的的組織。非營利組織的運作并不是為了產生利益,這一點通常被視為這類組織的主要特性。但是,關鍵是但是,但是,非營利組織還是必須產生收益,以提供其活動的資金,只不過它的收入和支出都是受到嚴格限制的。

舉個例子。

你是一家非營利機構性質的私立學校創始人,你的夢想,是通過特有的教學理念,來提升中國學生的綜合素質。而這家擁有遠大夢想的私立學校,收入不菲。我的孩子想到你這里來上學,光是一年的學費就要大20萬。你每年招收500名學生,那么這家私立學校每年能從學費上拿到的收入,是整整1個億。這1個億,是給你用來支付教師工資、購買課桌椅、提升教學環境,用來支撐各類運行費用,用來實現“非營利目的”的。

注意,重點來了。這1個億,在支撐完各種費用之后,還有盈余,怎么辦?對不起,多出來的錢,你不能從中分紅。你得把這筆錢,用在請更好的老師、買更好的課桌椅上。可是可是,那萬一我收的學費,還不足以支撐運行費用,怎么辦?很遺憾,你也不能融資。你只能接受別人的捐贈。

這就是:非營利機構。

你見過的一些私立學校,是非營利機構;你聽過的一些基金會,是非營利機構;而這家一飛沖天的OpenAI,竟然也是非營利機構。

而奧特曼的夢想,是在這個非營利機構里,用(在很多人眼里,根本不可能的)通用人工智能,造福全人類。不是賺錢。但是,如果他一不小心賺到錢了,這筆錢也要繼續投入到“造福全人類”中去,是不能從中分紅,再拿回去買房買車買島買飛機的。

于是,在聽證會的現場,我們看到了那個我不知道該怎么形容的表情。

圖片

在吃驚地向聽證會核實了好幾次提問之后,山姆·奧特曼才帶著木訥地表情回答說:我在開放人工智能中沒有股權,我賺到的錢只夠我購買食物和保險。

我根本就沒有錢。

啊?怎么可能。就連聽證會都吃驚地說到:你需要一個律師,我懷疑你被人騙了。

天啊。這是怎樣一個理工男,怎樣一個鐵憨憨,怎樣一個理想主義者。

他要通過人工智能,造福全人類。他要實現他的理想,而不是賺錢。也許他會一不小心賺到錢,但請放心,他一定會繼續用這筆錢來造福全人類。

但現在,為了更好地造福全人類,也順帶著實現我的理想,請為我戴上手銬。

于是,他終于在一個致力于推動AI安全研究和政策的非營利組織Safe AI Society發起的,呼吁全球的研究者、政策制定者和公眾共同努力而不是只有從業者的,只有22個詞的公開信上,簽下了自己的名字。

Sam Altman。

06最后的話

那么,簽下這封公開信之后,AI的世界將會變成什么樣呢?

還不確切知道。看后面發展吧。但我想,這大概只是一個開始。

也許,我們要等很久很久,才能見到GPT-4.5了。也許,我們很快會迎來一套全新的法規,全新的部門。也許,我們將會用上更高效,同時也更安全的人工智能。

那么,這對我們又意味著什么?

也許,我們最應該從中習得的一件事就是:永遠,不要放棄做一個理想主義者。永遠,不要放棄做一個有格局的人。永遠,不要忘記自己的初心。

唉。很多人都希望改變世界。但是走著走著,就被這個世界改變了。即使沒有被改變,世界也會說,你變了。

他們會說,3月30日的公開信,是在“GPT-4剛剛推出2周”的時候呼吁的,明擺著就是為了打壓山姆·奧特曼。

他們會說,5月16日的聽證會,請求政府實行行業監管,明擺著就是為了持證上崗,實行壟斷。

他們會說,5月31日的公開信,肯定是因為山姆·奧特曼已經得到了官方人員的許諾,才簽的字。

他們會說,不過就是天天露臉,想火想瘋了罷了。

他們會說,搞不好,連這個人都是假的!

一旦愿意相信陰謀,這個世界其實到處都可以是陰謀。

只是,在這個糖果商不會告訴你吃得太多會蛀牙的世界里,我愿意相信他沒有陰謀。

在這個太多人在灰色地帶做著明明就令行禁止的事的世界里,我愿意相信他沒有陰謀。

在這個很多人眼中鈔能力就是一切的世界里,我愿意相信他沒有陰謀。

我愿意相信,奧特曼沒有陰謀。

就像我愿意相信,人性本善。

唉。

本文為專欄作者授權微新創想發表,版權歸原作者所有。文章系作者個人觀點,不代表微新創想立場,轉載請聯系原作者。如有任何疑問,請聯系http://www.i0562.net/。

]]>
http://www.i0562.net/dongtai/1057.html/feed 0
GPT-5將死于GPT-4背刺?牛津劍橋研究警告:AI訓AI成「劇毒」,會讓模型崩潰! http://www.i0562.net/dongtai/1038.html http://www.i0562.net/dongtai/1038.html#respond Sat, 17 Jun 2023 00:39:53 +0000 最差的人類語料,也要勝過AI生成的文本。

GPT-5將死于GPT-4背刺?牛津劍橋研究警告:AI訓AI成「劇毒」,會讓模型崩潰!插圖

隨著GPT-4、Stable Diffusion和Midjourney的爆火,越來越多的人開始在工作和生活中引入生成式AI技術。

甚至,有人已經開始嘗試用AI生成的數據來訓練AI了。難道,這就是傳說中的「數據永動機」?

然而,來自牛津、劍橋、帝國理工等機構研究人員發現,如果在訓練時大量使用AI內容,會引發模型崩潰(model collapse),造成不可逆的缺陷。

圖片

也就是,隨著時間推移,模型就會忘記真實基礎數據部分。即使在幾乎理想的長期學習狀態下,這個情況也無法避免。

因此研究人員呼吁,如果想要繼續保持大規模數據帶來的模型優越性,就必須認真對待人類自己寫出來的文本。

圖片

論文地址:https://arxiv.org/abs/2305.17493v2

但現在的問題在于——你以為的「人類數據」,可能并不是「人類」寫的。

洛桑聯邦理工學院(EPFL)的最新研究稱,預估33%-46%的人類數據都是由AI生成的。

圖片

訓練數據,都是「垃圾」

毫無疑問,現在的大語言模型已經進化出了相當強大的能力,比如GPT-4可以在某些場景下生成與人類別無二致的文本。

但這背后的一個重要原因是,它們的訓練數據大部分來源于過去幾十年人類在互聯網上的交流。

如果未來的語言模型仍然依賴于從網絡上爬取數據的話,就不可避免地要在訓練集中引入自己生成的文本。

對此,研究人員預測,等GPT發展到第n代的時候,模型將會出現嚴重的崩潰問題。

圖片

那么,在這種不可避免會抓取到LLM生成內容的情況下,為模型的訓練準備由人類生產的真實數據,就變得尤為重要了。

大名鼎鼎的亞馬遜數據眾包平臺Mechanical Turk(MTurk)從2005年啟動時就已經成為許多人的副業選擇。

科研人員可以發布各種瑣碎的人類智能任務,比如給圖像標注、調查等,應有盡有。

而這些任務通常是計算機和算法無法處理的,甚至,MTurk成為一些預算不夠的科研人員和公司的「最佳選擇」。

就連貝佐斯還將MTurk的眾包工人戲稱為「人工人工智能」。

圖片

除了MTurk,包括Prolific在內的眾包平臺已經成為研究人員和行業實踐者的核心,能夠提供創建、標注和總結各種數據的方法,以便進行調查和實驗。

然而,來自EPFL的研究發現,在這個人類數據的關鍵來源上,有近乎一半的數據都是標注員用AI創建的。

圖片

論文地址:https://arxiv.org/abs/2306.07899v1

模型崩潰

而最開始提到的「模型崩潰」,就是在給模型投喂了太多來自AI的數據之后,帶來的能夠影響多代的退化。

也就是,新一代模型的訓練數據會被上一代模型的生成數據所污染,從而對現實世界的感知產生錯誤的理解。

圖片

更進一步,這種崩潰還會引發比如基于性別、種族或其他敏感屬性的歧視問題,尤其是如果生成AI隨著時間的推移學會在其響應中只生成某個種族,而「忘記」其他種族的存在。

而且,除了大語言模型,模型崩潰還會出現在變分自編碼器(VAE)、高斯混合模型上。

需要注意的是,模型崩潰的過程與災難性遺忘(catastrophic forgetting)不同,模型不會忘記以前學過的數據,而是開始把模型的錯誤想法曲解為現實,并且還會強化自己對錯誤想法的信念。

圖片

舉個例子,比如模型在一個包含100張貓圖片的數據集上進行訓練,其中有10張藍毛貓,90張黃毛貓。

模型學到的結論是,黃毛貓更普遍,同時會傾向于把藍毛貓想象的比實際更偏黃,所以在被要求生成新數據時可能會返回一些類似綠毛貓的結果。

而隨著時間的推移,藍毛的原始特征在多個訓練epoch中逐漸被侵蝕,直接從藍色變成了綠色,最終再演變為黃色,這種漸進的扭曲和丟失少數特征的現象就是模型崩潰。

具體來說,模型崩潰可以分為兩種情況:

1. 早期模型崩潰(early model collapse),模型開始丟失有關分布尾部的信息;

2. 后期模型崩潰(late model collapse),模型與原始分布的不同模式糾纏在一起,并收斂到一個與原始分布幾乎沒有相似之處的分布,往往方差也會非常小。

與此同時,研究人員也總結出了造成模型崩潰的兩個主要原因:

其中,在更多的時候,我們會得到一種級聯效應,即單個不準確的組合會導致整體誤差的增加。

1. 統計近似誤差(Statistical approximation error)

在重采樣的每一步中,信息中非零概率都可能會丟失,導致出現統計近似誤差,當樣本數量趨于無限會逐漸消失,該誤差是導致模型崩潰的主要原因。

圖片

2. 函數近似誤差(Functional approximation error)

該誤差主要源于模型中的函數近似器表達能力不足,或者有時在原始分布支持之外的表達能力太強。

眾所周知,神經網絡在極限情況下是通用的函數近似器,但實際上這種假設并不總是成立的,特別是神經網絡可以在原始分布的支持范圍之外引入非零似然。

舉個簡單例子,如果我們試圖用一個高斯分布來擬合兩個高斯的混合分布,即使模型具有關于數據分布的完美信息,模型誤差也是不可避免的。

需要注意的是,在沒有統計誤差的情況下,函數近似誤差只會發生在第一代,一旦新的分布能被函數近似器描述出來,就會在各代模型中保持完全相同的分布。

圖片

可以說,模型強大的近似能力是一把雙刃劍:其表達能力可能會抵消統計噪聲,從而更好地擬合真實分布,但同樣也會使噪聲復雜化。

對此,論文共同一作Ilia Shumailov表示:「生成數據中的錯誤會累積,最終迫使從生成數據中學習的模型進一步錯誤地理解現實。而且模型崩潰發生得非常快,模型會迅速忘記最初學習的大部分原始數據。」

圖片

解決方法

好在,研究人員發現,我們還是有辦法來避免模型崩潰的。

第一種方法是保留原始的、完全或名義上由人類生成的數據集的高質量副本,并避免與AI生成的數據混合,然后定期使用這些數據對模型進行重新訓練,或者完全從頭訓練一遍模型。

第二種避免回復質量下降并減少AI模型中的錯誤或重復的方法是將全新的、干凈的、由人類生成的數據集重新引入訓練中。

為了防止模型崩潰,開發者需要確保原始數據中的少數派在后續數據集中得到公正的表征。

數據需要仔細備份,并覆蓋所有可能的邊界情況;在評估模型的性能時,需要考慮到模型將要處理的數據,甚至是最不可信的數據。

隨后,當重新訓練模型時,還需要確保同時包括舊數據和新數據,雖然會增加訓練的成本,但至少在某種程度上有助于緩解模型崩潰。

不過,這些方法必須要內容制作者或AI公司采取某種大規模的標記機制,來區分AI生成的內容和人類生成的內容。

目前,有一些開箱即用的解決方案,比如GPTZero,OpenAI Detector,或Writer在簡單的文本上工作得很好。

圖片

然而,在一些特殊的文本中,這些方法并不能有效執行。比如,在EPFL研究中有ChatGPT合成的10個總結,而GPTZero只檢測到6個是合成的。

對此,研究人員通過微調自己的模型來檢測AI的使用,發現ChatGPT在編寫本文時是最常用的LLM。

對于構建的檢測AI數據的方法,研究人員利用原始研究中的答案和用ChatGPT合成的數據,訓練了一個定制的「合成-真實分類器」。

然后用這個分類器來估計重新進行的任務中合成答案的普遍性。

圖片

具體來講,研究人員首先使用真正由人類撰寫的MTurk回應,和合成LLM生成的回應,來訓練特定任務的「合成-真實分類器」。

其次,將這個分類器用于MTurk的真實回應(其中眾包人可能使用,也可能沒有依賴LLM),以估計LLM使用的普遍性。

最后,研究者確認了結果的有效性,在事后比較分析擊鍵數據與MTurk的回應。

實驗結果顯示,這個模型在正確識別人工智能文本方面高達99%的準確率。

此外,研究人員用擊鍵數據驗證了結果,發現:

– 完全在MTurk文本框中寫的總結(不太可能是合成的)都被歸類為真實的;

– 在粘貼的總結中,提取式總結和LLM的使用有明顯區別。

圖片

具體來講,人工智能生成的文本通常與原始總結幾乎沒有相似之處。這表明AI模型正在生成新文本,而不是復制和粘貼原始內容的一部分。

「人類數據」很重要

現在,人們普遍擔心LLM將塑造人類的「信息生態系統」,也就是說,在線可獲得的大部分信息都是由LLM生成的。

使用綜合生成數據訓練的LLM的性能明顯降低,就像Ilia Shumailov所稱會讓模型患上「癡呆癥」。

圖片

而這個問題將會變得更加嚴重,因為隨著LLM的普及,眾包工作者們已經廣泛使用ChatGPT等各種LLM。

但對于人類內容創作者來說,這是一個好消息,提高工作效率的同時,還賺到了錢。

但是,若想挽救LLM不陷于崩潰的邊緣,還是需要真實的「人類數據」。

1. 人類數據在科學中仍然是至關重要的

2. 在合成數據上訓練模型可能會帶來偏見和意識形態永久化

3. 隨著模型變得流行和更好/多模態,采用率只會增加

圖片

總的來說,由人類生成的原始數據可以更好地表示世界,雖然也可能包含某些劣質、概率較低的數據;而生成式模型往往只會過度擬合流行數據,并對概率更低的數據產生誤解。

那么,在充斥著生成式AI工具和相關內容的未來,人類制作的內容或許會比今天更有價值,尤其是作為AI原始訓練數據的來源。

參考資料:

https://arxiv.org/abs/2306.07899v1

https://arxiv.org/abs/2305.17493v2

本文(含圖片)為合作媒體授權微想智云轉載,不代表微想智云立場,轉載請聯系原作者。如有任何疑問,請聯系http://gpt.idea2003.com/。

]]>
http://www.i0562.net/dongtai/1038.html/feed 0
為什么 ChatGPT 沒有成為超級入口? http://www.i0562.net/dongtai/1020.html http://www.i0562.net/dongtai/1020.html#respond Fri, 16 Jun 2023 12:23:43 +0000 ChatGPT 并沒有像很多人預期的那樣因為插件而成為一個超級入口,是為什么呢?

編者按:本文來自微信公眾號 硅發布(ID:guifabucom),作者:Lynn Yang,微想智云經授權轉載。

前些天有這樣一條消息:5 月 29 日,OpenAI 創始人薩姆.奧特曼在接受人工智能公司 Humanloop 的 CEO 拉扎.哈比卜訪談時談到了 OpenAI 的未來。

盡管第二天,Humanloop 應 OpenAI 要求迅速刪除了這一分享。但根據其他網站的轉載,我們依然可以追溯到奧特曼當時分享的幾個核心要點。

其中,奧特曼提到了一個重要信息。如下:

“ChatGPT 不會很快發布后續插件,因為從實際市場情況看,插件目前沒有達到產品與市場的契合度(Product/Marketing Fit)。除了瀏覽之外,插件的使用情況表明,他們還沒有和市場達到最佳的契合點。”

換句話說:ChatGPT 并沒有像很多人預期的那樣因為插件而成為一個超級入口。

那么究竟是為什么呢?

(一)

5 月 29 日那天,我正好把自己關在家里,緊張兮兮地測試釘釘加入生成式 AI 后的能力。

5 月底,我成為了“釘釘斜杠‘/’”第一批邀請測試的企業用戶,“釘釘斜杠‘/’”首批開放的能力還挺多,不光有熟悉的文檔,還有群聊、應用開發以及會議等場景。

我的目標是:我要測試一下這幾個場景的生成式 AI 能力,并將其與我所熟知的海外同類產品做一對比。

首先我發現,釘釘文檔與 Notion 很像,都圍繞辦公內容生產的自動化設置了十幾個場景。但兩者的最大差異是:釘釘把“文生圖”、“文生表格”的能力也一起放進了文檔里。

這樣做的最大好處是:在工作中,我們可以在一個界面,就完成寫作、插圖和表格的植入。這將大大提高職場人士生產內容的效率,也使釘釘成為了國內首個將文生圖 AI 能力落地到應用中的生產力工具。

比如,Notion 就沒有文生圖功能。文字生成圖片方面,海外做得最好的是 Midjourney。盡管釘釘文檔生成的圖像在畫質優雅方面不如 Midjourney,但我覺得這不是大問題,因為釘釘強調的是辦公場景,更加強調的是圖像的功能性。反而,我覺得釘釘文生圖兩個最大的 Bug 是:

第一,因為眾所周知的原因,釘釘無法生成敏感人物的圖(如特朗普、范冰冰等);第二,釘釘無法很好地生成涉及名人的圖。根據釘釘告訴我的說法:這個問題與版權有關,因為名人圖像非常容易被惡搞之后四處傳播,在法律上容易存在風險。

下面,是我用釘釘文檔中“文生表格”功能生成的一張表格,我把它調成了我最喜歡的綠色。隨后,我將用這張圖來測試釘釘在生成應用方面的生成式 AI 能力。

(二)

在釘釘應用生成方面,我最喜歡的是一個傻瓜級功能,叫“識圖搭應用”,它允許任何人通過拍照的方式來讓釘釘識圖,然后快速生成應用,非常適合我這種不會寫代碼的人。

如下圖,當我把上述綠色的表格上傳到“識圖搭應用”里,機器人很快就把我制作的表格變成了一個應用,讓我預覽。

圖片

預覽中,我發現表格的標題不完整,于是動手修改。這個時候,頁面飛快地轉到了釘釘在 2020 年推出的低代碼應用平臺——宜搭。

根據從釘釘了解到的信息:我用 AI 生成的這些應用,也可以打通釘釘、內部系統。如銷售人員可以在群里實時提交當天的客戶跟進記錄,相關信息也可以通過宜搭接口同步到企業內部的 CRM 系統中,數據打通實現數據回流。

第二,釘釘已經把低代碼的各類通用模板、常見小程序喂給大模型。因此,大模型里沉淀了千行百業(制造業、醫療、建筑等)以及各類高頻業務場景(人事行政、財務報銷、生產制造)中的上千個應用模板,構建了大量業務 Knowhow 數據,可以根據用戶指令來智能推薦并補全業務應用信息。

另一個我覺得很有意思的 AI 功能,是釘釘群聊 IM 中的問答機器人。

這個機器人支持任何人和公司在投喂給它私有數據后,都可以定制一個專屬于自己的 AI 對話機器人。如下圖,我投喂給了機器人我的《加入知識星球必讀》。

圖片

在快速學習了我的私有數據后,下面是我向機器人提取的信息:

這個機器人的胃口很大,可以一次學習數十萬字的中文材料,然后,智能生成對話問答。每一位群成員都可以在群里 @它、向它提問。

從體驗中可以想象到商業場景的可能性:這種 AI 場景將在社群運營、客服答疑、新人培訓、公司制度及各種專業類內容(如法律等)時發揮重大作用,并大大幫助公司節省人力、提升分析問題和尋找答案的效率。

當然,釘釘也有群聊 AI 方面的其他功能。如在面對群內海量聊天記錄時,能夠一鍵自動生成聊天摘要、拿捏出重要信息。

此外,釘釘會議還可以實現無時長限制、無字數限制的摘要能力,一場兩小時、一兩萬字的會議,釘釘會議會根據內容智能劃分章節,最終根據信息整合類似的內容生成為幾個大的議題摘要。

需要注意的是:5 月 4 日,Salesforce 也推出了人工智能工具 SlackGPT。和今年 3 月 Slack 推出的 ChatGPT 機器人作為一個集成添加到平臺中不同,SlackGPT 是被嵌入到了 Slack 的核心功能里。

簡單講,SlackGPT 具有集成到應用本機界面的功能,以及用于自定義工作流程的無代碼工具。用戶可以一鍵點擊迅速“總結”錯過的內容。在大家的討論場景下,SlackGPT 還可以根據音頻記錄生成智能摘要并將其放入聊天中。

但是截至目前,Slack 還沒有推出 SlackGPT,高管說可能需要等到明年。也就是說,釘釘推出群聊 AI 的速度要比 Slack 快很多。

(三)

當然,Notion 和釘釘的最大差異其實是“第一邏輯”。

盡管兩者在整體架構上很像,都可以用于經營公司、管理項目和捕捉想法,但 Notion 的第一邏輯首先是一個個人工具,然后才是公司邏輯;而釘釘則首先是公司邏輯,然后才是一個個人工具。也正因為此,我非常期待融合了 AI 屬性的釘釘個人版的出現。

并且,我很自然地就由釘釘個人版的 “/”,聯想到了伊隆.馬斯克的 “X”。

因為同是 5 月 29 日消息:根據薩姆.奧特曼在接受人工智能公司 Humanloop 的 CEO 拉扎.哈比卜訪談時的說法:

“盡管許多開發者都表達了在 API 中融入 ChatGPT 插件的興趣,但是插件可能不會很快發布:因為插件目前沒有達到產品市場契合度(PMF),除了瀏覽之外,插件的使用情況表明他們還沒有和市場達到最佳的契合點。

第二,很多人認為他們希望他們的應用程序在 ChatGPT 中,但他們真正想要的是在他們的應用程序中可以使用 ChatGPT。”

這里透露出的一個重要問題是:為什么目前 ChatGPT 的插件沒有達到產品與市場的契合度?

我猜測可能的答案如下:

根據我查閱的 Chat.openai.com 在 Similarweb 的信息,如下圖:

Chat.openai.com 在今年 3 月的總訪問量(桌面和移動設備)達到了 18 億次,平均每次訪問的頁數為 6.22,平均訪問的持續時間為 8:32 分鐘。

從上圖中可以看到:平均訪問的持續時間太短,可能是一個問題。

此外根據美媒的最新報道:為了對抗微軟和 OpenAI,以及谷歌的 DeepMind 的合作伙伴關系,伊隆.馬斯克正在 AI 領域準備一個新項目,這個新項目“某種程度上”可能涉及利用馬斯克的至少兩家公司——特斯拉和推特——的技術。

馬斯克的原話是:“我認為這場比賽中,應該有重要的第三匹馬。”

馬斯克近日對美媒表示,他不想在公告上倉促行事,“但 OpenAI 與微軟的關系似乎運作良好……所以 X.AI、推特和特斯拉,可能會有類似的東西。”

上個月,馬斯克將 X.AI Corp. 注冊為 AI 的初創公司,并將 Twitter Inc. 并入了 XCorp.。根據馬斯克的說法,他對 Twitter 的抱負之一是將其轉變為“一切應用程序”,也就是它戲稱的 “X”。

而葉軍也曾在 4 月 18 日的媒體專訪會上提到了一個很有意思的觀點,如下:

“未來不需要那么多 App 了,用戶端有一個超級 App 就可以了。然后,這個超級 App 去跟周邊包括打車軟件、訂房軟件全集成到一起。這是一種新形態,以前都是鏈接、跳來跳去,但未來的智能時代不會有跳轉,不會有界面,也不會有 App。”

“我個人的判斷是:未來是一個從 Low Code 到 No APP 的過程,而智能入口就是核心的入口,操作極簡,把底層數據都打通。這個過程一旦完成,格局將發生非常大的變化。所以從今年開始,釘釘的功能也會變得越來越簡潔。我認為未來釘釘個人版的 AI 助手,會是就嵌入到各種場景里的自然語言的表達,這種形式將成為終極的形式。”

因此,我也非常期待釘釘 AI 個人版的發布。并且我想提出的一個重要問題是:

如果 ChatGPT 的用戶平均訪問的持續時間太短是一個問題,那么一個本身就有極強用戶粘性的超級 App——可能是如 Twitter 這樣的 IM(即時通訊)或是如釘釘這樣的辦公 IM——是否可能塑造未來 AI 的終極形式呢?

本文為專欄作者授權微想智云發表,版權歸原作者所有。文章系作者個人觀點,不代表微想智云立場,轉載請聯系原作者。如有任何疑問,請聯系http://gpt.idea2003.com/。

]]>
http://www.i0562.net/dongtai/1020.html/feed 0
團隊解散、業務停滯,某巨頭機器人餐廳項目被曝“慘敗” http://www.i0562.net/dongtai/1014.html http://www.i0562.net/dongtai/1014.html#respond Fri, 16 Jun 2023 12:23:38 +0000 煙火氣與高科技,注定水火不容?

編者按:本文來自微信公眾號 紅餐網(ID:hongcan18),作者:曾憲天,微想智云經授權發布。

機器人餐廳歷經十年發展,有著大量無疾而終的商業故事。無論是謹慎探索的中小品牌還是不差錢的巨頭大廠,為何都沒能成功?

最近,有業內人士向紅餐網爆料稱,某巨頭轟轟烈烈搞了幾年的機器人餐廳項目,已經到了業務停滯、團隊解散的階段。

這個失敗案例其實有著共性意義,機器人餐廳歷經十年發展,有著大量無疾而終的商業故事。

比如2016年時,曾經的“網紅”湖南米粉品牌人人湘,就在北京開過一家無人化的機器人餐廳,當時這家店在餐飲消費和互聯網科技領域都引起了轟動。然而僅僅過了兩年,人人湘就關閉了無人餐廳,并宣告前期投入的100多萬全部打水漂。

這么多年來,不只是中小品牌折戟,就連不差錢、不差資源的巨頭大廠,也沒能講好機器人餐廳這個故事。

巨頭下場,也沒做成

2018年時,執掌碧桂園的楊國強曾公開表示,5年內碧桂園要在機器人領域投入至少800億元,引發外界關注。

2019年5月,碧桂園成立了負責餐飲機器人的千璽機器人集團,不僅覆蓋餐飲機器人設備的研發、制造、銷售,還嘗試打造自營的機器人餐廳,企圖通過合營、加盟等方式構建連鎖化品牌發展生態。

2020年1月,千璽機器人集團打造的FOODOM天降美食王國機器人餐廳首家旗艦店在廣州珠江新城開業。

隨后的2020年6月,FOODOM天降美食王國機器人餐廳,在碧桂園博智林公司總部所在地順德開出了第二家店。

公開信息顯示,FOODOM天降美食王國是業態完整的機器人餐廳綜合體,面積約2000平米,點餐、出餐、送餐均由機器人設備完成,餐廳內有炒鍋機器人、煲仔飯機器人、粉面機器人等20余種餐飲機器人設備,可提供近200種各式菜品,最快20秒出餐。

在2021年初的碧桂園年度工作會議上,時任碧桂園董事局主席的楊國強再度強調了對機器人業務的野心,其表示一年內機器人餐廳要在大灣區布局1萬家門店,未來劍指全球最大餐飲集團、最大餐飲設備制造商。

然而站在2023年回望,這一目標終成空談。FOODOM天降美食王國機器人餐廳高調開出的廣州珠江新城店早已歇業退場,位于順德碧桂園博智林公司總部的門店似乎也處于“半隱退”的狀態中。

目前,在大眾點評上搜索該餐廳僅出現一個結果,也就是博智林機器人總部店,評分為3.9分。紅餐網翻看數百條用戶點評發現,該餐廳存在缺少服務、點餐后無反應、機器人故障、出餐慢、菜品味道差等槽點。

值得一提的是,在最近幾次財報季中,碧桂園方面幾乎沒再提及過餐飲機器人、機器人餐廳等相關信息,轉而聚焦于其建筑機器人方面的進展披露。

阿里旗下的盒馬鮮生,很早以前也已涉足機器人餐廳市場。

2018年2月,盒馬Robot.HE機器人餐廳落地上海,顧客選座/落座后使用手機掃碼點餐付款,智能機器人制作餐品,智能送餐車送餐,全程不超過30分鐘。

目前,該店在大眾點評上的評分同樣只有3.9分,存在菜品、餐具不干凈,環境衛生不好,上菜太慢,菜品味道一般等問題。

從數百條用戶反饋的評論可以看出,大部分用戶被機器人餐廳的噱頭所吸引,在體驗前就有了較高的期望值,然而在實際體驗過程中卻出現了不愉快的經歷,導致產生較大的落差感。

值得一提的是,早在2018年時盒馬就對外宣稱,機器人餐廳開業4個月便已營收平衡,但直到2023年4月,其才在上海開出第二家機器人餐廳。這或許也從側面說明,目前機器人餐廳的模式還不適合大面積復制落子。

有著類似經歷的還有京東。2018年“雙11”前,京東首家機器人餐廳“京東X未來餐廳”在天津開業,從點餐、配菜、炒菜、傳菜到用餐、結算,智能機器人和人工智能后臺貫穿餐廳運營全過程。

消費者點餐后,后臺將炒菜任務分配給烹飪機器人,機器人依據菜譜進行菜品的烹制,最后再由采用自動駕駛和高精地圖技術的傳菜機器人將烹制好的菜品送到餐桌前,盡可能實現了無人化模式。

彼時擔任京東集團副總裁、X事業部總裁肖軍稱,京東X未來餐廳打造的智能餐廳解決方案將面向更多城市,進一步拓展無界零售應用場景和線上線下融合版圖,未來將持續在全國落地。

團隊解散、業務停滯,某巨頭機器人餐廳項目被曝“慘敗”插圖

△圖片來源:大眾點評

然而如今再查看這家門店,已“查無此店”,彼時宣布擴張計劃的京東副總裁肖軍也早已于2021年11月從京東離職。目前在大眾點評中能查詢到的京東未來餐廳信息,僅剩其沈陽門店。

機器人餐廳,為何水土不服?

不差錢的巨頭們親自下場布局數年,這件事也沒能做成。在風口期涌入的中小餐飲企業,更是折戟無數。

為什么機器人餐廳始終無法走出合適的發展路子?

團隊解散、業務停滯,某巨頭機器人餐廳項目被曝“慘敗”插圖1

△圖片來源:大眾點評

早在2018年時,人人湘聯合創始人嚴興會就曾進行過復盤,并坦言互聯網科技的未來感風格并不太適合餐飲體驗,餐飲門店更需要煙火氣。

“不可以犧牲顧客體驗去做技術。”嚴興會認為,餐飲行業的成本重構,還遠未到能完全用機械化來替代人力成本的時候。

今年4月,客如云COO蘭彥暉在在紅餐網推出的系列化直播欄目《紅咖說》中 曾表示,目前國內大概有1000萬餐飲企業,整體的連鎖化、數字化率可能僅在20%左右。

在餐飲數字化率并不高的當下,想要跳過管理系統、結算系統、點餐系統、供應鏈系統等多個方面的數字化打磨升級,直接一步登天進入“全自動”的機器人餐廳階段,顯然是不現實的。

此外,機器人餐廳代表的無人模式理論上可以減少人力成本,提高餐品制作、門店運營等方面的效率,但在實際落地中,這一模式又往往會帶來新的問題。

無論是機器人餐廳還是未來智能餐廳,勢必需要突出經營自動化的能力,而這樣會增加很多運營成本,動輒數萬元的迎賓機器人、送餐機器人、炒菜機器人等等,需要投入大量資金引入。驟增的成本支出,也拉高了機器人餐廳的建設門檻。

團隊解散、業務停滯,某巨頭機器人餐廳項目被曝“慘敗”插圖2

△圖片來源:1688

不僅如此,當下的機器人交互技術和手段,還難以滿足消費者的對話需求,無法確保消費者的用餐體驗。機器人餐廳普遍評分不高,用戶吐槽較多的情況也印證了這一點。

而對于互聯網大廠,以及試圖跨界科技的巨頭而言,打造機器人餐廳的意義或許更多是展示其技術能力和落地場景的可能性,為后續的推廣打個樣。

大廠們尋求的更多是以輔助、賦能的輕資產模式來運作,出售手中的技術能力,使其產生營收價值。這也就不難理解,為何大廠們總是不親自下場,用自營的重資產模式來連鎖化、規模化打造機器人餐廳了。

用一個比喻能更好理解這種純自動、無人化,滿滿科技感的機器人餐廳的發展境況,它就像汽車工業里的概念車一樣,是大廠們“秀肌肉”的媒介之一,短期內無法也不會量產。

團隊解散、業務停滯,某巨頭機器人餐廳項目被曝“慘敗”插圖3

△圖片來源:Midjourney

事實上,不僅僅是餐飲行業,完全依賴技術和機器人設備的無人模式在不少應用場景中都出現了問題。

來看看酒店領域。阿里在2018年12月高調開業了一家名為“菲住布渴”的無人酒店,從大堂、電梯、房間,再到餐廳、健身房等酒店空間,都整合了人臉識別、語音控制、智能機器人等黑科技,住客從入住到離店全程可實現無人化服務。

“晚上點了機器人送餐,結果是酒店員工送來的,說是機器人送餐經常卡頓,暫時在升級中。”有入住過的用戶在大眾點評上寫下了上述吐槽評論。在其他用戶相關的負面評價中,還存在著諸如缺乏人情味,冷冷清清,房間用品存在瑕疵難以找人處理等吐槽。

有知情人士向紅餐網表示,其實“菲住布渴”無人酒店是飛豬旗下的業務,曾經希望通過這個酒店樣本,將阿里的無人酒店解決方案出售給更多的酒店集團,從而引領行業的智能化發展。

但落地至今近5年,飛豬的核心管理層屢次更替,“菲住布渴”酒店逐漸淪為無人問津的邊緣業務,阿里、飛豬都鮮少再提及這個曾經的發展構想和野心。

從業界主流酒店集團并未出現大規模跟進類似無人酒店業態的舉措來看,“菲住布渴”所代表的酒店智能化解決方案,也并未得到行業的認可,普及更是無從談起。

餐飲+機器人,正在走出新路子

回看餐飲行業,這終歸是一門講究體驗、產品和服務的生意。

在餐廳中只能對著冷冰冰的機器人,人們更多還是會表現得無所適從,再智能化的設備、模式,似乎都與當下的用戶需求格格不入。

“未來餐廳,讓我感覺好孤獨。”大眾點評用戶@蝦仁兒在體驗機器人餐廳時,面對擬人造型的機器人廚師和智能傳送帶發出了這樣的感慨。而這,其實也是大部分消費者對機器人餐廳最直觀的感受。

團隊解散、業務停滯,某巨頭機器人餐廳項目被曝“慘敗”插圖4

△圖片來源:@蝦仁兒,紅餐網已獲授權

可以看到的是,后來也有不少餐飲智能化企業轉而采取了相對“折中”的方式,不再追求完全替代人力的“無人化”,而是轉向研發一些幫助餐飲門店提質增效的智能機器人設備或是解決方案。

比如碧桂園旗下的千璽機器人集團,在2019年成立了廣東智源機器人科技有限公司,同步布局不同品類的智能化機器人設備,其相關解決方案及硬件設備還應用在了2022年的北京冬奧會的智慧餐廳中。

團隊解散、業務停滯,某巨頭機器人餐廳項目被曝“慘敗”插圖5

△圖片來源:千璽機器人官網

2021年7月,原美團核心高管郭慶創立了橡鷺科技,聚焦“機器人+ Food”賽道,深耕布局炒菜機器人產品,通過機器人全自動化策略提升餐飲門店后廚效率,同時又兼顧菜品的煙火氣問題,從后廚板塊幫助餐飲品牌強化快速連鎖、規模化復制的可能性。

再比如商用服務機器人企業普渡科技,通過算法升級與機器人視覺融合導航技術的迭代,打造出了能夠在室內外作業的送餐機器人產品,為餐飲商家、門店提升運營效率提供了更多可能性。

眼下,智能機器人設備在麥當勞、海底撈等諸多連鎖品牌的門店中已然能夠看到。

各式各樣的機器人設備或是以門店功能性機器人的方式落地,或是以無人便民早餐車等方式呈現,更高效地滿足了消費者在不同場景下的餐飲需求,提升餐飲商家的服務效率,增加消費觸點。

團隊解散、業務停滯,某巨頭機器人餐廳項目被曝“慘敗”插圖6

△圖片來源:Midjourney

在餐飲門店的后廚里,機器人的用處也越來越大。連鎖品牌“霸碗蓋碼飯”,在四年時間里投入兩千多萬元資金,成功自研蓋碼飯機器人,并將其應用到了門店的后廚里。

霸碗的廚房工作人員只需要負責菜品的清洗處理,將食材和事先研制的調料瓶準備好后,機器人就會以極快的速度完成放油、投料、爆炒、出鍋、清洗等所有程序,極大提升了餐品的標準化品質與出餐效率。如今,憑借著智能化的優勢,霸碗蓋碼飯也在全國開出了上百家門店。

可以看到,“餐飲+機器人”在經歷多年曲折后,逐漸走出了一條更為合適的路子。

煙火氣、人情味與科技賦能本不應是“你死我活”的對立關系,或許不遠的將來,行業中能真正出現兼具科技效率與用戶體驗的機器人餐廳大模型,而不是過去那般“有名無實”的概念型門店。

本文為專欄作者授權微想智云發表,版權歸原作者所有。文章系作者個人觀點,不代表微想智云立場,轉載請聯系原作者。如有任何疑問,請聯系http://gpt.idea2003.com/。

]]>
http://www.i0562.net/dongtai/1014.html/feed 0