2012,改變人類命運的180天
編者按:本文來自微信公眾號 遠川研究所(ID:YuanChuanInstitution),作者:李墨天,編輯:戴老板,微新創想經授權轉載。
2012年12月初的一天,一場秘密競拍正在美國滑雪勝地太浩湖(Lake Tahoe)的一家賭場酒店里進行。
太浩湖位于加州和內華達州交界處,是北美最大的高山湖泊,擁有藍寶石般的湖面和頂級雪道,《教父2》曾在這里取景,馬克吐溫曾在此地流連忘返,而由于離舊金山灣區只有200多英里,這里常被稱為“硅谷后花園”,扎克伯格和拉里·埃里森等大佬也在此圈地占山,興建豪宅。
秘密競拍的對象,是一家剛剛成立1個月、僅有3名員工的公司——DNNresearch,創立者是多倫多大學教授杰夫·辛頓(Geoffrey Hinton)和他兩名學生。
這家公司沒有任何有形的產品或資產,但追求者的身份暗示出了它的分量——四位買家分別是Google、微軟、DeepMind和百度。
65歲的辛頓蒼老,瘦削,飽受腰椎間盤的疼痛,他坐在酒店703房間的地板上為競拍設置規則——起價1200萬美元,抬價單位至少100萬美元。
幾個小時后,競拍者就把價格推到了4400萬美元,辛頓有些頭暈,“感覺我們像是在拍電影”,于是果斷喊停,并決定把公司賣給最后的喊價者——Google。
有意思的是,這場4400萬美元競拍的源頭之一,就是來自于6個月前的Google。
2012年6月,Google研究部門Google Brain公開了The Cat Neurons項目(即“谷歌貓”)的研究成果。這個項目簡單說就是用算法在YouTube的視頻里識別貓,它由從斯坦福跳槽來Google的吳恩達發起,拉上了Google傳奇人物Jeff Dean入伙,還從Google創始人Larry Page那里要到了大筆的預算。
谷歌貓項目搭建了一個神經網絡,從YouTube上下載了大量的視頻,不做標記,讓模型自己觀察和學習貓的特征,然后動用了遍布Google各個數據中心的16000個CPU來進行訓練(內部以過于復雜和成本高為由拒絕使用GPU),最終實現74.8%的識別準確率。這一數字震驚業界。
吳恩達在“谷歌貓”項目臨近結束前激流勇退,投身自己的互聯網教育項目,臨走前他向公司推薦了辛頓來接替他的工作。面對邀請,辛頓表示自己不會離開大學,只愿意去Google“待一個夏天”。由于Google招聘規則的特殊性,時年64歲的辛頓成為了Google歷史上最年長的暑期實習生。
辛頓從80年代開始就戰斗在人工智能的最前線,作為教授更是桃李滿門(包括吳恩達),是深度學習領域的宗師級人物。因此,當他了解了“谷歌貓”項目的技術細節后,他馬上就看到了項目成功背后的隱藏缺陷:“他們運行了錯誤的神經網絡,并使用了錯誤的計算能力。”
同樣的任務,辛頓認為自己可以做的更好。于是在短暫的“實習期”結束后,他馬上投入行動。
辛頓找來了自己的兩個學生——Ilya Sutskever和Alex Krizhevsky,兩人都是出生于蘇聯的猶太人,前者極具數學天賦,后者擅長工程實現,三人密切配合后創建了一個新神經網絡,然后馬上參加了ImageNet圖像識別比賽(ILSVRC),最后以驚人的84%識別準確率奪得冠軍 。
2012年10月,辛頓團隊在佛羅倫薩舉行的計算機視覺會議上介紹了冠軍算法AlexNet,相比谷歌貓用了16000顆CPU,AlexNet只用了4顆英偉達GPU,學術界和產業界徹底轟動,AlexNet的論文成為計算機科學史上最有影響力的論文之一,目前被引次數已經超過12萬,而谷歌貓則被迅速遺忘。
DNNresearch公司三人組
曾拿過第一屆ImageNet大賽冠軍的余凱讀完論文后異常興奮,“像觸電了一樣”。余凱是一名出生于江西的深度學習專家,剛從NEC跳去百度,他馬上給辛頓寫郵件,表達了合作的想法,辛頓欣然同意,并索性把自己和兩名學生打包成一家公司,邀請買家競拍,于是便有了開頭的那一幕。
拍賣落槌后,一場更大的競賽展開了:Google乘勝追擊,2014年又把DeepMind收入囊中,“天下英雄盡入彀中”;而DeepMind則在2016年推出了AlphaGo,震驚全球;輸給Google的百度則下定決心押注AI,十年投入千億,余凱后來幫百度請來了吳恩達,他自己則在幾年后離職創辦了地平線。
微軟表面上看慢了一拍,但最終卻贏下了最大的戰利品——OpenAI,后者的創始人就包括辛頓兩個學生之一的Ilya Sutskever。而辛頓自己則一直在Google待到2023年,期間榮獲ACM圖靈獎。當然,跟Google的4400萬美元比(辛頓分得40%),圖靈獎的100萬美元獎金就顯得像是零花錢了。
從6月的谷歌貓,到10月的AlexNet論文,再到12月的太浩湖競拍,差不多6個月的時間里,AI浪潮的伏筆幾乎被全部埋下——深度學習的繁榮、GPU和英偉達的崛起、AlphaGo的稱霸、Transformer的誕生、ChatGPT的橫空出世……硅基盛世的宏大樂章奏響了第一個音符。
2012年從6月到12月的180天,碳基人類的命運被永遠改變了——只有極少人意識到了這一點。
液體貓
在這些極少數人中,斯坦福大學教授李飛飛是其中之一。
2012年,當辛頓參加ImageNet比賽結果出爐時,剛生完孩子的李飛飛還在休產假,但辛頓團隊的錯誤率讓她意識到歷史正在被改寫。作為ImageNet挑戰賽的創辦者,她買了當天最后一班飛機飛往佛羅倫薩,親自為辛頓團隊頒獎[2]。
李飛飛出生于北京,在成都長大,16歲時隨父母移民美國,一邊在洗衣店幫忙,一邊讀完普林斯頓。2009年李飛飛進入斯坦福擔任助理教授,研究方向是計算機視覺與機器學習,這個學科的目標是讓計算機能夠像人一樣,自己理解圖片和影像的含義。
比如,當照相機拍下一只貓時,它只是通過傳感器把光線轉化成了像素,并不知道鏡頭里的東西是貓還是狗。如果把照相機比做人類的眼睛,計算機視覺解決的問題就是給照相機裝上人的大腦。
傳統的方式是將現實世界中的事物抽象為數學模型,比如將貓的特征抽象為簡單的幾何圖形,就能大幅度降低機器識別的難度。
圖片來源:李飛飛的TED演講
但這種思路有非常大的局限性,因為貓很有可能是這樣的:
為了讓計算機能夠識別“液體貓”,杰夫·辛頓、楊立昆(Yann LeCun)等一大批深度學習先驅從80年代就開始了探索。但總會撞到算力或算法的瓶頸——好的算法缺少足夠的算力驅動,算力需求小的算法難以滿足識別精度,無法產業化。
如果解決不了“液體貓”的問題,深度學習的性感就只能停留在理論層面,自動駕駛、醫療影像、精準廣告推送這些產業化場景就只是空中樓閣。
簡單來說,深度學習的發展需要算法、算力、數據三駕馬車來拉動,算法決定了計算機用什么方式識別事物;但算法又需要足夠大的算力來驅動;同時,算法的提升又需要大規模高質量的數據;三者相輔相成,缺一不可。
2000年后,盡管算力瓶頸伴隨芯片處理能力的突飛猛進逐步消除,但主流學界對深度學習路線仍舊興趣寡然。李飛飛意識到,瓶頸可能不是算法本身的精度,而在于缺乏高質量、大規模的數據集。
李飛飛的啟發來自三歲孩子認識這個世界的方式——以貓為例,孩子會在大人的教導下一次又一次遇見貓,逐漸掌握貓的含義。如果把孩子的眼睛當作照相機,眼球轉動一次等于按一次快門,那么,一個三歲的孩子就已經拍攝了上億張照片。
把這個方法套在計算機上,假如給計算機不停的看包含貓和其他動物的圖片,同時在每張圖片背后寫下正確答案。計算機每看一次圖片,就和背面的答案核對一次。那么只要次數夠多,計算機就有可能像孩子一樣掌握貓的含義。
唯一需要解決的問題就是:上哪找那么多寫好答案的圖片?
李飛飛在2016年來到中國,宣布谷歌AI中國中心成立
這就是ImageNet誕生的契機。當時,即便是最大規模的數據集PASCAL,也只有四個類別總共1578張圖片,而李飛飛的目標是創建一個包含幾百個類別總共上千萬張的數據集。現在聽起來似乎不難,但要知道那是2006年,全球最流行的手機還是諾基亞5300。
依靠亞馬遜眾包平臺,李飛飛團隊解決了人工標注的龐大工作量。2009年,包含320萬張圖片的ImageNet數據集誕生。有了圖片數據集,就可以在此基礎上訓練算法,讓計算機提升識別能力。但相比三歲孩子的上億張照片,320萬的規模還是太少了。
為了讓數據集不斷擴充,李飛飛決定效仿業內流行的做法,舉辦圖片識別大賽,參賽者自帶算法識別數據集中的圖片,準確率最高者獲勝。但深度學習路線在當時并不是主流,ImageNet一開始只能“掛靠”在歐洲知名賽事PASCAL下面,才能勉強湊夠參賽人數。
到了2012年,ImageNet的圖片數量擴大到了1000個類別總共1500萬張,李飛飛用6年時間補足了數據這塊短板。不過,ILSVRC的最好成績錯誤率也有25%,在算法和算力上,依然沒有表現出足夠的說服力。
這時,辛頓老師帶著AlexNet和兩塊GTX580顯卡登場了。
卷積
辛頓團隊的冠軍算法AlexNet,采用了一種名叫卷積神經網絡(Convolutional Neural Networks,簡稱CNN)的算法。“神經網絡”在人工智能領域是個極其高頻的詞匯,也是機器學習的一個分支,其名稱和結構都取材自人腦的運作方式。
人類辨識物體的過程是瞳孔先攝入像素,大腦皮層通過邊緣和方位做初步處理,然后大腦通過不斷的抽象來判定。因此,人腦可以根據一些特征就能判別出物體。
比如不用展示整張臉,大部分人都能認出下圖中的人是誰:
神經網絡其實就是模擬人腦的識別機制,理論上人腦能夠實現的智能計算機也能實現。相較SVM、決策樹、隨機森林等方法,只有模擬人腦,才能處理類似“液體貓”和“半個特朗普”這種非結構化數據。
但問題是,人腦約有1000億個神經元,神經元之間的節點(也就是突觸)更是多達萬億,組成了一個無比復雜的網絡。作為對比,用了16000個CPU組成的“谷歌貓”,內部共有10億個節點,而這已經是當時最復雜的計算機系統了。
這也是為什么連“人工智能之父”Marvin Minsky都不看好這條路線,在2007年出版新書《The Emotion Machine》時,Minsky依然表達了對神經網絡的悲觀。為了改變主流機器學習界對人工神經網絡的長期的消極態度,辛頓干脆將其改名為深度學習(Deep Learning)。
2006年,辛頓在Science上發表了一篇論文,提出了“深度信念神經網絡(DBNN)”的概念,給出了一種多層深度神經網絡的訓練方法,被認為是深度學習的重大突破。但辛頓的方法需要消耗大量的算力和數據,實際應用難以實現。
深度學習需要不停的給算法喂數據,當時的數據集規模都太小了,直到ImageNet出現。
ImageNet的前兩屆比賽里,參賽團隊使用了其他的機器學習路線,結果都相當平庸。而辛頓團隊在2012年采用的卷積神經網絡AlexNet,改良自另一位深度學習先驅楊立昆(Yann LeCun),其在1998年提出的LeNet讓算法可以提取圖像的關鍵特征,比如特朗普的金發。
同時,卷積核會在輸入圖像上滑動,所以無論被檢測物體在哪個位置,都能被檢測到相同的特征,大大減少了運算量。
AlexNet在經典的卷積神經網絡結構基礎上,摒棄了此前的逐層無監督方法,對輸入值進行有監督學習,大大提高了準確率。
比如下圖中右下角的圖片,AlexNet其實并沒有識別出正確答案(馬達加斯加貓),但它列出的都是和馬達加斯加貓一樣會爬樹的小型哺乳動物,這意味著算法不僅可以識別對象本身,還可以根據其他物體進行推測[5]。
圖片來源:AlexNet論文
而產業界感到振奮的是,AlexNet有6000萬個參數和65萬個神經元,完整訓練ImageNet數據集至少需要262千萬億次浮點運算。但辛頓團隊在一個星期的訓練過程中,只用了兩塊英偉達GTX 580顯卡。
GPU
辛頓團隊拿到冠軍后,最尷尬的顯然是Google。
據說Google在內部也做了ImageNet數據集的測試,但識別精度遠遠落后于辛頓團隊。考慮到Google擁有業界無法企及的硬件資源,以及搜索和YouTube的龐大數據規模,Google Brain更是領導欽點特事特辦,其結果顯然不具備足夠的說服力。
如果沒有這種巨大的反差,深度學習可能也不會在短時間內震撼業界,得到認可和普及。產業界感到振奮的原因在于辛頓團隊只用了四塊GPU,就能達到這么好的效果,那么算力就不再是瓶頸。
算法在訓練時,會對神經網絡每層的函數和參數進行分層運算,得到輸出結果,而GPU恰好有非常強的并行運算能力。吳恩達在2009年的一篇論文中其實證明了這一點,但在和Jeff Dean運行“谷歌貓”時,他們還是用了CPU。后來Jeff Dean專門訂購了200萬美元的設備,依然不包括GPU[6]。
辛頓是極少數很早就意識到GPU之于深度學習巨大價值的人,然而在AlexNet刷榜之前,高科技公司普遍對GPU態度不明。
2009年,辛頓曾受邀去微軟做一個語音識別項目的短期技術顧問,他建議項目負責人鄧力購買最頂級的英偉達GPU,還要搭配對應的服務器。這個想法得到了鄧力的支持,但鄧力的上司Alex Acero認為這純屬亂花錢[6],“GPU是用來玩游戲的,而不是用來做人工智能研究的。”
鄧力
有趣的是,Alex Acero后來跳槽去了蘋果,負責蘋果的語音識別軟件Siri。
而微軟對GPU的不置可否顯然讓辛頓有些火大,他后來在一封郵件里建議鄧力購買一套設備,而自己則會買三套,并且陰陽怪氣的說[6]:畢竟我們是一所財力雄厚的加拿大大學,不是一家資金緊張的軟件銷售商。
但在2012年ImageNet挑戰賽結束后,所有人工智能學者和科技公司都對GPU來了個180度大轉彎。2014年,Google的GoogLeNet以93%的識別準確率奪冠,采用的正是英偉達GPU,這一年,所有參賽團隊GPU的使用數量飆升到了110塊。
這屆挑戰賽之所以被視為“大爆炸時刻”,在于深度學習的三駕馬車——算法、算力、數據上的短板都被補足,產業化只剩下了時間問題。
算法層面,辛頓團隊發表的關于AlexNet的論文,成為計算機科學領域被引用次數最多的論文之一。原本百家爭鳴的技術路線成了深度學習一家獨大,幾乎所有的計算機視覺研究都轉向了神經網絡。
算力層面,GPU超強并行計算能力與深度學習的適應性迅速被業界認可,六年前開始布局CUDA的英偉達成為了最大的贏家。
數據層面,ImageNet成為圖像處理算法的試金石,有了高質量的數據集,算法識別精度日行千里。2017年最后一屆挑戰賽,冠軍算法的識別準確率達到97.3%,超過了人類。
2012年10月底,辛頓的學生Alex Krizhevsky在意大利佛羅倫薩的計算機視覺會議上公布了論文。然后,全世界的高科技公司開始不計成本地兩件事:一是買光英偉達的顯卡,二是挖光大學里的AI研究員。
太浩湖的4400萬美元,給全球的深度學習大神做了一次重新定價。
奪旗
從公開可查的信息看,當時還在百度的余凱的確是第一個來挖辛頓的人。
當時,余凱在百度擔任百度多媒體部的負責人,也就是百度深度學習研究院(IDL)的前身。在收到余凱的郵件后,辛頓很快就回復說同意合作,順帶提出了希望百度提供一些經費的愿望。余凱問具體數字,辛頓表示100萬美元就夠——這個數字低到令人難以置信,只能雇兩個P8。
余凱向李彥宏請示,后者爽快地答應。余凱回復沒問題后,辛頓可能感受到了產業界的饑渴,就詢問余凱是否介意自己問問其他家,比如Google。余凱后來在回憶道[6]:
“我當時有點兒后悔,猜我可能回答得太快了,讓辛頓意識到了巨大的機會。但是,我也只能大度地說不介意。”
最終百度跟辛頓團隊失之交臂。但對于這個結果,余凱并非沒有心理準備。因為一方面辛頓有嚴重的腰椎間盤健康問題,不能開車,也不能坐飛機,很難承受跨越太平洋的中國之旅;另一方面,辛頓有太多的學生和朋友在Google工作了,雙方淵源太深,其他三家本質上就是在陪標。
如果說AlexNet的影響還集中在學術圈的話,那么太浩湖的秘密拍賣則徹底震驚了產業界——因為Google在全球科技公司的眼皮子底下,花了4400萬美元買了一家成立不到一個月、沒有產品、沒有收入,只有三個員工和幾篇論文的公司。
最受刺激的顯然是百度,雖然在拍賣上折戟,但百度管理層親眼目睹了Google如何不惜代價投資深度學習,促使百度下定決心投入,并在2013年1月的年會上宣布成立深度學習研究院IDL。2014年5月,百度請來了“谷歌貓”項目的關鍵人物吳恩達,2017年1月,又請來了離開微軟的陸奇。
而Google在拿下辛頓團隊后再接再厲,在2014年以6億美元買下了當年的競拍對手DeepMind。
當時,馬斯克向Google創始人Larry Page推薦了自己投資的DeepMind,為了能帶上辛頓一起去倫敦驗驗成色,Google團隊還專門包了架私人飛機,并且改造了座椅,解決辛頓不能坐飛機的問題[6]。
“英國選手”DeepMind在圍棋比賽上戰勝了李世石,2016年
和Google爭奪DeepMind的是Facebook。當DeepMind花落Google后,扎克伯格轉而挖來了“深度學習三巨頭”之一的楊立昆。為了將楊立昆納入麾下,扎克伯格答應了他許多苛刻要求,比如AI實驗室設立在紐約,實驗室與產品團隊完全劃清界限,允許楊立昆繼續在紐約大學任職等等。
2012年ImageNet挑戰賽后,人工智能領域面臨著非常嚴重的“人才供需錯配”問題:
由于推薦算法、圖像識別、自動駕駛這些產業化空間被迅速打開,人才需求量暴增。但由于長期不被看好,深度學習的研究者是個很小的圈子,頂級學者更是兩只手數得過來,供給嚴重不足。
這種情況下,如饑似渴的科技公司只能購買“人才期貨”:把教授挖過來,然后等他們把自己的學生也帶進來。
楊立昆加入Facebook后,先后有六名學生追隨他入職。準備在造車上躍躍欲試的蘋果挖來了辛頓的學生Ruslan Salakhutdinov,擔任蘋果首任AI總監。就連對沖基金Citadel也加入了搶人大戰,挖走了當年和辛頓搞語音識別、后來還代表微軟參與秘密競拍的鄧力。
此后的歷史我們再清楚不過:人臉識別、機器翻譯、自動駕駛等產業化場景日行千里,GPU訂單雪花一般飄向圣克拉拉的英偉達總部,人工智能的理論大廈也在日復一日的澆筑。
2017年,Google在論文《Attention is all you need》里提出Transformer模型,開啟了如今的大模型時代。幾年后,ChatGPT橫空出世。
而這一切的誕生,都可以追溯到2012年的ImageNet挑戰賽。
那么,推動2012年“大爆炸時刻”誕生的歷史進程,又是在哪一年顯現的呢?
答案是2006年。
偉大
在2006年之前,深度學習的現狀可以借用開爾文男爵的那句名言來概括:深度學習的大廈已經基本建成了,只不過在陽光燦爛的天空下,漂浮著三朵小烏云。
這三朵小烏云就是算法、算力和數據。
正如前文所說,由于模擬了人腦的機制,深度學習是一種在理論上非常完美的方案。但問題在于,無論是它需要吞噬的數據,還是需要消耗的算力,在當時都是一個科幻級別的規模,科幻到學術界對深度學習的主流看法是:腦子正常的學者不會研究神經網絡。
但2006年發生的三件事改變了這一點:
辛頓和學生Salakhutdinov(就是后來去蘋果的那位)在Science上發表了論文Reducing the dimensionality of data with neural networks,第一次提出了有效解決梯度消失問題的解決方案,讓算法層面邁出了一大步。
Salakhutdinov(左一)與辛頓(中),2016年
斯坦福大學的李飛飛意識到,如果數據規模難以還原現實世界的原貌,那么再好的算法也很難通過訓練達到“模擬人腦”的效果。于是,她開始著手搭建ImageNet數據集。
英偉達發布Tesla架構的新款GPU,并隨之推出CUDA平臺,開發者利用GPU來訓練深度神經網絡的難度大幅度降低,望而生畏算力門檻被砍掉了一大截。
這三件事的發生吹散了深度學習上空的三朵烏云,并在2012年的ImageNet挑戰賽上交匯,徹底改寫了高科技產業乃至整個人類社會的命運。
但在2006年,無論是杰夫·辛頓、李飛飛、黃仁勛,還是其他推動深度學習發展的人,顯然都無法預料人工智能在此后的繁榮,更不用說他們所扮演的角色了。
Hinton和Salakhutdinov的論文
時至今日,AI為核心驅動的第四次工業革命又開啟了,人工智能的演進速度只會越來越快。如果說我們能得到多少啟發,也許不外乎以下三點:
1.產業的厚度決定創新的高度。
ChatGPT橫空出世時,“為什么又是美國”的聲音此起彼伏。但如果把時間拉長,會發現從晶體管、集成電路,到Unix、x86架構,再到如今的機器學習,美國學界和產業界幾乎都是領跑者的角色。
這是因為,雖然關于美國“產業空心化”的討論不絕于耳,但以軟件為核心的計算機科學這門產業,不僅從未“外流”到其他經濟體,反而優勢越來越大。至今70多位ACM圖靈獎的獲得者,幾乎全部是美國人。
吳恩達之所以選擇Google合作“谷歌貓”項目,很大程度上是因為只有Google擁有算法訓練所需要的數據和算力,而這又建立在Google強大的盈利能力的基礎上。這就是產業厚度帶來的優勢——人才、投資、創新能力都會向產業的高地靠攏。
中國在自身的優勢產業里,也在體現出這種“厚度優勢”。當前最典型的就是新能源車,一邊是歐洲車企包機來中國車展拜師新勢力,一邊是日本車企高管頻繁跳槽到比亞迪——圖什么呢?顯然不是只圖能在深圳交社保。
2.越是前沿的技術領域,人才的重要性越大。
Google之所以愿意花4400萬美元買下辛頓的公司,是因為在深度學習這樣的前沿技術領域,一個頂級學者的作用,往往大過一萬個計算機視覺專業的應屆生。假如當時競拍成功的是百度或微軟,人工智能的發展脈絡可能都會被改寫。
這種“為了你買下整個公司”的行為,其實非常常見。蘋果自研芯片的關鍵階段,順手買了一家PASemi的小公司,就是為了把芯片架構大神Jim Keller挖到手——蘋果的A4、AMD的Zen、特斯拉的FSD芯片,都得到了Jim Keller的技術扶貧。
這也是產業競爭力帶來的最大優勢——對人才的吸引力。
“深度學習三巨頭”沒有一個是美國人,AlexNet這個名字來自辛頓的學生Alex Krizhevsky,他出生在蘇聯治下的烏克蘭,在以色列長大,來加拿大讀書。更不用說如今還活躍在美國高科技公司的眾多華人面孔。
3.創新的難度在于,如何面對不確定性。
除了“人工智能之父”Marvin Minsky反對深度學習之外,另一個知名深度學習反對者是加州大學伯克利分校的Jitendra Malik,辛頓和吳恩達都被他冷嘲熱諷過。李飛飛在搭建ImageNet時也曾咨詢過Malik,后者給她的建議是:Do something more useful(做點更有用的事)。
李飛飛Ted演講
正是這些行業先驅的不看好,導致深度學習經歷了數十年的萬馬齊喑。即便到了2006年辛頓撕開了一束曙光,三巨頭的另一位楊立昆還在反復向學術界證明“深度學習也有研究價值”。
楊立昆從80年代就開始研究神經網絡,在貝爾實驗室期間,楊立昆就和同事設計了一種名叫ANNA的芯片,試圖解決算力問題。后來AT&T由于經營壓力要求研究部門“賦能業務”,楊立昆的回答是“我就是要研究計算機視覺,有本事你解雇我”。最終求錘得錘,喜提N+1[6]。
任何前沿技術領域的研究者都必須面對一個問題——如果這個東西做不出來怎么辦?
從1972年進入愛丁堡大學算起,辛頓在深度學習的前線已經鏖戰了50年。2012年ImageNet挑戰賽舉辦時,他已經65歲了。很難想象他在漫長的時間里面對學術界的種種質疑,需要消解多少自我懷疑與否定。
如今我們知道,2006年的辛頓已經堅持到了黎明前最后的黑暗,但他自己也許并不知道這一點,更不用說整個學術界和產業界。就像2007年iPhone發布時,大多數人的反應可能和時任微軟CEO鮑爾默是一樣的:
目前,iPhone依然是世界上最貴的手機,而且沒有鍵盤
推動歷史的人,往往猜不到自己在歷史進程中的坐標。
偉大之所以為偉大,不是因為其橫空出世時的驚艷,而是因為它要在無邊黑暗中,忍受漫長的籍籍無名與不被理解。直到多年之后,人們才能順著這些標尺,感嘆那時群星璀璨,天才輩出。
一個又一個科學研究的領域里,無數的學者終其一生都不曾窺見希望的微光。因而從某種角度看,辛頓和其他深度學習推動者是幸運的,他們創造了偉大,間接推動了產業界一個又一個成功。
資本市場會給成功定一個公允的價格,歷史則記錄那些創造偉大的孤獨和汗水。
參考資料
[1] 16000臺電腦一起找貓,紐約時報
[2] Fei-Fei Li's Quest to Make AI Better for Humanity,Wired
[3] 李飛飛的TED演講
[4] 21秒看盡ImageNet屠榜模型,60+模型架構同臺獻藝,機器之心
[5] 卷積神經網絡的“封神之路”:一切始于AlexNet,新智元
[6] 深度學習革命,凱德·梅茨
[7] To Find AI Engineers, Google and Facebook Hire Their Professors,The Information
[8] 深度學習三十年創新路,朱瓏
[9] ImageNet這八年:李飛飛和她改變的AI世界,量子位
[10] DEEP LEARNING: PREVIOUS AND PRESENT APPLICATIONS,Ramiro Vargas
[11] Review of deep learning: concepts, CNN architectures, challenges, applications, future directions,Laith Alzubaidi等
[12] Literature Review of Deep Learning Research Areas,Mutlu Yap?c?等
[13] ChatGPT背后真正的英雄:OpenAI首席科學家Ilya Sutskever的信仰之躍,新智元
[14] 10 years later, deep learning ‘revolution’ rages on, say AI pioneers Hinton, LeCun and Li,Venturebeat
[15] From not working to neural networking,經濟學人
[16] Huge “foundation models” are turbo-charging AI progress,經濟學人
[17] 2012: A Breakthrough Year for Deep Learning,Bryan House
[18] 深度學習:人工智能的“神奇魔杖”,安信證券
[19] 深度學習算法發展:從多樣到統一 ,國金證券
本文為專欄作者授權微新創想發表,版權歸原作者所有。文章系作者個人觀點,不代表微新創想立場,轉載請聯系原作者。如有任何疑問,請聯系http://www.i0562.net/。