“AI教父”承認(rèn)擔(dān)憂:AI可能接管人類
劃重點(diǎn):
1. ? 著名AI研究者 Geoffrey Hinton 擔(dān)憂他的創(chuàng)造可能接管人類世界。
2. ? 他表示AI可能會(huì)變得比人類更聰明,而無法預(yù)測是否能阻止它們接管。
3. ? Hinton還擔(dān)憂AI被濫用,包括自主AI武器、取代人類工作和傳播虛假信息。
微新創(chuàng)想(idea2003.com) 10月12日 消息:著名AI研究者Geoffrey Hinton,被譽(yù)為"AI教父",在一次采訪中承認(rèn)了他對(duì)人工智能可能接管世界的擔(dān)憂。他的言論引發(fā)了廣泛的討論,關(guān)于AI的未來充滿了不確定性。
Hinton在接受CBS60Minutes采訪時(shí)表示,他擔(dān)心他一生致力于構(gòu)建的技術(shù)可能會(huì)接管世界。他甚至宣稱,"有史以來,人類第一次必須面對(duì)地球上有某物比我們更聰明的現(xiàn)實(shí)"。這一說法引人深思,尤其是CBS主持人Scott Pelley問到是否超級(jí)智能的AI可能會(huì)"接管人類"時(shí)。
圖源備注:圖片由AI生成,圖片授權(quán)服務(wù)商Midjourney
Hinton回應(yīng)道:"我不是說會(huì)發(fā)生,如果我們能阻止它們有這個(gè)愿望,那將是很好的事情。" 但他同時(shí)強(qiáng)調(diào):"但我們不能確定是否能夠阻止它們想要這樣做。"
關(guān)于AI可能如何接管人類的細(xì)節(jié),Hinton推測自主智能體可能會(huì)開始"自行修改"。這是一個(gè)令人擔(dān)憂的問題,他還提到了技術(shù)的"黑盒子"特性,即研究人員對(duì)機(jī)器學(xué)習(xí)算法的實(shí)際運(yùn)作方式缺乏詳細(xì)了解。
他指出,雖然我們對(duì)AI系統(tǒng)學(xué)習(xí)的過程有一個(gè)"很好的"粗略概念,但一旦涉及到復(fù)雜問題,我們就像不了解你的大腦中正在發(fā)生的事情一樣不了解AI的運(yùn)作方式。這是一個(gè)合理的擔(dān)憂,因?yàn)椴还軝C(jī)器的輸出是否在技術(shù)上正確,機(jī)器達(dá)到這一目標(biāo)的路徑仍然很重要。如果人們長時(shí)間以來獎(jiǎng)勵(lì)通過有問題的方式獲得的正確輸出,我們可能會(huì)無意中以可能會(huì)嚴(yán)重失敗的方式訓(xùn)練AI工具。
然而,Hinton的擔(dān)憂并不僅限于AI接管世界的問題。他還擔(dān)憂人類如何濫用AI,包括使用自主AI武器和戰(zhàn)爭機(jī)器人、大規(guī)模替代人類工作和大規(guī)模傳播AI制造的虛假信息等問題。盡管前景看起來令人沮喪,但隨著這個(gè)未知領(lǐng)域的不斷發(fā)展,潛在的威脅,尤其是與人類濫用有關(guān)的威脅,繼續(xù)值得考慮。