下一代人工智能超級(jí)計(jì)算機(jī)即將上線 將推動(dòng)生成式AI大模型的發(fā)展
微新創(chuàng)想(idea2003.com)7月28日 消息:隨著 Cerebras、Inflection、亞馬遜和其他公司推出新硬件,下一代人工智能超級(jí)計(jì)算機(jī)將可用于新的生成式人工智能模型。
大型語(yǔ)言模型和其他類型的生成人工智能的使用正在迅速增長(zhǎng)。通過ChatGPT、Bard、Copilot等,現(xiàn)在幾乎每個(gè)數(shù)字生態(tài)系統(tǒng)中都有聊天機(jī)器人,其中GPT-4等模型仍然處于領(lǐng)先地位。但下一代生成式人工智能模型即將出現(xiàn)。為了訓(xùn)練這些復(fù)雜的人工智能系統(tǒng),科技公司正在構(gòu)建新一代人工智能超級(jí)計(jì)算機(jī)。
Cerebras 推出2Exaflop 超級(jí)計(jì)算機(jī)
新一代的一個(gè)例子來自 Cerebras,該公司剛剛推出了其 Condor Galaxy1系統(tǒng),具有2Exaflops 的能力。它僅用了10天就組裝完畢并投入運(yùn)行,由32臺(tái) Cerebras CS-2計(jì)算機(jī)組成。據(jù)該公司稱,Condor Galaxy 的規(guī)模有望在未來12周內(nèi)擴(kuò)大一倍。它的所有者是 G42,一家總部位于阿布扎比的控股公司,擁有9家人工智能公司,其中包括中東最大的云計(jì)算提供商之一 G42Cloud。
在接下來的18個(gè)月內(nèi),Cerebras 計(jì)劃安裝更多系統(tǒng),以在9個(gè)安裝中達(dá)到36Exaflops。這將使其成為專注于人工智能工作負(fù)載的最大超級(jí)計(jì)算機(jī)之一。
云提供商提供對(duì) Nvidia H100GPU 的訪問
除了 Inflection 之外,每個(gè)主要云平臺(tái)都推出了由 Nvidia H100GPU 提供支持的新實(shí)例。就在昨天,AWS 推出了 P5實(shí)例,最多可運(yùn)行20,000個(gè) H100GPU。Microsoft Azure、Google 和 Core Weave 提供類似的硬件。
通過輕松訪問擴(kuò)展資源,開發(fā)人員可以快速構(gòu)建生成式 AI 應(yīng)用程序原型,因?yàn)槭褂?Transformer 引擎的 H100的訓(xùn)練時(shí)間可以大大減少。在 MLPerf 基準(zhǔn)測(cè)試中,Core Weave 和 Nvidia 最近在不到11分鐘的時(shí)間內(nèi)在約3,500個(gè) GPU 上訓(xùn)練了一個(gè)具有1750億個(gè)參數(shù)的GPT-3模型。