英偉達(dá)推出更強大的升級款人工智能芯片 GH200:內(nèi)存是 H100 的三倍
微新創(chuàng)想(idea2003.com) 8月9日消息:英偉達(dá)于周二發(fā)布了一款設(shè)計用于運行人工智能模型的新芯片,以抵擋包括 AMD、谷歌和亞馬遜在內(nèi)的競爭對手在 AI 硬件領(lǐng)域的挑戰(zhàn)。
根據(jù)一些估算,目前英偉達(dá)在 AI 芯片市場占有超過 80% 的份額。該公司專攻圖形處理單元(GPU),已成為支撐生成式 AI 軟件(如谷歌的 Bard 和 OpenAI 的 ChatGPT)的較大型 AI 模型的首選芯片。然而,由于科技巨頭、云服務(wù)提供商和初創(chuàng)公司爭奪 GPU 能力來開發(fā)自己的 AI 模型,英偉達(dá)的芯片供應(yīng)短缺。
英偉達(dá)的新芯片 GH200 與公司目前最高端的 AI 芯片 H100 采用相同的 GPU。但是,GH200 將該 GPU 與 141GB 的尖端內(nèi)存以及 72 核的 ARM 中央處理器配對。
英偉達(dá) CEO 黃仁勛在周二的一次演講中表示:「我們給這個處理器做了增強。」他還補充道:「這個處理器專為全球數(shù)據(jù)中心的規(guī)模而設(shè)計。」
據(jù)黃仁勛稱,這款新芯片將于明年第二季度在英偉達(dá)的經(jīng)銷商處面市,并將在年底前供樣品測試。英偉達(dá)代表拒絕透露價格。
通常,使用 AI 模型的過程分為訓(xùn)練和推理至少兩個部分。
首先,使用大量數(shù)據(jù)對模型進(jìn)行訓(xùn)練,這個過程可能需要數(shù)月時間,有時需要像英偉達(dá)的 H100 和 A100 芯片那樣的成千上萬個 GPU。然后,將模型用于軟件中進(jìn)行預(yù)測或生成內(nèi)容,這個過程稱為推理。與訓(xùn)練一樣,推理需要大量的計算資源開銷,并且每次軟件運行時都需要大量的處理能力,比如生成文本或圖像時。但與訓(xùn)練不同的是,推理幾乎是持續(xù)進(jìn)行的,而訓(xùn)練只有在需要更新模型時才需要進(jìn)行。
黃仁勛表示:「你可以選擇幾乎任何大型語言模型放入其中,它將以令人驚訝的速度進(jìn)行推理。大型語言模型的推理成本將大幅降低。」
英偉達(dá)的新 GH200 芯片專為推理而設(shè)計,因為它擁有更大的存儲容量,可以將更大的 AI 模型放置在一個單獨的系統(tǒng)上,英偉達(dá)副總裁 Ian Buck 在周二與分析師和記者的電話會議上表示。英偉達(dá)的 H100 內(nèi)存容量為 80GB,而新的 GH200 為 141GB。英偉達(dá)還宣布推出了一個將兩個 GH200 芯片結(jié)合成一臺計算機(jī)的系統(tǒng),以運行更大的模型。
Buck 說:「更大的存儲容量使得模型可以常駐在單個 GPU 上,無需多個系統(tǒng)或多個 GPU 來運行。」
此次宣布正值英偉達(dá)的主要 GPU 競爭對手 AMD 最近發(fā)布了自己的 AI 芯片 MI300X,該芯片支持 192GB 的內(nèi)存,被市場推廣為適用于 AI 推理。包括谷歌和亞馬遜在內(nèi)的公司也正在設(shè)計自己的定制 AI 芯片用于推理。