英偉達為 GH200 超級芯片帶來 HBM3e 解決生成式人工智能瓶頸
微新創想(idea2003.com) 8月11日消息:不到一年時間,生成式人工智能已經成為企業計算的主導影響力,因此處理器創新也需要快速推進。英偉達在宣布其新的 GH200 超級芯片(DGX GH200 超級計算系統的基礎)不到三個月后,已經對 GH200 進行了「提升」。
英偉達聯合創始人、總裁兼首席執行官黃仁勛在本周 SIGGRAPH 2023 上發布了該芯片的「下一代」版本,具備更強大的內存功能。
黃仁勛在演講中說:「經過 12 年來對人工智能的研究和開發,一個巨大的事情發生了:生成式人工智能時代來臨了,這是 AI 領域的 iPhone 時刻。現在我們可以在很多不同應用中享受人工智能技術。革命性的 Transformer 模型使我們能夠從大量數據中學習跨越廣闊空間和時間范圍內找到模式和關系,并學習幾乎任何有結構物體… 我們可以生成幾乎任何有結構物體,并用自然語言指導它?!?/p>
他補充道:「數十億美元正在投資于追求基于生成式人工智能想法的各行各業公司?!乖S多由越來越大的 AI 模型推動的發展,將需要更高的內存性能。
盡管英偉達在今年 5 月的 Computex 上宣布并已投產 GH200 Grace Hopper 超級芯片具備 HBM3 內存處理器,但最新版本預計將于 2024 年第二季度開始生產,并配備更快速的 HBM3e 處理器。黃仁勛在 SIGGRAPH 的主題演講中表示:「我們將使用全球最快速度的內存——HBM3e 來提升這款處理器?!?/p>
HBM3e(其中「e」代表「進化」)是基于多家公司正在推進的 HBM3 Gen 2 技術而開發出來,據信未來幾年將被廣泛采用以滿足不斷增長的 AI 模型對內存需求。事實上,在英偉達發布此消息僅兩周后,美光科技就宣布了一項關于 HBM3 Gen 2 內存更新方面的消息。當時英偉達負責超大規模和高性能計算部門副總裁 Ian Buck 也發表了評論:「我們與美光有著長期合作歷史,在各種產品上都進行過密切合作,并且很愿意與他們共同推動 HBM3 Gen2 以加速人工智能創新?!?/p>
當被問及英偉達是否直接與美光合作使得下一代 GH200 搭載 HBM3e 時,該公司發言人通過電子郵件回答說:「我們與領先的內存供應商密切合作。我們今天不會透露具體的供應商?!?/p>
黃仁勛表示,HBM3e 內存比當前的 HBM3 快 50%,提供總共 10TB/s 的組合帶寬,使新款 GH200 平臺配備 282GB HBM3e 內存能夠運行比之前版本大 3.5 倍的模型,并且通過更快速度的三倍內存帶寬提高性能。
GH200 還可以通過 NVIDIA NVLink 與其他 Superchip 連接在一起,以部署用于生成式人工智能的巨型模型。根據公司聲明,在雙配置下,這種高速、協同技術使 GPU 完全訪問 CPU 內存,提供 1.2TB 快速內存組合。新版本與 5 月份在 Computex 上發布的 NVIDIA MGX 服務器規范完全兼容,這意味著制造商可以輕松地將其添加到許多不同的服務器版本中。