人人人免费人人专区人人,欧美精品不卡,欧美大片无尺码在线观看,久久精品小视频,成人免费黄色大片,欧美+亚洲+精品+三区

AI加速器產(chǎn)品提供商Celestial AI獲得1億美元B輪融資 共籌集1.65億美元

站長之家(ChinaZ.com)7月5日 消息:日前,人工智能加速器產(chǎn)品提供商Celestial AI宣布成功完成B輪融資,為其Photonic Fabric技術(shù)平臺籌集了1億美元。此次投資由IAG Capital Partners、Koch Disruptive Technologies(KDT)和淡馬錫旗下的Xora Innovation基金領(lǐng)投。

其他參與投資者者包括三星Catalyst、Smart Global Holdings(SGH)、Porsche Automobil Holding SE、The Engine Fund、ImecXpand、M Ventures和Tyche Partners。

據(jù)Celestial AI表示,他們的Photonic Fabric平臺在光學(xué)連接性能方面取得了重大突破,超越了現(xiàn)有技術(shù)。該公司總共從種子融資到B輪融資共籌集了1.65億美元。

先進的人工智能(AI)模型,如廣泛使用的ChatGPT和推薦引擎的GPT-4,需要指數(shù)級增加的內(nèi)存容量和帶寬。然而,云服務(wù)提供商(CSP)和超大規(guī)模數(shù)據(jù)中心面臨由內(nèi)存擴展和計算之間的相互依賴引起的挑戰(zhàn)。電氣互連的局限,如帶寬受限、高延遲和高功耗,阻礙了AI業(yè)務(wù)模型的發(fā)展和AI的進步。

為了解決這些挑戰(zhàn),Celestial AI與超大規(guī)模計算、AI計算和存儲提供商合作,開發(fā)了Photonic Fabric。這種光學(xué)互連技術(shù)設(shè)計用于分散式的百億億次計算和內(nèi)存集群。該公司聲稱,其專有的光計算互連(OCI)技術(shù)可以實現(xiàn)可擴展的數(shù)據(jù)中心內(nèi)存解聚,并實現(xiàn)加速計算。

Celestial AI的首席執(zhí)行官Dave Lazovsky表示:“未來的關(guān)鍵問題是大語言模型(LLMs)和推薦引擎工作負載的內(nèi)存容量、帶寬和數(shù)據(jù)移動(芯片與芯片之間的互連)。我們的Photonic Fabric技術(shù)允許您將光子學(xué)直接集成到硅晶片中。一個關(guān)鍵優(yōu)勢是我們的解決方案可以將數(shù)據(jù)傳遞到硅晶片上的任何點,以進行計算。競爭解決方案如CPO(Co-Packaged Optics)無法做到這一點,因為它們只能將數(shù)據(jù)傳遞到晶片邊緣。”

Lazovsky聲稱,Photonic Fabric通過提供顯著增加的帶寬(1.8Tbps/mm2)和納秒級的延遲成功解決了挑戰(zhàn)性的內(nèi)存墻問題。因此,該平臺提供了完全基于光的計算與計算、計算與內(nèi)存之間的連接。Lazovsky表示,隨著數(shù)據(jù)中心內(nèi)傳輸?shù)臄?shù)據(jù)量增加,數(shù)據(jù)傳輸速率也必須提高。他解釋說,隨著這些速率的增加,電氣互連會遇到諸如信號保真度損失和有限帶寬的問題,無法隨數(shù)據(jù)增長而擴展,從而限制了整體系統(tǒng)吞吐量。

Celestial AI表示,Photonic Fabric的低延遲數(shù)據(jù)傳輸促進了與傳統(tǒng)電氣互連相比連接和解聚更多服務(wù)器的能力。這種低延遲還使得延遲敏感的應(yīng)用可以利用遠程內(nèi)存,這在傳統(tǒng)電氣互連中以前是無法實現(xiàn)的。

Celestial AI旨在簡化大語言模型(如GPT-4)、PaLM和深度學(xué)習(xí)推薦模型(DLRM)等企業(yè)計算。這些模型的參數(shù)數(shù)量范圍從1000億到1萬億以上。

Lazovsky解釋說,由于AI處理器(GPU、ASIC)具有有限的高帶寬內(nèi)存(32GB到128GB),目前企業(yè)需要連接數(shù)百到數(shù)千個這些處理器來處理這些模型。然而,這種方法會降低系統(tǒng)效率并增加成本。他補充說:“通過提高每個處理器的可尋址內(nèi)存容量和高帶寬,Photonic Fabric允許每個處理器存儲和處理更大的數(shù)據(jù)塊,減少了所需處理器的數(shù)量。提供快速的芯片與芯片連接允許連接的處理器更快地處理模型,提高吞吐量同時降低成本。”

Celestial AI表示,本輪融資所籌集的資金將用于加速Photonic Fabric技術(shù)平臺的產(chǎn)品化和商業(yè)化,通過擴大Celestial AI的工程、銷售和技術(shù)營銷團隊。Lazovsky還稱:“由于大語言模型(LLMs)的增長以及它對當(dāng)前數(shù)據(jù)中心架構(gòu)的壓力,需求迅速增加,需要光學(xué)連接來支持從通用計算數(shù)據(jù)中心基礎(chǔ)架構(gòu)向加速計算的轉(zhuǎn)變。我們預(yù)計到2023年底,員工人數(shù)將增加約30%,達到130人。”

您可能還喜歡...

發(fā)表回復(fù)

您的郵箱地址不會被公開。 必填項已用 * 標注