連獲硅谷頂級VC兩輪融資,Replicate指數級降低AI模型部署和使用成本
連續創業者與資深人工智能專家聯手,讓普通軟件工程師也能玩轉大模型
編者按:本文來自微信公眾號 阿爾法公社(ID:alphastartups),作者:阿爾法公社,微新創想經授權發布。
上周,Meta發布了大語言模型Llama 2,它的能力相比前作增長不少,但其最大的意義在于開源和開放商用,這讓有志于在自己業務中使用生成式AI能力的創業者們節省了99%的大語言模型訓練算力時長成本。他們只需花費1%的算力時長,就可以在開源可商用的大語言模型上微調出符合自己行業需求的模型。這從根本上降低了大模型創業的準入門檻。
在生成式AI創業從基礎大模型轉向垂直應用的趨勢下,有不少創業公司致力于幫助應用側的客戶和用戶以盡量低的成本使用大語言模型的能力,Replicate就是這個方向上的一家典型公司。它打造了一個開源的AI模型托管云平臺,幫助中小企業實現模型的快速交付,用戶可以在平臺上部署,微調AI模型,還能根據業務量快速擴展自己的模型。
Replicate在2023年2月和7月分別完成了兩輪融資,2月,它獲得由a16z領投的1250萬美元A輪融資,7月,又獲得3200萬美元的新融資(投資者未披露),它的其他投資者還包括紅杉資本,Y Combinator以及Andrej Karpathy(OpenAI科學家),Richard Socher(You.com創始人),Solomon Hykes(Docker創始人),Thomas Dohmke(GitHub CEO)等,可以看出,這家公司受到了硅谷頂級投資機構和企業家們的集體青睞。
連續創業者與資深人工智能專家聯手,讓普通軟件工程師也能玩轉大模型
在計算領域,其實很少有新的基礎構件,應用程序本質上都是網絡、存儲和計算的某種組合。但是像Stable Diffusion和ChatGPT這樣的視覺或語言大模型卻真的代表了一個全新的基礎構件。將這些大模型整合到軟件中,開發者可以實現包括文本,視覺,語音等多模態內容的生成,這在以前是不能實現的。這種轉變的級別不僅是將軟件從PC轉移到移動設備(iPhone帶來的轉變),而是代表一種全新類型的軟件。
大模型的能力毋庸置疑的強大,但是普通軟件開發者將AI大規模運行到生產環境中時,仍面臨一系列難題:如何托管模型,模型出問題時該怎么辦,以及如何隨著時間推移構建模型的差異化——針對大模型的清晰抽象和簡單工具還沒有誕生。
Replicate的兩位聯合創始人Ben Firshman和Andreas Jansson,從頭像就可看出他們的極客范兒。
Replicate的兩位聯合創始人Ben Firshman(CEO)和Andreas Jansson(CTO)想要解決這個問題,而他們也有經驗和技術基因去解決它。
Ben Firshman是一位連續創業者,Replicate是他第4次創業,他在Docker擔任產品總監時設計了Docker Compose,現在這個工具被數百萬開發者使用,他對開發者體驗有著超乎尋常的理解力。
Andreas Jansson曾擔任Spotify的高級機器學習工程師,他具備大規模部署AI模型的經驗,并從0設計過創新的AI工具。
“對于軟件工程師,AI目前還太難用,你必須對AI具有非常深刻的認識。整個軟件行業都受到了機器學習專家短缺的阻礙(約3000萬軟件工程師對比約50萬機器學習工程師)。我們讓軟件工程師可以在沒有任何經驗的情況下,只需幾行代碼就可以使用AI的能力,這樣他們就可以構建帶有AI的產品,并將其應用到業務上。”Firshman在談到創業初衷時這樣說。
Replicate的種子輪和A輪投資人,紅杉資本合伙人Stephanie Zhan則表示:“Replicate提供了一種簡單、快速的方式,讓任何人都可以在云上運行生成式AI模型。開發者不必為GPU煩惱,也不必為昂貴的AWS付費,他們只需要一行代碼就可以在云中部署AI模型,按秒計費。
除了在開源生態系統中使用最好的模型,Replicate的平臺還允許公司運行自己的定制模型,它會自動打包、優化并部署這些模型——將過程從幾周縮短到幾分鐘,并減少對基礎設施團隊幫助的需求。
我們很高興能通過這輪A輪融資深化與Ben和Andreas的合作,AI將是下一個十年最重要的主題——由數據規模、生成式AI模型的新技術突破和計算的進步推動——而在這個軟件2.0世界的基礎設施堆棧被編寫的過程中,我們相信Replicate將扮演一個基礎的角色?!?/p>
一個云平臺,讓AI模型部署時間從幾周降到幾分鐘
Replicate的核心產品理念是,所有開源AI模型都應該能在一個地方找到,并且易于使用。開發者應該能在沒有任何機器學習工作、托管設置的情況下,立即啟動并運行大語言模型。將幾個模型組合成一個管道應該很容易。并且,當應用程序規模擴大時,開發者應該能夠使用簡單的工具進行微調并托管自己的模型。
Replicate的產品是一個開源的AI模型托管云平臺,它的幾個主要功能是:
現有大模型的整合與引入
企業用戶可以使用幾行代碼就在平臺上運行機器學習模型,而無需了解任何機器學習的工作原理。
針對需求相對簡單的用戶,Replicate提供了上千個不同的AI模型在線使用或者簡便地導入到自己的程序中,包括語言模型、視頻創作與編輯、超分辨率、圖像修復、圖片轉文字、文字轉圖像等六大功能,最火爆的模型已經被在線使用了超過9000萬次。
針對需求更高的深度用戶,他們可以借助Replicate的模型庫以及Next.js和Vercel等工具開發自己的項目。截止目前,已經有很多AI工程師使用Replicate來制作自己的項目,例如將開源基礎大模型進行特定方向的微調(目前開發者們已經能在Replicate平臺上微調 Llama 2大模型),其中優秀項目包括roomGPT、 Scribble Diffusion等。
幫助用戶部署人工智能大模型
部署人工智能大模型模型的傳統方法是,開發人員必須先將模型及其支撐組件手動打包到軟件容器中,然后再部署。Replicate 開發了一種名為Cog的開源工具,簡化了這項任務。
Cog目前內嵌在Replicate的云平臺中,用戶可以通過比以往更少的定制化工作來配置容器。用戶在云平臺僅通過幾行代碼就能運行特定的AI模型,整個過程只需要幾分鐘,與以前的部署方法相比是指數級的下降。
Replicate不僅提供了云平臺,還給出了非常詳細的模型部署教程。目前,cog在GitHub上獲得了超過5200顆星。
幫助快速擴展人工智能模型規模
對于中小企業,大規模部署機器學習模型不止會遇到cog解決的部署問題,同樣關鍵的問題是如何擴大其規模以達到商用標準。在擴大規模的時候,要處理的問題涵蓋API服務器、依賴關系、模型權重、CUDA、GPU、批處理等。
當用戶在Replicate平臺上部署機器學習模型,平臺可以從硬件和軟件兩個層面幫助其擴展規模。
軟件上,用戶既可以使用現成的開源模型,也可以大規模部署自定義私有模型——只要使用Cog定義的模型,Replicate都可以自動為其生成可擴展的API服務器,并部署在大型GPU集群上。
當用戶部署的模型獲得大量流量時,Replicate會自動擴展模型以滿足需求。如果部署的模型沒有獲得任何流量,replicate就會將規模縮減至零,并且不會向用戶收取任何費用。
硬件上,Replicate目前提供七種不同級別的硬件設施以供用戶部署其模型,平臺會以秒級別的精度計算用戶的部署時間并計費,價格區間在0.0002美元/秒至0.00471美元/秒之間。同時,平臺還支持對于合規性、安全性或對SLA(服務等級協議)有特定需求的企業級客戶提供定制軟硬件解決方案。
更低的進入門檻讓AI應用創業迎來春天
我們曾經說過,得人才者得模型,得模型者得天下, 現在再加一句,產品致勝。把模型訓練、服務產品化, 靠產品化實現規模化、低成本,是AIGC創業的王道。
此前,Llama 2幫助創業者節省了99%的訓練模型算力時長,Replicate這樣的創業公司又幫助創業者把模型部署的時間成本降低了99%,再加上99%的企業需要第三方模型服務,這些都是創業的機會。
當然,Replicate并不是唯一幫助企業降低AI使用準入門檻的,像Hugging Face(它已經是估值20億美元的獨角獸)和OctoML等公司也在做類似的事。而且不知是巧合還是必然,這三家公司都來自開源社區。這些來自開源社區的創業者,更理解開發者們的痛點,也更具有開源精神,能夠打造真正符合開發者需求的產品和平臺。
隨著Llama 2對于開發和商用的開源,利用AI大模型的能力做垂直應用的公司將如雨后春筍般涌現出來,而幫助它們降低使用AI大模型能力門檻的公司,使這些AI應用創業公司們更早迎來春天。
本文為專欄作者授權微新創想發表,版權歸原作者所有。文章系作者個人觀點,不代表微新創想立場,轉載請聯系原作者。如有任何疑問,請聯系http://www.i0562.net/。