人人人免费人人专区人人,欧美精品不卡,欧美大片无尺码在线观看,久久精品小视频,成人免费黄色大片,欧美+亚洲+精品+三区

Meta 推出基于 token 的全新 AI 圖像生成模型 CM3leon:更高效先進

微新創想(idea2003.com) 7月17日消息:Meta 正在繼續推進對新形式生成式人工智能模型的研究,并公布了最新成果,名為 CM3leon(發音類似于「chameleon(變色龍)」)

圖片來自Meta

CM3leon 是一個用于文本到圖像創建和圖像到文本創建的多模態基礎模型,對于自動生成圖像標題非常有用。

人工智能生成的圖像在當前已經不是新概念,廣泛可用的工具如 Stable Diffusion、DALL-E 和 Midjourney 已經取得了很大成功。

新鮮的是 Meta 正在使用構建 CM3leon 的技術以及 Meta 聲稱該基礎模型能夠實現的性能。

當前文本到圖像生成技術主要依賴 diffusion 模型(Stable Diffusion 的名稱源自此)來創建圖像。CM3leon 則采用了不同的方法:基于 token 的自回歸模型。

Meta 的研究人員在一篇名為《Scaling Autoregressive Multi-Modal Models: Pretraining and Instruction Tuning》的研究論文中寫道:「近年來,由于性能強大且相對計算成本較低,diffusion 模型在圖像生成工作中占據主導地位。相比之下,眾所周知基于 token 的自回歸模型也能產生出色的結果,尤其在全局圖像連貫性方面更好,但訓練和推理的成本要高得多?!?/p>

Meta 的研究人員已經能夠通過 CM3leon 實際演示基于 token 的自回歸模型實際上可以比基于 diffusion 模型的方法更高效。

Meta 的研究人員在一篇博客文章中寫道:「盡管使用的計算資源比之前基于 Transformer 的方法少了五倍,CM3leon 在文本到圖像生成方面實現了最先進的性能。

CM3leon 的基本工作原理在某種程度上與現有的文本生成模型類似。

Meta 的研究人員首先進行了一個檢索增強的預訓練階段。與僅從互聯網上收集公開可用的圖像不同,這種方法已經給基于 diffusion 模型的模型帶來了一些法律挑戰,Meta 選擇了一條不同的道路。

Meta 的研究論文指出:「在文本到圖像生成領域,圖像數據來源的道德影響已經引發了廣泛的討論。在本研究中,我們只使用 Shutterstock 上的經過授權的圖像。因此,我們可以避免與圖像所有權和歸屬相關的擔憂,同時不會犧牲性能。

在預訓練之后,CM3leon 模型經過一階段有監督微調(SFT),Meta 的研究人員聲稱這種方法產生了高度優化的結果,無論是資源利用還是圖像質量。SFT 是 OpenAI 用于訓練 ChatGPT 的一種方法。Meta 在研究論文中指出,SFT 用于訓練模型理解復雜提示,在生成任務中非常有用。

論文中指出:「我們發現,指導調整顯著提高了多模態模型在圖像標題生成、視覺問答、基于文本的編輯和條件圖像生成等各種任務中的性能?!?/p>

通過查看 Meta 在關于 CM3leon 的博客文章中分享的生成圖像樣本集,結果令人印象深刻,清楚地顯示了模型理解復雜的多階段提示,從而生成了分辨率極高的圖像。

目前,CM3leon 仍然是一個研究項目,尚不清楚 Meta 是否會在其平臺的一個服務中公開提供這項技術。鑒于它的強大性能和更高的生成效率,CM3leon 及其生成式人工智能方法有可能超越研究階段最終得到應用。

您可能還喜歡...

發表回復

您的郵箱地址不會被公開。 必填項已用 * 標注