人人人免费人人专区人人,欧美精品不卡,欧美大片无尺码在线观看,久久精品小视频,成人免费黄色大片,欧美+亚洲+精品+三区

探索創造力的邊界,AIGC如何重塑創意世界?

8月30日,由微新創想主辦的2023AIGC技術應用大會在深圳舉行。本屆大會以“元載萬物·智啟新界”為主題,旨在聚焦AIGC技術的創新應用,打造深入探索AIGC產業落地的交流平臺。

會上,加拿大工程院外籍院士、HiDream.ai創始人兼CEO梅濤先生發表《AIGC 掀起未來創意無限可能》主題演講,精彩觀點如下:

1. 我們用AI輔助動漫生成,并非想取代電影工業,而是希望通過 AI 的手段激發創作者的潛力和想象力,提高生產力,進一步降低成本。

2. 預計在 2025 年到 2026 年之間, AI 輔助創作的圖片和視頻的數量將會超過人類自己創作出的數量,這也就意味整個數字創意會被AIGC 所賦能。

3. 類似于自動駕駛,我們將AIGC的視覺創作能力可以分為5個檔次,目前仍處于從 L2 邁進 L3 的關鍵階段,未來還有很大發展空間。

4. 在AIGC涌現的時代,我們希望和有勇氣的創業者一起,構建良好的生態,推動行業的發展。

以下為演講/對話內容,由微新創想整理:

非常榮幸參加微新創想的活動,我今天將與大家探討生成式人工智能在數字創意方面的可能性及技術發展趨勢。

首先,我展示一部短片,這部短片是我們與北京電影學院的老師共同合作,其中所有的視頻、畫面、運鏡都是由我們HiDream.ai 的創作工具Pixeling 生成的,沒有用到任何第三方軟件。

用人工智能生成一部影片,大概分為以下幾步:腳本分鏡關鍵幀鏡頭生成視頻合成。相比于人工,借助AI工具制作影片的優勢非常明顯,一個人一到兩個星期就可以完成;而若單純依靠人工制作這樣一部作品,從選角、場景到導演等環節,則至少需要一個月的時間。

AIGC重塑創意世界

我們用AI輔助動漫生成,并非想取代電影工業,而是希望可以提高效率、降低成本、提升創作體驗今天聚焦視覺AIGC話題,我首先和大家分享兩個故事。

第一個故事是,一張AIGC生成的圖片,曾在去年登上美國一家著名的時尚雜志封面。在這張照片中,“在浩瀚的宇宙中,一位女性宇航員在火星上,昂首闊步地走向一個廣角鏡頭”所有關鍵詞都被完美展現出來,而人類繪制一張這樣的圖,至少要花費一兩個星期的時間。

另一個大家耳熟能詳的故事是,一幅由人工智能工具生成的油畫作品,獲得了柯羅拉多州州立美術大獎,盡管引起了很多爭議。

以上兩個故事都在傳遞一個信號:AI 賦能藝術創作是大勢所趨。下圖所展示的數據也做出了預測↓

文藝復興時期,人類創造了幾十萬幅繪畫作品,但是留存下來的作品數量不到十萬。現在,人類每天在社交平臺上傳的圖片和視頻的數量超過十億。

在 2025 年到 2026 年之間, AI 輔助創作的圖片和視頻的數量將會超過人類自己創作出的數量,這也就意味整個數字創意會被AIGC 賦能。

以世界名畫《戴珍珠耳環的少女》為例,17 世紀荷蘭畫家約翰內斯·維米爾花了很長時間來創作這樣一幅作品。但在今天,AI 可以將這位少女置身于廚房、咖啡店、沙灘等不同場景,大大豐富了原作之外的畫面想象力。

生成式人工智能藝術創作的發展現狀及未來

類似于自動駕駛,我們將AIGC視覺能力和創作能力分為5個檔次:純人工編輯→創意創作工具→部分生產力創作工具→完全生產力創作工具→設計大師。目前我們仍處于從 L2 邁進 L3 的關鍵階段,未來還有很大發展空間。

事實上,從創意素材產生到進入整個工作流,還有很長的路要走。視覺生成領域要想創造出令人驚艷的作品,還面臨很多挑戰。

首先,在細節方面,我們經常會遇到“恐怖谷效應”,特別是手指,剛才在短片中,如果大家仔細觀察,會發現手指控制其實并不理想。

第二個難題是,究竟應該用什么樣的prompt 才能發揮大模型的威力。

第三個難題是可控性問題,包括IP可控、人物可控和SKU可控。此外,在視頻制作中,還面臨不同鏡頭之間的連續性問題等諸多挑戰。

那么,視覺AIGC未來的想象空間到底有多大?有預測稱,GPT-4可能已經達到了1.2萬億個參數,而GPT-5可能會更大。如果機器學習技術能夠在未來幾年,吸收和理解人類產生的高質量語言數據,這種增長可能會迎來一個新的天花板。

圖片中紅色部分是視覺AIGC能力表現,無論是Imagen還是Stable Diffusion,模型參數基本在幾十億,處于GPT-2的時代。我們想突破這個瓶頸,探索一個基于視覺的多模態底層大模型,能讓視覺 AIGC從GPT-2時代進入到GPT-3時代。目前,我們自研的基礎模型的數據量級已經達到60億,我相信,很快也將達到百億模型的目標。

Pixeling:掀起未來創意無限可能

HiDream的產品Pixeling工具基于自研的生成式視覺多模態基礎模型而打造,支持各種不同模態之間的轉換,不僅支持文生圖、文生視頻、視頻編輯,還將支持圖片編輯、圖生視頻、圖生 3D 等功能。以圖片素材的生產的為例,涵蓋品牌調性、版權圖片、材質特寫、模特換裝、商品攝影等多種類型,目前有 16 種不同的圖片風格可供選擇。

Pixeling還支持文本生成視頻以及圖片生成視頻,包括大家在影片中看到的最難場景是一個宇航員在月球上行走的全景畫面,他還能夠轉一個彎,這其實是有難度的。除了背景運動外,我們還實現前景運動、人物運動和運鏡。此外,我們的產品最近在學習鏡頭語言,包括鏡頭構圖、運鏡和剪輯等,希望為從業者提供一個更加節省時間,提升效率的創作工具。

在電商領域,Pixeling 能夠根據用戶提供的 SKU 圖片,結合給定的 prompt 和背景圖生成與背景無縫銜接的商品圖片;如果用戶沒有給定背景圖,我們也可以根據給定的 SKU 圖片結合輸入的多種 prompt 生成對應的商品圖,幾秒鐘就可以完成。

產品問世不久,我們參加了香港中文大學發布的 HPS v2的文生圖模型客觀評測。該評測把包含繪畫風格、概念藝術、動漫風格以及真實圖片在內的 3200個prompt分別放在不同文生圖模型里去驗證。Pixeling1.0版本的模型上線和模型訓練僅用了大約三個月時間,經過我們的測試,目前在該數據集的文生圖模型中排名第二。

當然,Pixeling1.0版本現在的表現與最好的競品還是稍遜一籌,但它終究是三個月的baby,我相信它未來一定會成長得更好。十分贊同其他嘉賓提到的AIGC“落地為王”觀點,這也是我們今后努力的方向。

在AIGC涌現的時代,我們希望和有勇氣的創業者一起,構建良好的生態,推動行業的發展。

再次感謝大家!

您可能還喜歡...

發表回復

您的郵箱地址不會被公開。 必填項已用 * 標注