企業(yè)客戶使用 ChatGPT 通常會根據自己的具體需求進行技術定制,應用范圍從根據在線交易數據識別金融欺詐到根據內部文件回答關于特定市場的問題。根據報道,這類模型的開發(fā)者可以通過 OpenAI 提議的市場將其提供給其他企業(yè)。
據報道,OpenAI 首席執(zhí)行官 Sam Altman 在上個月倫敦與開發(fā)者會面時透露了這個潛在計劃。
這樣的應用商店可能與一些公司的客戶和技術合作伙伴經營的應用商店競爭,包括 Salesforce 和微軟,并幫助 OpenAI 的技術觸達更廣泛的客戶群體。
The Information 還報道稱,該公司的兩個客戶 Aquant 和 Khan Academy 可能有興趣在 OpenAI 的市場上提供基于 ChatGPT 的 AI 模型,Aquant 開發(fā)了用于指導客戶進行設備維護和修理的軟件,而 Khan Academy 是一家教育應用開發(fā)商。
自去年底發(fā)布以來,數百家企業(yè)已經采用 ChatGPT 來自動化任務并提高效率。公司們也在競相為客戶提供基于這一 AI 軟件的先進大型語言模型(LLM)的新工具和能力。
]]>
「例如每家大公司都有一批專門負責閱讀和審查合同以確認收入的人,」Lightcap 說:「這種崗位未來可能就沒有了。」Lightcap 還表示,由于把繁瑣的工作交給了 AI,員工們每天能節(jié)省出一小時,也會因此變得更高效,「我認為這種生產力的爆炸將變成現實。」
Lightcap 指出,雖然 AI 模型擅長完成任務,但也需要人們把任務分配給 AI,其工作結果也需要查驗,「人們將更多地從事指揮協調的工作。」
此前 OpenAI 首席技術官 Mira Murati 表示,正帶領 OpenAI 努力將 ChatGPT 定位為一個獨立的產品,尋找利用其在數千萬消費者中的受歡迎程度的方法。
Murati 的團隊已經開始為 ChatGPT 提供商業(yè)訂閱服務的工作,使客戶能夠根據特定目的定制 ChatGPT 的版本。
]]>昨天,聯絡互動董事長、新蛋董事局主席何志濤受訪表示:“聯絡互動是A股上市的第 一家互聯網公司,而Newegg則是北美最 受歡迎的科技類電商,兩者對高科技的敏感度,是內嵌在企業(yè)發(fā)展的基因里的。”
據何志濤介紹, Newegg新蛋已接入OpenAI Api接口,電商平臺ChatGPT相關應用功能已陸續(xù)完成上線,后續(xù)公司將不斷推進技術研發(fā)和功能優(yōu)化,使得商品推薦更具人性化和可讀性,提高用戶體驗,為公司電商業(yè)務降本增效。
如今,平臺將 ChatGPT 用于:PC Builder 購物工具、新蛋網站文本內容優(yōu)化、客服聊天、客戶電子郵件主題優(yōu)化、搜索引擎優(yōu)化等功能。
以新蛋智能工具PC Builder為例:基于 AI 的搜索功能,客戶能將想要的 PC 屬性輸入到 ChatGPT 的搜索欄中,獲得 PC 組件配置的評估和推薦。新蛋推薦的組合方案包括PC 用途、處理器、顯卡和價格范圍等內容。
目前,新蛋的PC Builder已經為超過 20 萬用戶生成PC個性定制方案。如果用戶對推薦方案不滿意,可刷生成新的方案直到滿意為止。而過往的推薦方案用戶也可以在歷史記錄中找到并重新調去。據介紹,這一過程將成為AI的學習素材,以便加速優(yōu)化新蛋PC Builder的智能推薦。
當然,新蛋作為以亞馬遜為競爭目標的全球綜合類網站,這一智能化選購方案如今也應用在了家居品類的Home Showcase上。平臺通過大數據運算推薦產品組合,并同步通過 Stable Diffusion AI繪制圖片,為客戶展示產品功能。
創(chuàng)業(yè)至今,何志濤一直對前沿技術保持高度的敏感與超前的戰(zhàn)略眼光。他表示,新蛋已經與AMD,英特爾,聯想、微軟、英偉達等許多全球知名的技術產品商保持著廣泛和長期的合作關系。 2023 年,新蛋將繼續(xù)通過AI人工智能開發(fā)更多的創(chuàng)新應用,以確保平臺在全球的領先性。
]]>聲明:本文來自于微信公眾號 德外5號(ID:dewaiwuhao),作者:婁立原,授權站長之家轉載發(fā)布。
隨著國內大廠紛紛加碼大模型,AI技術的熱度仍在持續(xù)升溫。類ChatGPT產品給傳媒業(yè)帶來的沖擊,不亞于互聯網的出現。
根據世界報業(yè)和新聞出版協會(WAN-IFRA)的最新報告,已有49%的新聞機構在使用生成式AI技術,但只有五分之一的媒體制定了相應的指導方針。
隨著AI技術不斷迭代并滲透到包括傳媒在內的各個行業(yè)中,如何高效且合規(guī)地應用這項技術已變得非常緊迫。因此,《Gazeta Wyborcza》報社、《連線》雜志、路透社等外媒所制定的相關指導方針,或能帶給我們一些新的啟發(fā)和思考。
源于一項生成式AI測試
Boleslaw Breczko是波蘭最大的新聞媒體之一《Gazeta Wyborcza》報社的一名記者。今年4月初,他使用ChatGPT撰寫了一篇題為《馬斯克 vs OpenAI:創(chuàng)造新的人機界面競賽》的文章,并署上自己的名字在報社網站上發(fā)布。
兩周后,他撰寫了一篇反思的文章《還需要記者嗎?我的上一篇文章是ChatGPT寫的》,揭示了他們進行的一項實驗,即測試讀者和編輯是否能夠分辨文章作者是人類還是生成式AI。
通過實驗,他們發(fā)現盡管ChatGPT被投喂了多篇Breczko的作品并要求模仿Breczko的風格,但其寫作質量仍遠不及人類記者。Breczko邀請了幾位被蒙在鼓里的記者和編輯同事進行盲測,結果他們發(fā)現這篇文章存在許多低級錯誤,如糟糕的文風和上下文不連貫。
當Breczko公開實驗結果時,編輯部所有人都松了一口氣,也更加堅信生成式AI暫時取代不了媒體人。但Breczko認為ChatGPT將來能勝任寫作任務,現階段已對依賴新聞報道和開源消息撰寫文章的記者造成威脅。
他認為雖然AI提供便利的同事,也帶來了新的威脅,即用戶會盲目地相信AI提供的信息,即使它的答案可能基于不正確的信息或完全是編造的。
實際上,今年1月,《Gazeta Wyborcza》已經組建了一個由60多人組成的研究團隊,以推進生成式AI技術的應用。經過一段時間的測試,團隊制定了兩條使用ChatGPT的規(guī)則:禁止將其作為文本寫作工具或者信息來源,禁止與ChatGPT共享機密內容,以保證信息安全。
《Gazeta Wyborcza》旗下網站Wyborcza.pl的副主編Aleksandra Sobczak提到,研究團隊曾經考慮使用AI生成圖像作為少量新聞文章的配圖。由于AI在借鑒其他藝術家作品生成圖像時存在道德風險,所以最終放棄了這一決定。
然而,Sobczak不排除在將來使用AI生成文章。她表示現在要定義AI如何影響媒體市場和未來還為時過早,但新聞媒體必須學習如何有效使用AI以及如何報道AI。技術變化非常快,媒體必須不斷嘗試,保守的態(tài)度會導致落后。Sobczak還強調AI會導致假新聞泛濫,因此許多人求助于重視新聞可靠性的傳統(tǒng)媒體,堅守新聞質量是媒體使用這種工具的紅線要求。
謹慎而積極的態(tài)度
世界著名科技月刊《連線》近期發(fā)表了一篇文章,來闡明其使用生成式AI工具的方式,明確編輯將會使用這些工具做什么和不做什么。《連線》雜志希望能夠站在新技術的前沿,同時保持適當的謹慎和符合倫理規(guī)范。《連線》的規(guī)范主要分為文本生成器和圖像生成器兩個方面。
使用文本生成器(如LaMDA、ChatGPT)的規(guī)則如下:
一是不會發(fā)布帶有AI生成文本的故事,除非AI是故事的重點。
二是不會發(fā)布AI編輯的文本,因為文本編輯需要人工判斷。
三是可以嘗試使用AI生成標題或社交媒體的短文,但是需要人工審核通過。
四是可以嘗試使用AI生成故事創(chuàng)意,但是需要人工評估。
五是AI可以作為研究或分析工具,但是應保持與傳統(tǒng)研究相同標準。
使用圖像生成器(如Dall-E、Midjourney、Stable Diffusion)的規(guī)則如下:
一是在某些限制條件下可以發(fā)布AI生成的圖像或視頻。
二是不用AI生成的圖像代替圖庫中的攝影師作品。
三是可以用AI工具來激發(fā)創(chuàng)意,但是還要用普通方式創(chuàng)建原始圖像。
長期而必要的探索
路透社170年歷史上第一位女主編亞歷山德拉·加洛尼(Alessandra Galloni)在今年3月份與倫理編輯Alix Freedman聯合制定了AI的4項使用原則,并以“確保記者能夠有效地利用該技術,同時保持全球最受信任的新聞機構之一的聲譽”為目標。
原則一,她指出,路透社一直“擁抱新技術”,包括使用自動化工具獲取并分析重要的經濟和企業(yè)數據。“自動化新聞對一些媒體來說可能是一個新的概念,但它已經是路透社一項長期而必要的實踐。”
原則二,Galloni寫道:“路透社的記者和編輯將全面參與并負責審核任何依賴人工智能制作的內容。無論由誰制作或如何生成,路透社的報道都是路透社的報道,都必須遵循我們的編輯倫理和標準。”
原則三,她還承諾,會向用戶提供有關該新聞社使用AI工具的“全面、公開的披露”。“我們將向讀者和客戶提供盡可能多的關于新聞故事來源的信息。這并不意味著我們將公開編輯過程的每一個步驟。但如果使用特定的人工智能工具對發(fā)布結果有影響,我們將公開告知。”
原則四,她表示,“探索新一代工具提供的可能性是必要的 – 盡管我們仍在研究如何更合理地使用它們。”但她提醒記者必須“保持警惕,確保我們的內容來源真實可靠。”我們的準則是:持懷疑態(tài)度,進行必要的驗證。
未告知而引發(fā)的丑聞
CNET是一家廣受歡迎的科技新聞媒體,從2022年11月就開始就使用AI技術生成了一系列金融評論員文章,并且沒有向讀者明確這些文章是如何生成的。
這些文章的署名均為“CNET Money Staff”,只有讀者點擊文章作者信息時才會知曉真正的作者身份。作者信息會提示讀者“這篇文章是使用自動化技術生成的,并由編輯人員進行了仔細的事實檢查和編輯。”
CNET至今已經發(fā)布了70余篇AI生成的文章,這個AI內容生成實驗相當低調,沒有正式宣布過該計劃。
但是有消息稱,CNET所發(fā)布的AI生成文章在經過仔細檢查后,許多文章存在相當嚴重的錯誤,甚至明顯存在抄襲。CENT的流量隨后暴跌。在丑聞發(fā)生后CENT的員工遭到了大幅裁員,CNET的員工對此強烈不滿,認為AI的使用威脅到了他們的工作和名聲。
CNET的員工成立了CNET媒體工會并宣稱:“我們各種內容團隊需要行業(yè)標準的工作保護,公平的薪酬和編輯的獨立性,以及在決策過程中的發(fā)聲,特別是在自動化技術威脅到我們的工作和聲譽的情況下。”
CNET媒體工會的發(fā)言人表示當前迫切需要圍繞AI使用建立全行業(yè)的倫理準則,最好的方式就是通過勞資談判協定來維持新聞行業(yè)的高標準,AI制作的內容永遠也不能替代作者。
結語
傳媒業(yè)對生成式AI的應用有更高的標準和要求,因此,媒體人需要保持理性樂觀的態(tài)度。
盡管這項技術具有革命性的影響力,我們必須及時跟進并研究其發(fā)展態(tài)勢,但使用AI技術必須謹慎并遵守相關的倫理規(guī)范,以避免發(fā)布誤導性報道和假新聞的風險。
版權、數據隱私和泄密等風險必須認真考慮。充分、全面和及時的信息披露是至關重要的。同時,我們必須加強人工對AI生成內容進行二次審核,以保證媒體的權威性和公信力。
]]>聲明:本文來自微信公眾號“DoNews”(ID:ilovedonews),作者:李熙,編輯:楊博丞,授權站長之家轉載發(fā)布。
盡皆知: 過去的科幻文學家預言了潛艇、衛(wèi)星、人工智能等后世科技里程碑。 然而科幻文學家們的預言中,其實應驗的烏鴉嘴不比正面成就少,比如 DDOS網絡攻擊、個人生物信息盜竊、和人工智能模型的退化。
2023年2月,美國華裔科幻文學家特德·姜發(fā)表文章稱:ChatGPT等大語言模型,實質是對互聯網語料庫的有損模糊壓縮,如同JPEG格式之于原始高清圖片。
按特德·姜的觀點,用大語言模型生成的文本來訓練新的模型,如同反復以JPEG格式存儲同一圖像,每次都會丟失更多的信息,最終成品質量只會越來越差。大語言模型生成的文本在網絡上發(fā)布得越多,信息網絡本身就變得越發(fā)模糊、難以獲取有效真實信息。
2023年6月中,牛津、劍橋、倫敦帝國學院、愛丁堡大學、多倫多大學等高校的AI研究者發(fā)布的論文預印本《遞歸之詛咒:用生成數據訓練會使模型遺忘》在業(yè)界流傳開來。論文中用實驗結果證明了特德·姜的預言:用AI生成數據訓練新的AI,最終會讓新的AI模型退化以至崩潰。
這些研究者們發(fā)現,在訓練新的神經網絡AI模型時,使用大語言模型生成的內容作為訓練數據集,會導致訓練出的模型出現不可逆轉的缺陷,即使模型最初的基礎架構原始數據來自真實世界的實際數據。研究者們將這一新模型的退化過程與結果稱為“模型崩潰”。
按論文所述,不管受訓的新模型功能是以文字生成文字還是以圖片生成圖片,只要使用其他模型生成的內容來訓練,這個過程是不可避免的,即使模型處在近乎理想狀態(tài)的長時間學習條件亦如此。
論文一作伊利亞·蘇瑪利沃夫(Ilia Shumailov)稱,AI生成數據中的錯誤會極快沉淀,最終導致從生成數據中學習的模型進一步錯誤地感知現實。
“模型崩潰”分為早期與晚期兩種。在早期時,被喂生成數據的AI模型會開始失去原初數據分布的信息;在晚期,被喂生成數據的AI模型會吐出完全不符合現實、不相關原初底層數據的結果。
而且與癥狀類似的“災難性遺忘”不同,“模型崩潰”的AI一直保有對之前學習過的原初底層數據的記憶,但極其固執(zhí),錯誤會千篇一律且難以矯正,模型將持續(xù)甚至強化將錯誤結果認為是正確的結論。
論文中“模型崩潰”過程的示意圖
研究者們先用小模型試驗起,用相同模型生成的數據訓練同一模型。以此方法在高斯混合模型(GMM)上實驗,拿AI分辨人工生成的不同正態(tài)分布。結果是在如此訓練50次后模型開始出錯到無法分辨原初底層數據。訓練到兩千次后,模型的錯誤結果收斂到每次基本雷同毫無變化。
以同樣方法訓練變分自編碼器(VAE)模型,訓練5次后模型開始出錯,10次后模型的錯誤結果開始與原初底層數據無關,20次后錯誤結果就開始收斂至基本雷同。
以上的小模型的原初數據量小,或許易于迷惑。研究者再用現在商用廣泛的OPT-125m文本生成模型實驗,此模型由Meta 公司開發(fā),參數量1.25億。研究者先用有1億詞元的“維基文本庫2”數據集喂給模型,跑出同樣詞元量的生成結果數據集。再用生成結果數據集反復訓練OPT-125m模型。
結果是,在研究者輸入提示詞之后,起初的OPT-125m模型吐出的是帶有亂碼但大體成文的語句。被如此訓練1次的大模型吐出的是帶有瞎編內容的幻覺性文本,但仍然成文。被如此訓練7次的大模型吐出的是完全與初始提示詞無關的文本,9次后大模型的生成文本就是完全不知所云的車轱轆話。
“模型崩潰”的原因其實并不難懂。概言之,與特德·姜、馬斯克這些名人們嘲笑生成式AI的說辭很相近:這些大模型本質上是高端統(tǒng)計學應用,離“智能”的實質還差得遠。
用AI生成內容來訓練AI的話,無可避免就會踩進“統(tǒng)計近似值偏差”的坑里。實質是高端統(tǒng)計程序的神經網絡模型們,天然會高估、過于重視大概率的通常值,也會低估、過于忽視小概率的非常值。
這些模型生成的結果無法規(guī)避以上缺陷,持續(xù)用來再訓練新模型,數據的多樣性會越來越小、符合真實的正確度會越來越有限、“近似值擬合”會越來越嚴重。用研究者的話來說,用AI生成數據來訓練新的AI,是在毒化模型對真實世界的認知。
論文中“模型崩潰”成因的示意圖
用論文作者之一羅斯·安德森(Ross Anderson)的話說,這就如同用莫扎特作品來訓練AI,結果會得出一個風格類似莫扎特但缺乏靈氣的“薩列尼”模型。再用“薩列尼”模型的作品訓練新的模型,如此反復五六次后,最終模型的音樂作品既不會有莫扎特的風格也不會有莫扎特的靈光。
除了這一主因外,“函數近似值誤差”也會為“模型崩潰”推波助瀾。任何神經網絡AI在本質都算是有限的通用函數近似器,但總會出現函數近似值過度表達或不充分表達帶來的結果不精確。
理論上來說,“統(tǒng)計近似值偏差”與“函數近似值誤差”并不必然會帶來惡果,有少許可能,這些偏差恰好會消除真實數據中的噪音值,讓AI模型的生成結果更符合真實數據分布。然而更大的可能是,這些誤差會放大、加乘數據噪音。
在羅斯·安德森的個人博客中,有人評論這是熱力學中的熵、生物學中的近親繁殖退化,在AI界的復現。
對于業(yè)界,此發(fā)現再次凸顯了真實人類創(chuàng)造的數據的稀缺性。羅斯·安德森戲稱,在海洋布滿不可降解塑料垃圾、空氣里充滿二氧化碳排放物后,互聯網以后也會被大語言模型生成的低質量結果污染。反過來說,真實人類創(chuàng)造的數據如同潔凈的空氣與飲水,是日后生成式AI必須依賴的維生補給。
在如此背景下,不難理解為何推特與Reddit這些用戶活躍的社交媒體紛紛取消應用程序接口扒數據的權限。這些社交媒體上的真人互動內容都是以后越來越值錢的不可再生資源,馬斯克們是絕不愿繼續(xù)免費讓OpenAI們拿去用的。
數據饑渴的AI公司們,現在兩種繼續(xù)發(fā)掘高質量數據的辦法都在用。
一是扒完當代互聯網數據后,繼續(xù)扒古舊文本與圖像數據。保存了遠至兩百年前書籍掃描件的“互聯網檔案館”,在5月底稱網站之前短暫崩潰,是因為托管在亞馬遜云服務器上的數十個虛擬接口做出了每秒數萬次的數據查詢請求,導致網站無法承載。
二是老實花錢買。北京時間6月17日0點,《金融時報》獨家報道,稱最近數月內,谷歌、OpenAI、微軟等公司在與新聞業(yè)界的大企業(yè),如新聞集團(News Corp)、紐約時報和衛(wèi)報在內的出版商接觸,尋求AI訓練數據材料的持續(xù)來源并避免未來的版權糾紛。
雖然商洽還在早期階段,但信源透露出的信息是AI巨頭企業(yè)們愿意為作為AI 模型訓練數據的新聞內容向媒體巨頭們支付定期訂閱費用,媒體巨頭們開出的價位是年均500-2000萬美元。
]]>聲明:本文來自于微信公眾號 新智元(ID:AI_era),作者:新智元,授權站長之家轉載發(fā)布。
6月19日,騰訊云在行業(yè)大模型這個領域成功秀了一把,還是現場直懟臉的那種。
這不,端午節(jié)就要來了,不如問個實際點的:端午節(jié)三天不出江浙滬,有什么行程推薦?
先來看標準的語言大模型模型的回答。
它給出了和許多LLM同樣的「配方」,比如參觀名勝古跡、品嘗美食等簡單安排。
總之,讓人感覺好像安排了,又好像沒有安排,參考性比較弱。
如果求助用行業(yè)場景數據訓練后的大模型,效果如何?
這次,順便升級一下問題復雜度:「我和孩子都是歷史人文愛好者,端午節(jié)想去上海周邊,預算5000以內,最好每天去2個景點玩。」
可以看到,模型給出了三天的行程規(guī)劃。相較之前的回復,細致了很多,但實操性還是不夠強。
接下來,同樣的問題,再扔給接入文旅客戶API接口后的行業(yè)大模型問一遍。
顯然,這次直接提供了「保姆級三天攻略」,詳細介紹了景點的特色。
另外,還給出了每天景點的交通安排,甚至,可以實時查詢到今年的介紹信息、購票鏈接、還有價格等相關信息。
讓人看完,瞬間覺得這樣的行程不僅有意義,還省去了做出行功課的時間。
如果再讓它推薦一下蘇州的酒店,你直接得到了不同檔次的推薦和介紹,還有酒店的預定鏈接。
足見,精調后的文旅客服大模型的回答讓人拍手叫絕。
值得一提的是,這樣的模型不僅可以制訂詳細的旅行攻略,也讓智能客服系統(tǒng),實現服務商業(yè)化的閉環(huán)。
未來,隨著更高質量數據增加,模型的精調效果還會更好。
行業(yè)大模型已成共識
在這場ChatGPT引爆AI大模型的熱潮中,企業(yè)雖然期待能夠得到大模型能力的加持,但通用大模型在解決他們問題時多多少少遇到一些局限性。
首先,安全方面。
由于很多企業(yè)的業(yè)務數據等都是非常隱私的核心數據,他們根本不會將其放在數據集上進行公開訓練。
然而,訓練模型的專業(yè)、且高質量的數據收集是非常難的。
其次,經濟方面。
很多企業(yè)和機構在構建大模型上,算力需求還是極大的。但是并非每家企業(yè)都有足夠的資源,讓大模型完成訓練和推理。
英偉達曾公布數據顯示,訓練一次大模型,大約100多萬美金。
再加上,如果遇到服務器過熱宕機,整個GPU集群都要停止工作,訓練任務也要重新開始。
這對云服務運維能力與排查問題能力的要求非常高,所以很多算法團隊都選擇最專業(yè)的云服務廠商來支持。
這些都需要高成本的投入,但許多企業(yè)級用戶是無法做到的。
最后,效率方面。
對于通用大模型來說,數據質量非常重要。
大模型需要大量的高質量數據進行訓練和優(yōu)化。必須經過清洗和預處理,來消除噪聲、填補缺失值并確保數據質量。
否則,訓練出的模型效果、效率都無法得到保障。
除此之外,在很多產業(yè)場景中,用戶對企業(yè)提供的專業(yè)服務要求高,容錯性低。企業(yè)一旦提供了錯誤信息,可能引起巨大的法律責任或公關危機。
因此,企業(yè)使用的大模型必須可控、可追溯、可溯源,而且必須反復、充分測試才能上線。
以上種種難題,怎么破?答案就是行業(yè)大模型。
稍加觀察就會發(fā)現,現在國內很多家大模型,都在往產業(yè)領域和具體的業(yè)務場景上走。
不止騰訊云,回看國內各大廠,包括阿里云、百度云、京東云在內都在加速大模型在各行各業(yè)的應用。
可以看到,行業(yè)大模型大概率已經成為了產業(yè)共識。因為聚焦到具體應用場景中,行業(yè)大模型更符合垂類場景的需求。
當然,在此之前,騰訊云早已在自家平臺上做了深度的探索。
作為國內開發(fā)者最常用的輔助工具,GitHub Copilot讓大家充分感受到了智能的力量。代碼自動補全的功能,代表著巨大飛躍的來臨。
而騰訊云的新一代AI代碼助手,也實現了GitHub Copilot的類似功能。多種編程語言、主流開發(fā)框架、常用IDE等,AI代碼助手都支持。
舉個例子,比如有段代碼不會寫,AI代碼助手就可以根據代碼類型、代碼上下文等信息,自動進行代碼補全。不僅如此,它還能根據代碼反向生成注釋和單元測試代碼,甚至更進一步地幫你debug。
MaaS一站式解決方案
現在,騰訊云基于自己的應用積累,以及行業(yè)上的實際需求,重磅推出了全新的MaaS(Model-as-a-Service)一站式服務,大幅降低了大模型的應用門檻。
目前,騰訊云已經聯合頭部企業(yè),為諸如金融、傳媒、文旅、政務、教育等10大行業(yè),輸出了超過50個解決方案。
具體來說,騰訊云MaaS可以覆蓋行業(yè)大模型生命周期的整個流程——「模型選型-訓練共建-部署應用」,同時支持MLOps體系及相關工具。
在配套服務方面,騰訊云提供本地化的訓練、落地及陪跑優(yōu)化服務,并可以針對用戶的需求,提供私有化部署、公有云托管、混合云部署等靈活部署方案。
其中,企業(yè)可以利用自己的場景數據,定制專屬的精調大模型。或者,也可以根據自身的需求,開展多模型訓練任務。
舉個例子,在某商業(yè)銀行的日常業(yè)務中,就時常遇到這樣的難題。
客戶業(yè)務中涉及到大量銀行回單、交易發(fā)票、跨境匯款申請書、業(yè)務往來郵件、傳真等數據,需要整理、錄入系統(tǒng)。
如果純依賴人工,就會面臨耗時長、效率低、成本高、易出錯的難題。
即使是采用傳統(tǒng)的OCR深度學習模型,也需要經過「檢測→識別→結構化」等多個階段,這個流程一走完,經過各個階段的錯誤累積,檢測識別的難點往往難以突破。
并且,模型也不具備閱讀理解和推理能力、指標上限低,在不同場景下,模型的能力更是無法復制、定制成本極高。
而騰訊云TI-OCR大模型卻充分解決了以上痛點。
首先,它是基于原生大模型,不經過訓練,就可以直接支持常規(guī)下游任務,零樣本學習泛化召回率可達93%。
其次,通過prompt設計,模型不經過訓練,就可支持復雜的下游任務,小樣本學習泛化召回率可達95%。
另外,通過多模態(tài)技術,模型可以通過小樣本精調解決傳統(tǒng)OCR難題,比傳統(tǒng)模型召回率提高了3%-20%。
最終,在在智能OCR應用方面,騰訊云針對交易回單、交易發(fā)票、業(yè)務往來郵件等多種格式的數據,實現了95%以上準確率的文件智能識別和關鍵詞提取。極大地減少低價值高耗時手工作業(yè),節(jié)省運營人力成本。
那么,這樣「預制菜」式的大模型精調,是怎么實現的呢?
堅實的技術積累
為了幫助用戶實現一站式的大模型精調,騰訊云也給TI平臺來了個全面升級,提供包括數據標注、訓練、評估、測試和部署等全套工具鏈。
升級之后的TI平臺,能夠更好地完成「業(yè)務分析-數據分析-數據清洗-數據標注-大模型選擇-訓練加速-模型評測-應用落地」這一全套的行業(yè)大模型落地流程。
人人皆知,算力、數據、算法是AI的三要素,大模型時代也是如此。
大模型訓練,算力是基礎。
就算力來講,可以說,騰訊云把配置全給拉滿了。
早在今年4月,騰訊云便發(fā)布了面向大模型訓練的最新一代HCC(High-Performance Computing Cluster)高性能計算集群。
采用最新一代騰訊云星星海自研服務器,結合多層加速的高性能存儲系統(tǒng),能夠提供3.2Tbps業(yè)界最高互聯帶寬,算力性能提升3倍。
具體來說,集群的單GPU卡能夠在不同精度下,輸出最高1979TFlops的算力。
而在大模型場景下,集群利用并行計算理念,通過CPU和GPU節(jié)點的一體化設計,能夠將單點算力性能提升至更高。
除了單點的運算能力外,集群中不同計算節(jié)點之間的通信性能也會直接影響訓練效率。
為此,騰訊云自研了具備業(yè)界最高3.2T RDMA通信帶寬的星脈高性能計算網絡,能夠更好地滿足節(jié)點間海量的數據交互需求。
實測結果顯示,相較于此前的1.6T網絡,在GPU數量不變的情況下,3.2T星脈網絡能夠給集群帶來20%的算力提升。
其次,大模型的訓練數據至關重要,經常會遇到數據清洗、標注、分析等問題。
而在前期的數據處理階段,TI-DataTruth數據標注平臺能提供智能數據生產服務支持,包括數據標注作業(yè)、數據眾包管理、場景數據挖掘等。
在接下來的模型訓練上,TI-ONE一站式機器學習平臺內置了多種訓練方式和算法框架,可以滿足不同AI應用場景的需求,并支持從數據接入、模型訓練、模型管理到模型服務的全流程開發(fā)。
ChatGPT還沒聯網之前,訓練數據只截止到2021年9月,而對訓練截止之日之后發(fā)生的事情一無所知。而向量數據庫通過存儲最新信息,讓大模型能夠訪問,來彌補這個不足點。
向量是AI理解世界的數據形式,由此向量數據庫之于大模型的價值就是「記憶體」,能夠給LLM提供與加強記憶。可以說,向量數據庫是大模型時代「儲存新基座」。
就在今年3月,老黃在GTC大會上還首次提及了將要推出的RAFT向量數據庫。
基于這一需求,騰訊自研的大模型向量數據庫(Tecent Cloud Vector DB),不僅具備高吞吐、低延遲、低成本、高可用、彈性擴展等特點,而且還能進行實時更新,并大幅提升大模型閱讀理解的長度,從2千字到8千字。
為了提升模型的訓練推理效率,降低用戶成本,騰訊云在去年推出了TI-ACC加速工具。
TI-ACC底層使用TNN作為框架,訓練加速實現了數據IO優(yōu)化、計算加速、通信加速、并行訓練、顯存優(yōu)化等能力,兼容原生PyTorch、TensorFlow框架和DDP、PS工具。
而TI-ACC推理加速則可以實現計算優(yōu)化、低精度加速、內存優(yōu)化等能力,能力通過統(tǒng)一的加速庫和優(yōu)化函數的形式提供,同樣兼容原生PyTorch等框架,無需進行模型轉換。
這次,騰訊云更進一步地將TI-ACC升級為「太極Angel」,從而提供更優(yōu)和更完整的大模型訓練和推理加速能力。
在傳統(tǒng)CV、NLP算法模型的基礎上,太極Angel新增了對大模型的訓練和推理加速能力,通過異步調度優(yōu)化、顯存優(yōu)化、計算優(yōu)化等方式,相比行業(yè)常用方案性能提升30%+。
在模型的應用和部署上,TI-Matrix應用平臺支持快速接入各種數據、算法和智能設備。用戶則可以借助可視化編排工具,進行模型服務和資源的管理及調度。
最后,對于行業(yè)大模型尤為重要的安全、合規(guī)方面,騰訊云也有成熟的技術積累和經驗。
通過在問題側、模型側和答案側同時進行敏感信息的過濾和規(guī)避,可以讓輸出的答案符合安全、規(guī)范的要求,并確保大模型可信、可靠、可用。
模型應用,產業(yè)先行
大模型方興未艾,為什么大家都在走向大模型通往產業(yè)領域的路徑?這是否意味著通用大模型失去了價值?
其實不然。我們見證了,GPT-4、PaLM等巨量參數的通用大模型,涌現出「舉一反三」的強大泛化能力。
它們都是利用大算力,在大規(guī)模無標注數據集中進行訓練,相當于完成了「通識教育」。
最直接的證明是,OpenAI把通用大模型的訓練結果——ChatGPT帶到所有人面前,讓發(fā)展大半個世紀的AI真正步入提升人類生產力的新紀元。
可見,通用大模型是邁向通用人工智能里程碑的重要一步,其價值不可估量。
對于通用大模型來講,生態(tài)最為重要,可以讓眾多企業(yè)接入大模型底座去賦能千行百業(yè)。
同時,我們也要看到,通用大模型并非萬能,在更加深入的一個專業(yè)領域中,其know-how是遠遠無法滿足的。
再加上大模型經常會出現「胡說八道」,對于至關重要的場景,比如律師行業(yè),將帶來更大的風險。
然而,現有大模型的算力和能耗的挑戰(zhàn),再加上行業(yè)不同,需求不同,垂直領域大模型的到來注定是必然的。
因為,專業(yè)領域大模型在金融、文旅、傳媒、政務、教育等多個產業(yè)場景中具有廣泛應用和商業(yè)創(chuàng)新價值。
比如,今年3月,彭博社發(fā)布了為金融界打造的500億大模型BloombergGPT。
這一模型依托彭博社大量金融數據源,在金融任務上的表現超過任一模型。甚至,在通用場景中,也能與現有模型一較高下。
還有谷歌推出的醫(yī)療領域大模型Med-PALM2,在醫(yī)學考試問答上超過了許多專家的水平。
要知道,只有真正創(chuàng)造價值的技術才能可持續(xù)、高質量地發(fā)展。
目前,國內布局大模型領域的大廠,正在不斷夯實通用大模型,打造產業(yè)大模型,進而助力AI產業(yè)大模型的發(fā)展。
「通用大模型+產業(yè)大模」兩條腿走路,并駕齊驅,可能更適合目前我國發(fā)展的情況。
甚至,國家也在營造人工智能大模型產業(yè)生態(tài)中給予大力支持。
比如「北京市通用人工智能產業(yè)創(chuàng)新伙伴計劃」的啟動,就是要推動大模型賦能千行百業(yè)數智化轉型。
要看到的是,垂直大模型是一種全新的生產力。
以GPT-4為代表的認知大模型在多個任務上實現了驚艷的表現,同時也帶動了相關產業(yè)創(chuàng)新應用也在不斷涌現。
這次技術峰會,騰訊云進一步釋放行業(yè)大模型的服務能力。從側面也看出,目前企業(yè)對大模型實際落地需求也是非常迫切的。
從真實客戶需求場景出發(fā),騰訊云獨到的「量體裁衣、普惠適用」的行業(yè)模型解決方案,讓大家做屬于自己的行業(yè)模型,實現提質增效。
騰訊集團高級執(zhí)行副總裁、云與智慧產業(yè)事業(yè)群CEO湯道生表示,
大模型只是開端,AI與產業(yè)的融合,將綻放出更有創(chuàng)造力的未來。生態(tài)共建是AI發(fā)展的有效路徑,騰訊將堅持生態(tài)開放,為企業(yè)提供高質量模型服務,同時支持客戶多模型訓練任務,加速大模型在產業(yè)場景的創(chuàng)新探索。
在這個AI2.0時代,若想成為掌握下一個十年的核心競爭力的先行者,還需模型應用,產業(yè)先行。
騰訊云在做的,讓行業(yè)大模型落地更實在。
]]>根據他們的LinkedIn簡介和知情人士,LLaMA研究論文中列出的14位作者中有6位已經離開或宣布他們將離開。OPT論文的19位合著者中有8位也離開了。
為此, Meta 設立了一個新的生成式 AI 小組,旨在將生成式 AI 模型整合到該公司的所有產品中,以提高用戶參與度和改善元宇宙。該公司正在推出一款名為“Metamate”的應用程序,這款生產力助手可以從內部資源中提取信息,并根據員工的請求執(zhí)行任務。
據報道,該生成式 AI 小組已獲得了超過2000份內部申請,并“迅速吸納了來自不同團隊的數百人”。該公司正在將硬件資源從研究轉移到以產品為重點的 AI 小組。
Meta 會走 Android 的路線嗎?
Meta 正在推出 LLaMA v2,這將是商業(yè)可部署的版本。它可能會嘗試 Android 路線:讓基礎技術免費提供給每個人,但將應用商業(yè)化。
通過這種方式,Meta 可能會在整個 AI 生態(tài)系統(tǒng)中發(fā)揮領導作用,并通過更快地將 AI 技術整合到產品中,贏回谷歌、微軟和 OpenAI 近期取得的領先地位。
Meta 的首個 LLaMA 已經為開源 AI 發(fā)展具有顛覆性意義,并成為Alpaca,Vicuna,OpenLLaMA和OpenAssistant等許多項目的基礎。據扎克伯格說法,該新模型將成為 Meta 的核心基礎設施產品,為該公司的許多產品和“希望的許多其他產品”提供服務。Meta 本身似乎計劃在 WhatsApp 和 Instagram 中實現聊天機器人。
Meta 在像 Blenderbot3和 Galactica 這樣的生成式 AI 語言任務項目上處于領先地位,但由于該技術帶來的風險(如虛假信息),也受到了大量批評。
]]>日前,Meta 宣布了一種名為 Voicebox 的新 AI 模型,據稱它是迄今為止用于語音生成的最通用的模型。Meta表示,雖然生成式語音模型有許多令人興奮的用例,但由于可能被濫用的潛在風險,他們目前不會公開Voicebox模型或代碼。
該模型仍然只是一個研究項目,但 Meta 表示可以從短短兩秒的樣本中生成六種語言的語音,并且可以在未來用于“自然、真實”的翻譯等。與其他文本轉語音模型不同的是,Voicebox能夠執(zhí)行許多未經過訓練的任務,包括編輯、去除噪音和樣式轉換。
值得一提的是,此前谷歌也對其員工發(fā)出了明確的指示:要小心聊天機器人,即使是 Bard。這家大型科技巨頭已建議員工不要將機密信息輸入 OpenAI 的 ChatGPT 或谷歌自己的 Bard 等聊天機器人,以免泄露。Alphabet 擔心員工將敏感信息輸入這些聊天機器人,因為人工審閱者可能會審閱聊天條目。這些聊天機器人還可能使用之前的條目來訓練自己,從而構成另一個泄密風險。
]]>酷學院作為企業(yè)培訓SaaS領域的創(chuàng)新引領者,為了探索AI產品的可能性,酷學院于 2023 年 6 月 9 日召開未來企業(yè)學習大會深圳站暨酷學院 2023 智能產品發(fā)布會,現場近 200 名觀眾參與了活動,在線近萬人次觀看。酷學院CTO陳一瑋在活動現場發(fā)布了新一代智能學習助手——"Coolpilot",這是AI技術在培訓場景中應用的一次重要嘗試。
這個名字由“cool”和“pilot”組成,“cool” 取自酷學院英文名稱“coolcollege”,而“pilot”寓意著領航員或司機。酷學院希望“Coolpilot”能成為用戶在學習旅程中的貼身秘書和知識助手,幫用戶完成任務、回答問題,讓用戶遍覽全球知識。
酷學院CTO陳一瑋表示:“Coolpilot”的設計理念是簡單且人性化的。為了讓AI更接近人,我們?yōu)橛脩籼峁┝艘粋€簡單的對話框進行交互,這就是“Coolpilot”的入口,也是面向未來AI時代的交互理念LUI(Language UI)的首 次嘗試。這個小對話框將會帶領你進入智能問答的世界,并在未來不斷迭代,增加更多功能。
在酷學院的智能產品發(fā)布會上,大家親眼見證了"Coolpilot"的強大能力。它不僅擁有強大的問答能力,還可以進行深度學習,提供準確的在線企業(yè)培訓解答。更令人印象深刻的是,"Coolpilot"可以根據企業(yè)的實際需求,靈活接入各種大型語言模型,進行微調和輕量化訓練。
此次發(fā)布會上,酷學院還展示了一款智能出題系統(tǒng)。這個系統(tǒng)能夠自動根據設定的知識內容和試題難度生成試題,用戶可以預覽、引用和調整生成的試題,大大節(jié)省了培訓人員制作考題的時間。
隨著AI技術的日益成熟,酷學院堅信,所有的培訓場景都將被AI重塑。未來,酷學院還將推出智能制課、AI導師、自適應學習等產品,以提升用戶的培訓體驗,改變工作方式,讓學習變得更有趣,更有效。
此次發(fā)布會是酷學院對AI產品整體規(guī)劃的最 新展示,它對未來企業(yè)培訓模式的革新有著深遠影響。期待在酷學院的引領下,每一個企業(yè)、每一個員工都能享受到技術帶來的紅利,提升工作效率,讓工作生活變得更快樂。
對于HR和培訓專業(yè)人士來說,機會擺在眼前。現場參會企業(yè)的培訓負責人告訴筆者:酷學院作為引領者和變革者,為培訓從業(yè)者和企業(yè)組織引入了最前沿的技術,"Coolpilot"正是其所需的工具,它可以作為培訓人和企業(yè)員工的助手,提高培訓和學習的效率,讓培訓人專注于更有價值的工作。
無論企業(yè)高管、培訓師還是學習者,酷學院的“Coolpilot”正在為大家打開新世界的大門。加入這場由酷學院引領的AI驅動的企業(yè)培訓革命,擁抱“Coolpilot”,探索學習的無限可能。現在,就是采取行動的時刻!
酷學院帶來的AI技術已經等待與您共創(chuàng)美好的未來。
“Coolpilot”——引領學習的智能之旅,期待更多培訓人和企業(yè)的加入!
]]>聲明:本文來自于微信公眾號 頭號AI玩家(ID:AIGCplayer),作者:卷毛,授權站長之家轉載發(fā)布。
用AI經營餐飲店是一種什么體驗?
小紅書博主“車達|王同學”(以下簡稱王同學)和朋友們一起開了家三明治店,原本自己做的三明治看起來平平無奇,根據AI的建議重新制作、升級包裝后,一下就有網紅三明治內味了!
三明治升級前后,圖源:“車達|王同學”
AI甚至還幫忙組織了一場免費的探店博主推廣活動,博主們前后一周共發(fā)布了20條小紅書筆記。
最重要的是,AI員工“任勞任怨”,干活還不用吃飯,太省錢啦!
從5月7日起,王同學陸續(xù)在小紅書上發(fā)布了四期視頻,介紹團隊用AI經營餐飲店的過程和經驗,花了兩個多月,通過實踐論證了AI真沒忽悠他們,店鋪“暫未倒閉”,客流量有所提升。目前視頻累計獲贊超1.3萬,賬號粉絲數從不到1000漲到8548。
他也在抖音同步更新了視頻,目前粉絲數近1萬,達人探店這期最高獲贊1.4萬。
“車達|王同學”小紅書和抖音賬號主頁
AIGC要如何應用至餐飲業(yè)?到底能為實體門店經營提供多大幫助?我們從王同學的這個案例談起。
毛利太低!用GPT+Midjourney升級產品
“別人用AI改變世界,我們用AI賣三明治!”
王同學在第一期“我用AI經營餐飲店”的視頻中提到,他們可能是第一批使用人工智能進行餐飲創(chuàng)業(yè)的個體戶。
為什么會想到用AI來賣三明治呢?
起初王同學和幾個朋友一時興起,搭伙開了這家三明治店,但各自都有主業(yè)要忙。眼看店快開不下去了,合伙人之一,一位從業(yè)十年的IT大佬提議:“讓AI帶我們賺錢。”
可能是看到ChatGPT引起的AI熱潮,他們也試著向AgentGPT(一個基于GPT-4的實驗性開源應用項目,可以自主實現用戶設定的任務目標)提問如何經營好這家店。
AgentGPT經過5次自主搜索、分析之后,給出了一份計劃書,涵蓋問題改進、市場機會、制定任務、工作細分、指標拆解、責任到人等方面,并揚言要讓三明治店在半年內賺到100萬。
圖源:“車達|王同學”
雖然AI提出的問題和解決方案看起來很有道理,但不能落地也是空話。
于是,IT大佬又進一步讓AI生成了新的菜品圖片、所需食材以及具體制作配方,這里他使用了Midjourney V5版本、ChatGPT、MiniGPT-4識圖對話等AI工具。
根據AI的建議,現有的三明治毛利率較低,吸引力不足,需要更換產品。同時,AI還將全球銷量前十的三明治產品列了出來,以供參考。
圖源:“車達|王同學”
王同學和團隊結合自身能力,從中選了三款三明治,試著在此基礎上創(chuàng)新產品。從視頻呈現的效果來看,的確變得更加誘人了。
圖源:“車達|王同學”
更換產品配方只是第一步,要提高產品定價,AI繼續(xù)給出了建議:換包裝!
在第二期視頻中,一開始IT大佬自己用AI設計的包裝是這樣的——
圖源:“車達|王同學”
一套模仿奢侈品風格的豪華包裝,團隊成員看了直呼“要賠本”。
最終大家決定干脆都交給AI去做,“一個人工智能搞不定,那就交給三個人工智能,反正又不用花錢”。他們?yōu)锳I設定了明確的角色分工,一位設計師負責設計包裝,把握審美調性;一位采購員負責尋找供應商資源,控制成本;一位老板負責項目管理,確保按時完成。
圖源:“車達|王同學”
在3位AI員工協同合作下,大約過了半小時,他們很快得到了一套符合需求的包裝設計,并按照AI采購員的建議,選擇了成本更低的拼版印刷,找了一家工期最短的供應商立馬生產。
圖源:“車達|王同學”
因為團隊喜歡山地車,店名叫作“車達”,所以AI設計師生成的圖也與山地車有關,落日般溫暖的主色調,配上深藍色的山脈點綴和簡潔的文案,整體不算復雜,但如果請人類設計師來做,王同學認為做到這個程度至少要花兩三百元。
至此,團隊嚴格執(zhí)行了AI制定的賺錢計劃,在兩周時間里對三明治的配方和包裝進行了全面升級。那么怎么賣出去呢?別急,繼續(xù)看AI發(fā)揮。
新店如何推廣?AI教你“白嫖”探店博主
AI認為這家三明治店目前盈利方式較為單一,需要完善渠道,可以先在線上提高曝光度,一方面組織當地博主探店推廣,另一方面自建賬號發(fā)布內容,引導更多新客進店。
“在小紅書中可以通過搜索相關話題和關鍵詞找到合適的達人和KOL進行合作,同時也可以使用抖音中的品牌合作功能來尋找合適的用戶進行合作。”ChatGPT回答道。
王同學和團隊先問了ChatGPT,雖然為它裝了支持上網的插件web access,但他們對這個回答不太滿意,又去詢問搭載GPT-4的搜索引擎Bing:“幫我整理小紅書探店博主的排行,區(qū)域是中國,福建省,漳州市。”
圖源:“車達|王同學”
這下Bing給出了一些小紅書數據工具,可以檢索到大量尋求商業(yè)合作的博主資源。與博主溝通后,他們了解到,博主為了保證內容更新頻率,會拍攝部分不收費的探店內容,但推廣的排期由博主來定。這與邀請大V來探店進行視頻帶貨合作的邏輯不同。
考慮到預算有限,王同學和團隊決定先試試看這種免費的探店合作方式。活動當天,他們發(fā)現,到店的博主中有70%都是學生,粉絲量在1000~3000不等。
同時,他們自己也開始準備起號拍攝,ChatGPT說可以用AI生成的文案,搭配探店活動當天積累的素材,作為賬號日常發(fā)布的內容。
看來AI做生意主打的就是一個“白嫖”,不過這也符合資源有限的小商家的實際需求。
圖源:“車達|王同學”
線上推廣有沒有效果呢?王同學在評論中提到客流量有所上漲,生意好了起來,最近由于店里太忙,他甚至都沒有時間來剪輯視頻。
人類需要休息,而AI員工不知疲倦。在推廣獲客之外,AI基于行業(yè)數據的分析,又規(guī)劃好了三明治店下一步的運營方案——打造私域,做“野餐盒子”。
私域運營可以低成本觸達客戶,提升商家與客戶之間的信任關系,從而帶來更多復購,也有利于精細化人群運營。針對這家三明治店的經營狀況,ChatGPT認為需要出一款具備獨特性與稀缺性的私域產品,比如堂食和外賣平臺上很少見,制作過程比較復雜,只能在私域購買,這樣更有競爭優(yōu)勢。
他們搜索發(fā)現“野餐盒子”確實尚屬市場空白,大概90個城市有這類產品,但讓他們感到驚艷的是,AI建議增加客戶參與度,出一套DIY版本的野餐盒子,把食材分開打包,讓客戶根據需求自己動手組裝。
圖源:“車達|王同學”
此外,AI也寫了一套相應的私域運營小程序,實際應用如何,還有待王同學更新。
AIGC應用于開店的想象力有多大?
上面這一系列操作看下來,你覺得AIGC應用于開店的想象力有多大呢?
其實早在ChatGPT等生成式AI工具出現之前,餐飲行業(yè)就有不少AI應用案例,主要集中在硬件方面,比如全自動無人廚房,AI機器人做咖啡、炒菜,智能點單、送餐、收銀機。
據“食材老板”,2018、2019年刮起的那場“AI餐廳”旋風來去匆匆,而本次AIGC潮流與之不同,更多體現在軟件層面,其目的也不再是曾經的創(chuàng)造新經營模式,而是利用人工智能技術幫助品牌、企業(yè),甚至為一些個人店面賦能。
AI可以代替部分人工,以較好、較快、極簡的操作完成專業(yè)崗位的工作,如文案、設計等創(chuàng)意類工作,從而起到降本增效的作用。
就像王同學的案例中,初次創(chuàng)業(yè)的團隊不知道下一步怎么做,AI基于大數據分析可以幫你捋清思路,充當半個專家顧問,從產品升級、包裝設計,到KOL推廣、私域運營,甚至連這幾期視頻腳本都采納了AI的修改意見。
王同學表示“以前不想做的事,或者覺得難的事,現在心理上都不太畏懼了”,近乎萬能的AI員工大大增強了創(chuàng)業(yè)者的信心和執(zhí)行力。
圖源:小紅書
目前對于餐飲個體戶應用AIGC的討論還不多,相對來說,一些知名食品品牌用AI進行廣告營銷的關注度更高。
鐘薛高一條全新子品牌線Sa'Saa(Satisfy and Surprise any adventure),名字、包裝、口味都是AI建議的
“亨氏AI番茄醬活動”,用OpenAI的Dall-E2模型生成番茄醬圖片
除了餐飲行業(yè),在服裝領域,“頭號AI玩家”此前分享過用AI開女裝店的案例,一條AI繪畫生成的小綠裙帶動了小紅書同款裙子的銷售。最近36氪也用ChatGPT等AI工具開出了首家AI淘寶店“盧咪微LumiWink”,從店鋪搭建、產品設計,到服裝打樣生產、數字人直播帶貨,全部通過AI來操作完成。
上個月,淘寶天貓發(fā)起了“AI生態(tài)伙伴計劃”,計劃開放7大商家經營場景,包括“店鋪開店裝修、商品圖像創(chuàng)意、營銷策劃推廣、內容組織創(chuàng)作、客服接待服務、財務管理、訂單管理”等,與行業(yè)所有生態(tài)伙伴一起推進人工智能技術在電商領域的應用和發(fā)展。
可見,AIGC正在席卷設計、餐飲、服裝、電商等各個行業(yè),其應用場景不斷拓展。
對于個體創(chuàng)業(yè)者來說,用AI輔助開店前期需要一些學習成本,要學著馴服AI,提出具體的需求。比如在王同學的評論區(qū),很多人不知道ChatGPT如何使用,或者AI生成的回答差強人意。
圖源:小紅書
并且與AI溝通的過程中,需要自己辨別真?zhèn)危词褂辛寺摼W能力后,AI仍存在生成虛假信息、編故事的幻覺問題。
要知道,AI不會為任何結果負責,開一家小店、或者經營連鎖品牌,最終都離不開人的判斷和決策。
]]>