AI視野:谷歌搜索推出文生圖功能SGE;生成式AI安全指導性文件發布;QQ瀏覽器推PDF閱讀助手;OpenAI宣布年收入達13億美元
????大模型動態
中文在線推出“逍遙”萬字創作大模型 可一鍵生成萬字小說
中文在線推出“逍遙”大模型,能一鍵生成萬字小說,提供全生命周期的AI輔助創作工具,將內容創作轉向人力+算力的模式,提高創作效率和質量。
【AiBase提要】:
? 逍遙大模型是中文在線的創新工具,可以一鍵生成萬字小說。
? 這個大模型改變了內容生產方式,從依賴人力轉向人力+算力,為作家提供更多創作工具和資源。
? 中文在線的逍遙大模型提高了內容創作的效率和質量。
???AI應用
谷歌搜索推出文生圖功能SGE
谷歌的AI搜索功能SGE(Search Generative Experience)引入了搜索的會話模式,使用戶能夠生成圖像和寫草稿,并采取了嚴格的過濾策略以防止不當內容的出現。
【AiBase提要:】
1. ? 谷歌的AI搜索功能SGE現在支持生成圖像和寫草稿,提供更多搜索體驗。
2. ? 谷歌實施嚴格過濾策略以防止生成不當、誤導或淫穢的圖像,保護用戶和信息的安全。
3. ? SGE用戶可以根據需要輸出不同類型的寫作,包括更長或更短的文稿,并自定義語氣,增加靈活性。
Adobe推出生成式AI視頻處理技術Project Fast Fill
Adobe正在研發名為「Project Fast Fill」的生成式AI視頻處理技術,允許用戶輕松添加或刪除視頻中的對象。
【AiBase提要】
? Adobe發布「Project Fast Fill」,一項生成式AI視頻處理技術,可用于視頻中添加或刪除對象。
? 這一實驗性功能類似于Google的Magic Editor,可在視頻中對運動中的對象進行編輯。
? Adobe計劃將「Project Fast Fill」推廣至Creative Cloud用戶,用于Premiere Pro和After Effects,但尚未提供時間表。
百度發布國內首個生成式數據分析商業智能產品百度GBI
在百度世界2023媒體預溝通會上,百度宣布推出國內首個生成式數據分析商業智能產品百度GBI,能夠加速數據分析過程,提供便捷的接入方式,注入專業知識。
【AiBase提要】
? 百度GBI將縮短數據分析的決策周期,從以天為單位縮短到以分鐘為單位,加速企業決策過程。
? 百度網盤推出大模型助理“云一朵”以改善知識管理和文件操作體驗。
? 百度還整合大模型與汽車座艙,提高汽車的智能互動和用戶體驗。
QQ瀏覽器推出“PDF閱讀助手”AI工具
QQ瀏覽器推出了“PDF閱讀助手”,由騰訊混元大模型支持,可智能摘要、提供問答功能,方便用戶快速獲取所需信息。
【AiBase提要:】
? QQ瀏覽器發布“PDF閱讀助手”,支持騰訊混元大模型,提供智能摘要功能,減少閱讀時間。
? 該助手還具備智能問答功能,用戶可快速獲取所需信息,無需完整閱讀文檔。
? 助手支持原文定位,便于查看引用上下文,未來還將覆蓋更多應用場景如Word、Excel、PPT、網頁。
亞馬遜發布Amazon Bedrock 集成多家領先的大模型
亞馬遜Bedrock提供全流程的生成式AI服務,整合領先大模型,降低企業入門門檻,同時優化算力成本和數據隱私。
【AiBase提要:】
? 亞馬遜Bedrock整合頂尖大模型,為生成式AI提供基礎模型,簡化應用開發和數據定制。
? 服務采用Serverless技術,降低算力成本,提供高性能的AI計算平臺。
? 強調數據隱私和安全,提供專門的安全連接以確保數據不暴露在公共網絡上。
Hook:利用AI為TikTok的熱門音樂制作合法的混音
Hook應用旨在借助AI幫助音樂粉絲合法創作他們最喜歡的音樂混音,為TikTok等短視頻應用提供新的音樂內容。
【AiBase提要】
1. ? Hook是一款AI應用,旨在合法混音用戶喜歡的音樂曲目,以在短視頻應用如TikTok上分享,提供60秒內歌曲片段供用戶個性化創作。
2. ? 創始人Gaurav Sharma強調Hook的目標是為音樂創作者和唱片公司提供價值,解決創作權和報酬問題,利用AI技術解決版權問題,使創作者能夠合法創作音樂。
3. ? Hook已獲得300萬美元的種子資金支持,計劃在未來推出應用程序,為音樂粉絲提供合法方式創作和分享音樂混音,同時幫助唱片公司從這些創意中獲得回報。
???AI新鮮事
首個生成式AI安全指導性文件發布 包含31項安全要求
最新發布的生成式AI安全規定明確了31項安全要求,只有符合這些要求的生成式AI服務提供者才能“持證上崗”,規定涵蓋語料安全、模型安全、安全措施和安全評估四大方面。
【AiBase提要】
? 生成式AI安全新規發布,包含31項安全要求,生成式AI服務提供者需遵循這些要求,方可“持證上崗”。
? 安全要求涵蓋語料安全、模型安全、安全措施、安全評估等四大方面,具體包括語料來源黑名單、模型使用規范等關鍵要求。
? 根據不同場景采取保護措施,包括關鍵信息基礎設施、未成年人使用等,以確保生成內容質量和安全性。
OpenAI宣布年收入達13億美元 每月入賬1億刀
OpenAI2023年年收入達13億美元,月均1億美元,同比增長超過4500%,得益于ChatGPT的推出和用戶對會話聊天機器人的訂閱增長。
? 【AiBase提要:】
1?? OpenAI年收入達13億美元,月均1億美元,年同比增長4500%。
2?? 谷歌DeepMind業績下滑,OpenAI快速增長成AI領域旗幟。
3?? OpenAI計劃募資1000億美元,關注成本優化,展望光明前景。
微軟啟動AI功能Bug賞金計劃
微軟推出新的人工智能懸賞計劃,關注基于AI的Bing體驗,獎勵高達15000美元,針對Bing的漏洞提交將被懸賞。
【AiBase提要】
? 微軟宣布新的懸賞計劃,專注于基于AI的Bing體驗,獎勵最高達15000美元。
? 安全研究人員可提交針對AI驅動的Bing體驗在不同產品中發現的漏洞,包括Microsoft Edge和Skype應用。
? 懸賞計劃還鼓勵報告與Bing相關的漏洞,涉及聊天行為、內部機制、以及超出范圍的問題和漏洞類型。
GitHub前CEO回應:Copilot服務虧損是假消息
微軟前GitHub首席執行官Nat Friedman回應GitHub Copilot服務虧損傳聞,稱其為假消息,暗示成本低于價格,但未詳細披露成本細節。
【AiBase提要:】
– ? Nat Friedman否認GitHub Copilot服務虧損,表明其成本可能低于價格。
– ? 傳聞指出GitHub Copilot在前幾個月虧損慘重,引發盈利能力疑慮。
– ? 該AI編程助手每月收費10美元,免費供認證學生和成熟開源項目用戶使用。
Meta向名人支付數百萬美元,復刻名人版聊天機器人
Meta的母公司Facebook支付數百萬美元給名人,以打造名人版AI聊天機器人,其中一位名人僅工作六小時即獲得高達500萬美元的酬勞。
【AiBase提要】
? Meta支付數百萬美元,創建名人版AI聊天機器人。
? 一名不具名的名人僅工作六小時,獲得高額500萬美元報酬。
?? Meta計劃將這些虛擬名人擴展到視頻交流領域。
Adobe 推出新符號鼓勵標注 AI 生成內容
Adobe與微軟等公司合作推出新符號,用于標注由人工智能生成的內容,增強透明度,可添加至圖片、視頻、PDF。
?? 【AiBase提要:】
1. ? Adobe與微軟合作推出新符號,用以標注AI生成的內容,提高透明度。
2. ?? 這一符號將嵌入在內容的元數據中,顯示制作工具和所有權信息。
3. ? Adobe計劃在其產品中使用該符號,以幫助用戶識別AI生成的內容。
谷歌承諾為其生成式AI產品用戶承擔版權方面的法律風險
谷歌承諾為使用其生成式AI產品的用戶承擔法律風險,以防其因侵犯版權而被起訴。具體提到了七個產品,包括Duet AI、Vertex AI等,谷歌將為這些產品的用戶提供法律保護。谷歌采用雙重保障策略,覆蓋了培訓數據和基礎模型產生的結果,以應對可能出現的版權問題。
【AiBase提要】
? 谷歌保護生成式AI產品用戶免受版權侵犯的法律風險。
? 谷歌明確指出七個受法律覆蓋的產品,包括Duet AI和Vertex AI。
? 谷歌采用雙重保障策略,覆蓋培訓數據和基礎模型產生的結果。
AI研究人員發現了主要大語言模型中關鍵漏洞 可低成本復制
AI研究發現大型語言模型(LLM)如ChatGPT和Bard存在關鍵漏洞,可以以低成本被復制,可能導致私人信息泄露和有針對性的攻擊。
【AiBase提要:】
1. ???♂? 大型語言模型(LLM),包括ChatGPT和Bard,面臨安全漏洞,可被低成本復制,引發擔憂。
2. ? 名為“模型寄生”的攻擊方法允許攻擊者通過與LLM交互獲取關鍵信息,可能泄露私人數據或發動有針對性攻擊。
3. ? 盡管LLM技術有潛力,企業在采用和部署LLM時需要認真考慮網絡安全風險,這是一個重要關切點。
《賽博朋克2077》使用AI技術再現已故配音演員聲音
波蘭游戲公司CD Projekt在旗下游戲《賽博朋克2077》中,使用AI技術重現已故配音演員Mi?ogost Reczek的聲音,這一決定引起了游戲開發中的AI倫理法律問題討論。
【AiBase提要:】
? CD Projekt使用AI技術重現已故配音Mi?ogost Reczek的聲音
? 此舉引發游戲開發中使用AI的倫理法律爭議
? 反映出AI在娛樂業的廣泛應用潛力和面臨的挑戰
?????聚焦開發者
Meta提出CoVe提示工程方法 減少ChatGPT等聊天機器人幻覺問題
Meta AI研究人員提出了一種名為鏈式驗證(CoVe)的新方法,通過讓聊天機器人生成驗證問題來減少ChatGPT等語言模型產生的錯誤信息,大幅提高答案準確度。
【AiBase提要】
1. ? Meta的CoVe方法讓聊天機器人自動生成驗證問題,獨立于初步輸出,從而顯著降低ChatGPT等語言模型的錯誤信息復制。
2. ? CoVe不僅提高了列表式問題的準確度,而且在長文本中也能提高事實準確性,為解決幻覺問題提供了新思路。
3. ? 未來,CoVe方法有望結合外部知識,允許聊天機器人訪問外部數據庫以回答驗證問題,進一步改善性能。
南加州大學提出通道式輕量級重編碼CLR 解決大語言模型災難性遺忘問題
南加州大學和Google Research提出通道式輕量級重編碼(CLR)方法,解決大語言模型持續學習中的遺忘問題,使模型可以在學習新任務時保持對舊任務的性能。
-
論文地址: https://arxiv.org/pdf/2307.11386.pdf
-
項目地址: https://github.com/gyhandy/Channel-wise-Lightweight-Reprogramming
-
數據集地址: https://ilab.usc.edu/andy/skill102
【AiBase提要:】
1. 南加州大學和Google Research的通道式輕量級重編碼方法通過在模型的固定骨干中引入輕量級模塊,對特征圖進行重編程,解決了大語言模型持續學習中的遺忘問題,僅增加了0.6%的額外參數。
2. 通道式輕量級重編碼采用動態網絡方式,使模型能夠持續學習多個新任務,而不會出現災難性遺忘,實現了在不同任務之間的靈活切換。
3. 這一創新方法為持續學習領域帶來了新的機會,使模型能夠在不斷學習新任務的同時,有效地保持對舊任務的性能,為多任務學習領域帶來了新的突破。
Lakera推出API,保護大型語言模型免受惡意提示攻擊
瑞士初創公司Lakera發布了一款API,旨在保護企業免受大型語言模型的惡意提示攻擊,同時通過互動游戲和分類系統識別攻擊類型,致力于數據隱私和安全性。
地址:https://www.lakera.ai/
【AiBase提要:】
1?? Lakera發布API,保護企業免受大型語言模型的惡意提示攻擊,融資1000萬美元支持。
2?? Lakera開發互動游戲“Gandalf”來識別語言欺騙攻擊,建立“prompt injection”攻擊分類系統。
3?? Lakera關注數據隱私、內容過濾,幫助企業應對LLM引發的誤導、事實錯誤,適應歐盟AI法規。