OpenAI、谷歌、微軟和 Anthropic聯合成立機構監督“前沿人工智能”模型開發
微新創想(idea2003.com)7月27日 消息:為了響應日益增長的監管呼聲,OpenAI、微軟、谷歌和 Anthropic 成立了前沿模型論壇,旨在確保 “前沿人工智能” 模型的安全和負責任的開發。該聯盟將利用成員公司的專業知識來開發技術評估和基準,并推廣最佳實踐和標準。
他們認為這類模型對公共安全構成嚴重風險,具有獨特的監管挑戰。論壇的目標包括推進人工智能安全研究、確定最佳實踐、與政策制定者合作,并支持應對社會挑戰的應用程序。具體如下:
新論壇的自定目標包括:
i) 推進人工智能安全研究,以促進負責任的前沿模型開發,最大限度地降低風險,并實現對能力和安全性的獨立、標準化評估。
ii) 確定負責任地開發和部署前沿模型的最佳實踐,幫助公眾了解技術的性質、功能、局限性和影響。
iii) 與政策制定者、學術界、民間社會和公司合作,分享有關信任和安全風險的知識。
iiii) 支持開發有助于應對社會最大挑戰的應用程序,例如減緩和適應氣候變化、早期癌癥檢測和預防以及應對網絡威脅。
盡管目前只有四名成員,但該團體表示歡迎新成員加入。這一舉措旨在向外界展示 AI 行業對安全問題的重視,并試圖通過自愿舉措來規避即將到來的監管,也許可以為制定規則做一些努力。
歐洲正在推進第一個具體的人工智能法規,旨在將安全、隱私、透明度和反歧視納入公司的人工智能開發理念。上周,拜登總統在白宮與七家人工智能公司會面,其中包括前沿模型論壇的四個創始成員,以達成自愿保障措施來應對蓬勃發展的人工智能革命。
拜登也表示,未來可能會出現監管監督。拜登當時表示:“通過管理風險來實現人工智能的承諾將需要一些新的法律、法規和監督。” “在未來幾周內,我將繼續采取行政行動,幫助美國引領負責任的創新之路。我們將與雙方合作制定適當的立法和監管。”