微軟、OpenAI 和 Cohere 等公司已轉向使用合成數(shù)據(jù)訓練人工智能模型
微新創(chuàng)想(idea2003.com) 7月20日消息:人工智能公司 Cohere 的首席執(zhí)行官 Aiden Gomez 表示,合成數(shù)據(jù)已經被用來訓練人工智能模型。由于 Reddit 和 Twitter 等公司對于其他公司抓取其數(shù)據(jù)收費高昂,微軟、OpenAI 和 Cohere 等 AI 公司正在轉向合成數(shù)據(jù)。
Gomez 透露,合成數(shù)據(jù)的使用已經非常廣泛,但并未廣泛宣傳。舉例來說,如果他們想要訓練一個高級數(shù)學模型,他們可以設置兩個人工智能模型扮演老師和學生的角色,在其中討論三角學等主題,然后觀察的人會在必要時糾正對話。
雖然合成數(shù)據(jù)已經被用于訓練模型,并成為幾篇研究論文的重點,但模型主要的訓練方式是從互聯(lián)網上獲取數(shù)據(jù),包括數(shù)字圖書、新聞文章、博客、社交媒體、Flickr 等。然后,人類通過強化學習反饋(RLHF)給出反饋并填補信息中的空白。
這種方法存在的一些問題包括可能導致侵犯版權和違反隱私,從而使公司陷入麻煩。Meta 已經停止披露用于訓練巨型生成式 AI 模型 Llama 2 的數(shù)據(jù)來源。
Financial Times 指出,微軟研究的一篇有趣的研究論文名為「教科書就是你所需要的」,它解釋了通過用教科書質量的數(shù)據(jù)訓練一個編碼模型,該模型在編碼任務上表現(xiàn)得相當好。類似的方法也可以用于語言,其中一個模型被訓練用簡單的單詞和句子,然后可以產生流暢和語法正確的故事。
當然,雖然使用合成數(shù)據(jù)來訓練模型可能會取得突破,但公司也必須小心不要使用質量較差的合成數(shù)據(jù),否則可能會導致隨著時間的推移性能下降。
再加上 OpenAI 和 Anthropic 等公司正在開發(fā)的用于減少人工智能幻覺的 chain-of-thought techniques,合成數(shù)據(jù)可能會幫助人工智能幫助我們解決更多挑戰(zhàn)。