人人人免费人人专区人人,欧美精品不卡,欧美大片无尺码在线观看,久久精品小视频,成人免费黄色大片,欧美+亚洲+精品+三区

Abacus AI 推出開放式上下文大語言模型Long Context

微新創想(idea2003.com)8月4日 消息:Abacus.AI LLM Context Expansion 是一款能夠擴展語境長度的工具,可以幫助用戶擴展模型的語境長度,提高模型對長文本的處理能力。該工具基于 Abacus.AI 的 LLM(Language Model for Long-form Content)架構,提供了一系列代碼和工具,用于增加模型對長文本的理解能力。通過預訓練和微調,該工具可以使模型在處理超過2048個單詞的文本時仍然能夠保持高效和準確。

項目地址:https://github.com/abacusai/Long-Context

要點:

1、Abacus AI 的研究人員通過多次實驗,發現將 LLMs 的上下文長度能力擴展到更長的上下文是可行的。

2、研究人員使用不同的方法對 RedPajama 數據集進行了 fine-tune,并發現線性縮放方法在模型上下文長度上效果良好,而截斷和隨機化方法在檢索任務上效果較差。

3、通過評估模型在不同數據集上的表現,研究人員發現將上下文長度進行縮放可以顯著提高模型的性能,進而改進模型的困惑度,并更好地捕捉文檔的主題。

4、Abacus.AI LLM Context Expansion 提供了評估腳本和基準任務,用于評估模型在信息檢索方面的能力,并提供了重要的實驗結果和復現指南,以幫助用戶進一步改進和構建自己的模型。

5、Abacus.AI提供預訓練模型權重,對于表現最好的模型(線性插值 + 指令微調,在縮放因子為4和16時),該工具提供了預訓練模型的權重,方便用戶直接使用或進行自己的測試。

您可能還喜歡...

發表回復

您的郵箱地址不會被公開。 必填項已用 * 標注