MosaicML 推出 300 億參數模型,訓練成本 70 萬
時間:2023-06-25 06:29:07
(資料圖)
AI 創業公司 MosaicML 近日發布了其語言模型 MPT-30B,單從參數來看,這個模型具有 300 億參數,放在如今動則上千億參數的模型領域中并沒有什么突出的地方。但這個新模型的訓練成本卻只有其他模型的零頭,有望擴大模型在更廣泛領域的運用。
MosaicML 的首席執行官兼聯合創始人 Naveen Rao 表示,MPT-30B 的訓練成本為 70 萬美元,遠低于訓練 GPT-3 所需的數千萬美元。此外,MPT-30B 模型的質量超過了 OpenAI 在 2020 年發布的初版 GPT-3。由于 MPT-30B 的成本較低,體積較小,它也可以更快速地被訓練,并部署在本地硬件設備上。
MosaicML 使用了 Alibi 和 FlashAttention 技術來優化模型,可以實現更長的文本長度和對 GPU 計算的高利用率。MosaicML 也是少數幾個能夠使用 Nvidia H100 GPU 的實驗室,相比以往,這使得每 GPU 的吞吐量增加了 2.4 倍以上,帶來更快的完成時間。
300 億參數這是一個在大模型領域經常看到的數字,300 億參數為什么這么特殊呢?MosaicML 首席科學家 Frankle 則解釋道,首先 300 億參數能夠確保它可以在本地硬件上輕松運行,同時保持質量與 GPT-3 差不多或略優于它。
其次任何超過 300 億參數限制的模型都需要將模型分解成多個平行段,通常也需要更加昂貴的多 GPU 設置。
除了讓 AI 技術更容易獲得之外,MosaicML 還專注于提高數據質量,以提高模型性能。他們目前正在開發工具,幫助用戶在預訓練過程中分層加入特定領域的數據。這確保了多樣化和高質量的數據組合。將模型擴展到 300 億參數只是 MosaicML 的第一步,接下來他們將以降低成本為前提,推出更大的、更高質量的模型。
開發者可以從 Hugging Face 下載并使用開源的 MPT-30B 基礎模型,開發者還可以在自己的硬件上用自己的數據對模型進行微調。
相關稿件
MosaicML 推出 300 億參數模型,訓練成本 70 萬
鐘鼓饌玉不足貴但愿長醉不復醒還是不愿醒(鐘鼓饌玉不足貴但愿長醉不復醒)
谷歌稱愿為Stadia花五年打造3A游戲 奈何成本太高_當前速讀
如何養護丙烯酸涂料,讓你的禮物更持久美麗?男生必看送女生禮物小技巧!|今亮點
環球今頭條!重慶四環來了!將形成“四環二十二射六十聯線”高速公路網布局
Lisa Selesner(lisa selesner)|環球關注
上汽大眾全新Polo Plus怎么樣及廣汽謳歌TLX-L 2.4L多少錢|全球速訊
潮訊:蘋果終于修復這漏洞;安卓比iOS更容易使用;手機NFC功能要徹底變了;Flyme10修復了這些問題
南方 16 條河流發生超警洪水,水利部門全力做好暴雨洪水防御 天天微資訊