Meta推出Llama 3大模型 在集成近25000塊英偉達H100計算集群上訓練

4月19日消息,據外媒報道,Meta公司在當地時間周四推出了他們最新一代大語言模型Llama 3的早期版本,并宣布推出基于這一模型打造的人工智能助手Meta AI。

從外媒的報道來看,同前一代大模型Llama 2一樣,Meta新一代的Llama 3大模型,也注重供用戶免費使用,目前已有兩種不同參數版本的Llama 3可供用戶使用,分別為80億參數和700億參數,均已可在Meta官網下載。

對于Llama 3大語言模型,Meta公司CEO馬克?扎克伯格在接受采訪時透露,他們在訓練700億參數的模型時,使用了15T tokens的數據,在訓練過程中模型從未達到飽和狀態(tài),也就是從未在能力提升過程中遇到瓶頸,Meta最終也解決了訓練過程中遇到的問題,并轉向訓練其他的模型。

正如外媒在報道中所提到的一樣,Meta目前推出的還只是Llama 3的早期版本,他們還在訓練更強大的模型。外媒在報道中就提到,Meta已宣布他們目前正在訓練有4000億參數的Llama 3模型,部分專家認為他們的這一模型,在MMLU、GPQA、HumanEval、MATH等方面的表現,將與OpenAI的GPT-4 Turbo, Anthropic的Claude 3 Opus和谷歌的Gemini Ultra相當。

作為全球人工智能領域重要參與者的英偉達,在Meta訓練的Llama 3上也發(fā)揮了關鍵作用,提供了大量的GPU。

在Meta宣布推出Llama 3之后不久,英偉達就在官網上披露,Meta的工程師是在集成了24,576塊H100 GPU的計算集群上訓練的Llama 3,這些GPU通過英偉達的Quantum-2 InfiniBand網絡連接。在英偉達的支持下,Meta也為他們的旗艦模型調整了網絡、軟件和模型架構。(海藍)

(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )

贊助商
2024-04-19
Meta推出Llama 3大模型 在集成近25000塊英偉達H100計算集群上訓練
GPU通過英偉達的Quantum-2 InfiniBand網絡連接。

長按掃碼 閱讀全文