標(biāo)題:英偉達(dá)創(chuàng)新強(qiáng)化學(xué)習(xí)技術(shù):只需訓(xùn)練2000步,打造全球最強(qiáng)AI推理模型
隨著人工智能技術(shù)的飛速發(fā)展,強(qiáng)化學(xué)習(xí)(Reinforcement Learning)在訓(xùn)練中扮演著越來越重要的角色。英偉達(dá)作為一家領(lǐng)先的科技公司,推出了一種名為ProRL的強(qiáng)化學(xué)習(xí)方法,通過延長強(qiáng)化學(xué)習(xí)訓(xùn)練時(shí)間至超過2000步,并將訓(xùn)練數(shù)據(jù)擴(kuò)展至多個(gè)領(lǐng)域,成功開發(fā)出全球最佳的1.5B參數(shù)推理模型Nemotron-Research-Reasoning-Qwen-1.5B。本文將圍繞這一創(chuàng)新技術(shù),探討其在大型語言模型(LLM)推理能力提升方面的突破與應(yīng)用。
一、強(qiáng)化學(xué)習(xí)的角色與爭議
強(qiáng)化學(xué)習(xí)是一種通過試錯法來尋找最優(yōu)決策策略的學(xué)習(xí)方法。在訓(xùn)練過程中,智能體根據(jù)環(huán)境反饋來調(diào)整自己的行為,以達(dá)到獎勵最大化的目標(biāo)。近年來,強(qiáng)化學(xué)習(xí)在游戲AI、自動駕駛等領(lǐng)域取得了顯著的成果。然而,關(guān)于強(qiáng)化學(xué)習(xí)是否真正提升大型語言模型(LLM)的推理能力,研究者們?nèi)源嬖跔幾h。
現(xiàn)有數(shù)據(jù)表明,采用可驗(yàn)證獎勵的強(qiáng)化學(xué)習(xí)(RLVR)方法,如GRPO、Mirror Descent和RLOO等算法,雖然在pass@k指標(biāo)上未能顯著優(yōu)于基礎(chǔ)模型,但顯示推理能力有所擴(kuò)展。然而,這些改進(jìn)仍存在限制,例如在探索潛力和訓(xùn)練步數(shù)方面。
二、ProRL方法的突破與應(yīng)用
為了解決上述問題,英偉達(dá)研究團(tuán)隊(duì)推出ProRL方法,通過延長強(qiáng)化學(xué)習(xí)訓(xùn)練時(shí)間至超過2000步,并將訓(xùn)練數(shù)據(jù)擴(kuò)展至多個(gè)領(lǐng)域,涵蓋13.6萬個(gè)樣本。這些領(lǐng)域包括數(shù)學(xué)、編程、STEM、邏輯謎題和指令遵循等。
通過采用Verl框架和改進(jìn)的GRPO方法,英偉達(dá)成功開發(fā)出全球最佳的1.5B參數(shù)推理模型Nemotron-Research-Reasoning-Qwen-1.5B。該模型在多項(xiàng)基準(zhǔn)測試中超越了基礎(chǔ)模型DeepSeek-R1-1.5B,甚至優(yōu)于更大的DeepSeek-R1-7B。測試結(jié)果顯示,該模型在數(shù)學(xué)領(lǐng)域的平均提升達(dá)到15.7%,編程任務(wù)pass@1準(zhǔn)確率提升14.4%,STEM推理和指令遵循的提升則分別達(dá)到25.9%和22.0%。此外,邏輯謎題獎勵值的提升更是達(dá)到了54.8%,充分展現(xiàn)了其強(qiáng)大的泛化能力。
三、未來展望
英偉達(dá)的ProRL方法為強(qiáng)化學(xué)習(xí)在大型語言模型(LLM)推理能力提升方面開辟了新的道路。隨著訓(xùn)練時(shí)間的延長和訓(xùn)練數(shù)據(jù)領(lǐng)域的擴(kuò)展,我們有望看到更多強(qiáng)大的AI推理模型問世。然而,我們?nèi)孕枰P(guān)注以下幾個(gè)問題:
首先,如何平衡模型的泛化能力和特定領(lǐng)域的表現(xiàn)?Nemotron-Research-Reasoning-Qwen-1.5B在數(shù)學(xué)、編程、STEM等領(lǐng)域表現(xiàn)出色,但在其他領(lǐng)域的表現(xiàn)如何?
其次,如何處理過擬合問題?隨著模型參數(shù)的增加,如何確保模型對新數(shù)據(jù)的適應(yīng)能力?
最后,如何優(yōu)化強(qiáng)化學(xué)習(xí)算法以提高訓(xùn)練效率?ProRL方法是否能夠推廣到其他類型的LLM?
綜上所述,英偉達(dá)的ProRL方法為強(qiáng)化學(xué)習(xí)技術(shù)在大型語言模型(LLM)推理能力提升方面提供了新的思路和方向。隨著該技術(shù)的進(jìn)一步發(fā)展和完善,我們有理由相信,未來的AI將更加聰明、靈活和強(qiáng)大。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )