深度求索揭秘DeepSeek-R1升級細節(jié):思考更深推理更強,幻覺最高降50%

極客網(wǎng)·人工智能5月30日 深度求索(DeepSeek)公司5月28日宣布DeepSeek-R1進行了小升級,引發(fā)廣泛關(guān)注;29日官方詳細介紹了此次更新的變化,稱當(dāng)前版本為DeepSeek-R1-0528,升級后的新模型在深度思考、推理能力、幻覺改善、創(chuàng)意寫作等方面有了較大的提升。

特別地,新版DeepSeek R1針對“幻覺”問題進行了優(yōu)化。與舊版相比,更新后的模型在改寫潤色、總結(jié)摘要、閱讀理解等場景中,幻覺率降低了45~50% 左右,能夠有效地提供更為準確、可靠的結(jié)果。

深度思考能力強化

DeepSeek-R1-0528仍然使用2024年12月所發(fā)布的 DeepSeek V3 Base 模型作為基座,但在后訓(xùn)練過程中投入了更多算力,顯著提升了模型的思維深度與推理能力。

更新后的R1模型在數(shù)學(xué)、編程與通用邏輯等多個基準測評中取得了當(dāng)前國內(nèi)所有模型中首屈一指的優(yōu)異成績,并且在整體表現(xiàn)上已接近其他國際頂尖模型,如o3與Gemini-2.5-Pro。

DeepSeek-R1-0528 在各項評測集上均取得了優(yōu)異表現(xiàn)(基準測試使用 64K 輸出長度;在 Humanity's Last Exam 中,只使用其中的文本題目進行測試)

DeepSeek-R1-0528 在各項評測集上均取得了優(yōu)異表現(xiàn)(基準測試使用 64K 輸出長度;在 Humanity's Last Exam 中,只使用其中的文本題目進行測試)

相較于舊版 R1,新版模型在復(fù)雜推理任務(wù)中的表現(xiàn)有了顯著提升。例如在 AIME 2025 測試中,新版模型準確率由舊版的 70% 提升至 87.5%。這一進步得益于模型在推理過程中的思維深度增強:在 AIME 2025 測試集上,舊版模型平均每題使用 12K tokens,而新版模型平均每題使用 23K tokens,表明其在解題過程中進行了更為詳盡和深入的思考。

同時,蒸餾DeepSeek-R1-0528的思維鏈后訓(xùn)練Qwen3-8B Base,得到了 DeepSeek-R1-0528-Qwen3-8B。該8B模型在數(shù)學(xué)測試AIME 2024中僅次于DeepSeek-R1-0528,超越 Qwen3-8B (+10.0%),與 Qwen3-235B 相當(dāng)。DeepSeek-R1-0528的思維鏈對于學(xué)術(shù)界推理模型的研究和工業(yè)界針對小模型的開發(fā)都將具有重要意義。

微信截圖_20250530091340.jpgDeepSeek-R1-0528-Qwen3-8B 等開源模型的 AIME 2024 對比結(jié)果

其他能力更新

幻覺改善:新版DeepSeek R1針對“幻覺”問題進行了優(yōu)化。與舊版相比,更新后的模型在改寫潤色、總結(jié)摘要、閱讀理解等場景中,幻覺率降低了45~50% 左右,能夠有效地提供更為準確、可靠的結(jié)果。

創(chuàng)意寫作:在舊版 R1 的基礎(chǔ)上,更新后的 R1 模型針對議論文、小說、散文等文體進行了進一步優(yōu)化,能夠輸出篇幅更長、結(jié)構(gòu)內(nèi)容更完整的長篇作品,同時呈現(xiàn)出更加貼近人類偏好的寫作風(fēng)格。

工具調(diào)用:DeepSeek-R1-0528 支持工具調(diào)用(不支持在 thinking 中進行工具調(diào)用)。當(dāng)前模型 Tau-Bench 測評成績?yōu)?airline 53.5% / retail 63.9%,與 OpenAI o1-high 相當(dāng),但與 o3-High 以及 Claude 4 Sonnet 仍有差距。

示例為通過 LobeChat 使用 DeepSeek-R1-0528 的工具調(diào)用能力得到的網(wǎng)頁文章總結(jié)

示例為通過 LobeChat 使用 DeepSeek-R1-0528 的工具調(diào)用能力得到的網(wǎng)頁文章總結(jié)

此外,DeepSeek-R1-0528 在前端代碼生成、角色扮演等領(lǐng)域的能力均有更新和提升。

示例為在網(wǎng)頁端調(diào)用 DeepSeek-R1-0528 使用 HTML/CSS/JavaScript 開發(fā)的一個現(xiàn)代簡約風(fēng)格的單詞卡片應(yīng)用

示例為在網(wǎng)頁端調(diào)用 DeepSeek-R1-0528 使用 HTML/CSS/JavaScript 開發(fā)的一個現(xiàn)代簡約風(fēng)格的單詞卡片應(yīng)用

API 更新

API 已同步更新,接口與調(diào)用方式保持不變。新版R1 API仍支持查看模型思考過程,同時還增加了Function Calling和JsonOutput的支持。

我們對新版 R1 API 中 max_tokens 參數(shù)的含義做了調(diào)整:現(xiàn)在 max_tokens用于限制模型單次輸出的總長度(包括思考過程),默認為 32K,最大為 64K。請 API 用戶及時調(diào)整 max_tokens 參數(shù)以防輸出被提前截斷。

本次R1更新后,官方網(wǎng)站、小程序、App端和API中的模型上下文長度仍為64K。如果用戶對更長的上下文長度有需求,可以通過其他第三方平臺調(diào)用上下文長度為128K的開源版本R1-0528模型。

模型開源

DeepSeek-R1-0528與之前的DeepSeek-R1使用同樣的base模型,僅改進了后訓(xùn)練方法。私有化部署時只需要更新 checkpoint 和 tokenizer_config.json(tool calls 相關(guān)變動)。模型參數(shù)為 685B(其中 14B 為 MTP 層),開源版本上下文長度為 128K(網(wǎng)頁端、App 和 API 提供 64K 上下文)。

(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2025-05-30
深度求索揭秘DeepSeek-R1升級細節(jié):思考更深推理更強,幻覺最高降50%
新版DeepSeek R1針對“幻覺”問題進行了優(yōu)化。

長按掃碼 閱讀全文