不到10行代碼、小時級完成適配!昇思版本DeepSeek-R1-0528上線開源社區(qū)

摘要:內(nèi)附手把手開發(fā)教程

2025年5月28日深夜,DeepSeek 官方在用戶群中宣布完成“小版本試升級”,發(fā)布DeepSeek-R1-0528,昇思MindSpore開源社區(qū)開發(fā)者基于已支持的DeepSeek V3進行快速適配,1小時內(nèi)完成開發(fā),修改代碼小于10行,實現(xiàn)鏡像替換、推理任務(wù)拉起,經(jīng)測試驗證,模型精度與官方開源版本一致。

基于昇思版本適配的DeepSeek-R1-0528已上架開源社區(qū)代碼倉及魔樂社區(qū),面向開發(fā)者提供開箱即用的模型,便于開發(fā)者直接使用或二次開發(fā)。

本次快速適配應(yīng)用了MindSpore Transformers大模型使能套件,該套件依托MindSpore AI框架提供的豐富的多維混合并行能力,親和開源工具與通用數(shù)據(jù)格式,原生支持大模型蒸餾的端到端全流程開發(fā),提供了高效、便捷的開發(fā)能力

同時,本次推理服務(wù)的拉起與部署應(yīng)用了MindSpore-vLLM插件,支持基于vLLM框架部署MindSpore模型的推理服務(wù)。

MindSpore Transformers代碼倉:https://gitee.com/mindspore/mindformers

MindSpore-vLLM代碼倉:

https://gitee.com/mindspore/vllm-mindspore

魔樂社區(qū)代碼倉:

https://modelers.cn/models/MindSpore-Lab/DeepSeek-R1-0528

本次發(fā)布的DeepSeek V3-0528主要升級以下能力:

1.推理與思維深度增強

思考長度翻倍:平均每題推理token從12K增至23K,解題步驟更詳盡(如AIME數(shù)學題準確率從70%→87.5%)。

幻覺率降低45~50%:在摘要、改寫等任務(wù)中輸出更可靠。

2.編程能力突破

前端代碼生成:可一次性生成超千行無Bug代碼,支持復雜動態(tài)效果(如天氣動畫、數(shù)據(jù)可視化)。

多語言支持:在LiveCodeBench測試中Pass@1從63.5%→73.3%,媲美OpenAI o3高版本。

3.新增功能與體驗優(yōu)化

工具調(diào)用(Function Calling):支持外部API調(diào)用,Tau-Bench成績達OpenAI o1-high水平。

創(chuàng)意寫作提升:長文本結(jié)構(gòu)更完整,更貼近人類風格。

API兼容性:接口不變,新增JSON輸出支持。

手把手教程DeepSeek-R1-0528vLLM-MindSpore 使用指南

●本項目中提供的DeepSeek-R1-0528模型權(quán)重已反量化為BF16,權(quán)重文件大小1.3T。

環(huán)境搭建

環(huán)境準備:四臺Atlas 800I A2 (64G),并配置好組網(wǎng),四臺設(shè)備的卡與卡之間能夠互相ping通。

四臺設(shè)備分別拉取鏡像

docker pull hub.oepkgs.net/oedeploy/openeuler/aarch64/mindspore:20250529

四臺設(shè)備分別殺進程,避免其他進程影響

pkill -9 python

pkill -9 mindie

pkill -9 ray

四臺設(shè)備分別啟動容器,四臺設(shè)備的hostname需要不同,但容器名稱需要一致。

/data/deeepseek_r1_0528/用于存放權(quán)重及yaml配置文件。四臺服務(wù)器都需要下載權(quán)重,而且存放路徑需要一致,權(quán)重文件大小1.3T,需要預留足夠磁盤空間。

docker run -it --name=DSR10528 --ipc=host --network=host --privileged=true --hostname=worker23 \

--device=/dev/davinci0 \

--device=/dev/davinci1 \

--device=/dev/davinci2 \

--device=/dev/davinci3 \

--device=/dev/davinci4 \

--device=/dev/davinci5 \

--device=/dev/davinci6 \

--device=/dev/davinci7 \

--device=/dev/davinci_manager \

--device=/dev/devmm_svm \

--device=/dev/hisi_hdc \

-v /usr/local/sbin/:/usr/local/sbin/ \

-v /etc/hccn.conf:/etc/hccn.conf \

-v /usr/local/bin/npu-smi:/usr/local/bin/npu-smi \

-v /usr/local/dcmi:/usr/local/dcmi \

-v /usr/local/Ascend/driver:/usr/local/Ascend/driver \

-v /etc/ascend_install.info:/etc/ascend_install.info \

-v /etc/vnpu.cfg:/etc/vnpu.cfg \

-v /data/deeepseek_r1_0528/:/data/deeepseek_r1_0528/ \

hub.oepkgs.net/oedeploy/openeuler/aarch64/mindspore:20250428 \

/bin/bash

下載權(quán)重及yaml配置文件

四臺設(shè)備分別從魔樂社區(qū)下載權(quán)重及yaml配置文件。

pip install openmind_hub

export HUB_WHITE_LIST_PATHS=/data/deeepseek_r1_0528

python

from openmind_hub import snapshot_download

snapshot_download(

repo_id="MindSpore-Lab/DeepSeek-R1-0528",

local_dir="/data/deeepseek_r1_0528",

local_dir_use_symlinks=False

)

exit()

四臺設(shè)備分別修改yaml配置文件

# 修改為模型權(quán)重路徑

load_checkpoint: '/data/deeepseek_r1_0528/'

# 修改為模型tokenizer.json文件所在路徑

vocab_file: '/data/deeepseek_r1_0528/tokenizer.json'

# 修改為模型tokenizer.json文件所在路徑

tokenizer_file: '/data/deeepseek_r1_0528/tokenizer.json'

啟動

四臺設(shè)備的容器中分別添加環(huán)境變量。enp189s0f0是ifconfig命令顯示的網(wǎng)卡名稱,根據(jù)需要調(diào)整。

export

MINDFORMERS_MODEL_CONFIG=/data/deeepseek_r1_0528/peizhi/predict_deepseek_r1__671b.yaml

export ASCEND_CUSTOM_PATH=$ASCEND_HOME_PATH/../

export vLLM_MODEL_BACKEND=MindFormers

export MS_ENABLE_LCCL=off

export HCCL_OP_EXPANSION_MODE=AIV

export HCCL_SOCKET_IFNAME=enp189s0f0

export GLOO_SOCKET_IFNAME=enp189s0f0

export TP_SOCKET_IFNAME=enp189s0f0

export HCCL_CONNECT_TIMEOUT=3600

export ASCEND_RT_VISIBLE_DEVICES=0,1,2,3,4,5,6,7

主機及輔機設(shè)置

選擇一臺設(shè)備作為主節(jié)點,執(zhí)行如下命令

ray stop

ray start --head --port=6380

其他三臺設(shè)備作為輔節(jié)點,依次執(zhí)行如下命令

ray stop

ray start --address=主節(jié)點IP:6380

在主節(jié)點容器中拉起服務(wù),其他節(jié)點不需要。模型路徑根據(jù)需要調(diào)整。

python3 -m vllm_mindspore.entrypoints vllm.entrypoints.openai.api_server

--model "/data/deepseek_r1_0528_bf16" --trust_remote_code

--tensor_parallel_size=32 --max-num-seqs=256 --block-size=32

--max_model_len=16384 --max-num-batched-tokens=4096

--distributed-executor-backend=ray --gpu-memory-utilization=0.93

發(fā)起推理服務(wù)請求,若在主節(jié)點發(fā)起請求,新開一個終端,IP地址是0.0.0.0或者localhost

curl http://localhost:8000/v1/chat/completions \

-H "Content-Type: application/json" \

-d '{

"model": "/data/deepseek_r1_0528_bf16",

"messages": [

{"role": "user", "content": "請介紹下北京的top景點"}

],

"temperature": 0.1,

"max_tokens": 4096,

"top_p": 0.9,

"repetition_penalty": 1.2

}'

(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )