免费部署专属自己的 DeepSeek-R1-70B 模型(Llama蒸馏)
前言
最近,国产大模型 DeepSeek-R1 引发了广泛关注。我在 DeepSeek 模型 V2.5 版本时就注册试用过,当时注册即赠送 10 元额度,该模型因价格低廉且效果出色小有名气。
建议:如果条件允许,建议购买一些 API 额度。价格实惠,还能体验到最强、最完整的 R1 模型。
目前,该公司将最新最强的 DeepSeek-R1 开源并发表论文,开源精神值得肯定!
在项目开源地址:DeepSeek-R1 中,我们可以看到基于 Llama-3.3-70B-Instruct 模型微调的 DeepSeek-R1-Distill-Llama-70B。
环境要求
正常情况下,部署本地大模型需要满足以下要求:
模型名称 | 模型大小 | 内存(RAM) | 显存(VRAM)要求(建议) |
---|---|---|---|
DeepSeek-R1-Distill-Qwen-1.5B | 1.5B | 8 GB 以上 | 4 GB 以上 |
DeepSeek-R1-Distill-Qwen-7B | 7B | 16 GB 以上 | 8 GB 以上 |
DeepSeek-R1-Distill-Llama-8B | 8B | 16 GB 以上 | 8 GB 以上 |
DeepSeek-R1-Distill-Qwen-14B | 14B | 32 GB 以上 | 12 GB 以上 |
DeepSeek-R1-Distill-Qwen-32B | 32B | 64 GB 以上 | 24 GB 以上 |
DeepSeek-R1-Distill-Llama-70B | 70B | 128 GB 以上 | 48 GB 以上 |
显然,128G 内存 + 48G 显存 的设备费用非常高,对个人用户来说成本过于高昂。
但近期由于大量用户涌入或其他原因,DeepSeek 官网响应速度较慢。
通过本方法部署的模型虽然不是完整的 R1 模型,但 70B 参数 已经足够使用。响应速度比官网快了许多,基本思考时间在 1 秒左右,且支持 免费 API 调用。
但有一点需要注意的是,每分钟 token 限制 6000,但对于个人使用来说已经足够。
开始部署
Grop 部署
-
访问 Grop 官网,点击右上角按钮登录账号。
-
登录后,点击左侧 API Keys。
-
点击 Create API Key 创建 API。
-
输入 API 名(可随意命名)。
-
重要:复制并保存好 API 密钥,创建后不会再显示。
测试
-
下载并安装开源工具,官网:Cherry Studio。
-
打开后,点击左下角小齿轮。
-
下滑选择 Grop,填入以下参数:
- API 密钥:上面保存的 API 密钥
- API 地址:
https://api.groq.com/openai
-
添加模型:
-
点击 添加 按钮。
-
模型 ID 为
deepseek-r1-distill-llama-70b
直接复制粘贴。
-
-
切换到新添加的模型。
-
现在可以正常对话了。
Deno 中转
虽然已经可以正常使用,但因为某些不可抗力,需要开启 梯子 才能访问。接下来通过 Deno 中转实现国内直接访问。
-
登录 / 注册 Deno 官网。
-
点击右上角 New Playground。
-
复制以下代码:
async function handleRequest(request: Request): Promise<Response> { const url = new URL(request.url); const pathname = url.pathname; if (pathname === '/' || pathname === '/index.html') { return new Response('Proxy is Running!Details:https://github.com/tech-shrimp/deno-api-proxy', { status: 200, headers: { 'Content-Type': 'text/html' } }); } const targetUrl = `https://${pathname}`; try { const headers = new Headers(); const allowedHeaders = ['accept', 'content-type', 'authorization']; for (const [key, value] of request.headers.entries()) { if (allowedHeaders.includes(key.toLowerCase())) { headers.set(key, value); } } const response = await fetch(targetUrl, { method: request.method, headers: headers, body: request.body }); const responseHeaders = new Headers(response.headers); responseHeaders.set('Referrer-Policy', 'no-referrer'); return new Response(response.body, { status: response.status, headers: responseHeaders }); } catch (error) { console.error('Failed to fetch:', error); return new Response('Internal Server Error', { status: 500 }); } }; Deno.serve(handleRequest);
代码来源:技术爬爬虾。
-
点击 Save & Deploy。
-
复制生成的域名。
-
在 Cherry Studio 中,替换 API 地址:
- 原地址:
https://api.groq.com/openai
- 新地址:
https://far-dolphin-34.deno.dev/api.groq.com/openai
(以实际生成的域名为准)
- 原地址:
完成
替换完成后,国内也可以直接访问专属你的免费快速大模型!
终语
国产 AI DeepSeek 的崛起不仅是技术突破,更是国家科技实力的体现。DeepSeek 团队的开源精神和技术探索态度令人敬佩。同时,其低成本、高效能的特点让国内技术发展更具信心。
最后,推荐大家体验完整版的 DeepSeek-R1 模型,感受更强大的 AI 力量!