本地私有化部署 DeepSeek,告别“服务器繁忙,请稍后再试”

DeekSeek学习资料
https://download.csdn.net/download/i12344/90367746
2025年AI产业全景报告.pdf
DeepSeek 15天指导手册——从入门到精通 .pdf
DeepSeek+r1闭门学习讨论_+拾象+Best+Ideas+Vol+3_0127.pdf
DeepSeek-R1使用指南(20250129).pdf
DeepSeek大模型介绍与展望.pptx
DeepSeek指令公式大全.pdf
DeepSeek指导手册从入门到精通.pdf
deepseek详细对话.pdf
关于DeepSeek的几点思考.pdf
清华大学-DeepSeek从入门到精通2025.pdf
DeepSeek 最近实在太火爆了,导致官网对话访问经常提示“服务器繁忙,请稍后再试”。 如下图所示:
硬件环境
- CPU:i9-11900
- 内存:64GB
- 显卡:3060 12G CUDA驱动下载
- 操作系统:Windows 10 LTSC
1.安装Ollama & 加载模型
什么是Ollama?
Ollama 是一款跨平台的大模型管理客户端(MacOS、Windows、Linux),旨在无缝部署大型语言模型 (LLM),例如 DeepSeek、Llama、Mistral 等。Ollama 提供大模型一键部署,所有使用数据均会保存在本地机器内,提供全方面的数据隐私和安全性。
下载安装Ollama,验证版本
ollama -v
2.下载&加载本地模型
下载安装完ollama后,通过命令行可以查看对应的版本,并可以开始部署你想要的模型,这里选择的是deepseek-r1:14b(默认是7b)。
参考《本地部署 DeepSeek 硬件配置清单》,选择模型。
ollama run deepseek-r1:14b
https://ollama.com/library/deepseek-r1
3.验证本地模型对话
如何以积极的心态拥抱 AI?
4.安装chatbox(可选)
下载chatbox,完成安装
配置本地API
使用chatbox,开始对话
本文链接:https://www.orcy.net.cn/4107.html,转载请附上原文出处链接
发表评论