Deepseek服务器忙?手把手教你Mac本地部署
一、DeepSeek是什么?
DeepSeek,全称深度求索,是由杭州深度求索人工智能技术研究有限公司开发的一款推理性大模型,完全免费使用!官网:。DeepSeek使用非常简单,有APP和网页版,点击“开始对话”即可开启智能对话体验。

二、Mac本地部署DeepSeek教程
安装后,在下面的界面点击“使用自己的API key或本地模型”。
明确要使用哪个模型大小后,进入到下载页面,选择相应版本下载,这里选择的OS Mac版本。安装完毕,按照指示调用本地终端。
1. 模型选择与下载
不同大小模型在本地的调用指令在箭头所指位置,选哪个模型大小通常取决于你自己电脑的本地配置,大部分个人电脑可能就只够装1.5B或7GB大小。个人电脑上具体可以选用哪个版本,可以参考下面这张图。
2. 配置Chatbox
下载Chatbox并配置为本地DeepSeek,其实也就是给deepseek提供一个可视化的聊天框,而不是在终端里进行对话。
文字版教程:
LM Studio下载地址:
3. 调用本地终端
点击完成,如果你在电脑上如果去点击ollama图标是看不到任何界面的,不要奇怪。这个时候你需要mac电脑上按Command+空格按钮调用本地终端。
然后输入terminal
4. 安装与运行
用一句话概括这个教程,就是使用ollama安装运行deepseek,并用chatbox配置本地deepseek并提供聊天界面。
当deepseek出来后,我们团队也不断在试用Deepseek,并交叉对比ChatGPT上对于同样问题,两者给出的答案。大家纷纷对deepseek给出的回复表达了深度认可。
但是在正式复工之后,deepseek受到使用人群的激增,大部分都遇到了“服务器繁忙”的提示。于是在本地电脑上部署deepseek,便提上了日程。
5. 模型调用
ollamarundeepseek-r1:1.5b
6. 配置Open Web UI
访问网站:,选择对应的操作系统版本。mac电脑下载apple silicone版本。
接下来:务必选择ollama API。因为我们是使用了ollama去运行的模型。
7. 运行与测试
为了更直观地与DeepSeek模型进行交互,可以使用Open Web UI。
- 资源分配:根据硬件配置选择合适的模型版本。较小的模型在标准硬件上表现良好,而较大的模型需要更强大的GPU支持。
- 内存管理:确保系统有足够的内存和存储空间,以避免运行时出现资源不足的问题。
- 模型下载超时:如果在下载模型时出现超时问题,可以尝试重新运行下载命令。
- 服务启动失败:确保Ollama服务已正确安装并启动。如果服务启动失败,可以尝试重启Ollama服务。
通过以上步骤,你可以在本地成功部署DeepSeek模型,并通过Ollama或Open Web UI与模型进行交互。这样,你就可以在Mac电脑上享受DeepSeek带来的高效便捷的AI服务,再也不怕服务器繁忙了!
欢迎分享,转载请注明来源:小川电商