手把手教你部署 DeepSeek 本地模型
2025-02-05 21:48 AlfredZhao 閱讀(112704) 評論(20) 收藏 舉報本文目標:部署 DeepSeek 本地模型,并通過 Ollama 提供 API 支持,Chatbox 提供 UI 界面。
原則:不搞那些高深的玩法,讓小白也能理解并真正的上手實踐。
- 1.下載Ollama并安裝運行DeepSeek
- 2.下載Chatbox并配置為本地DeepSeek
- 3.無需聯網也能和DeepSeek暢快聊天

1.下載Ollama并安裝運行DeepSeek
從Ollama官方網站下載Ollama:
進入Ollama官方網站后,可以看到Ollama已經支持DeepSeek-R1的部署:

點擊DeepSeek-R1的鏈接可以看到有關deepseek-r1的詳細介紹:

目前deepseek-r1模型大小提供了7個選擇:1.5b、7b、8b、14b、32b、70b、671b。
因為我筆記本的顯卡配置較低,所以這里只能選擇最小的1.5b模型來做演示:

你可以根據你的硬件情況選擇,通常模型大小(參數量)越大,模型的理解和生成能力越強,但也會消耗更多的計算資源。
點擊Download按鈕下載符合自己平臺的Ollama:

我這里選擇macOS,點擊下載。
下載文件大小不到200M,文件名為:Ollama-darwin.zip。
解壓后打開Ollama應用程序,提示:



點擊Install安裝ollama。

按照提示,打開終端,使用 Command + Space 快捷鍵調用 terminal:

這里Ollama默認給出的例子是下載/運行llama3.2大模型,
我們這里不使用這個llama3.2模型,直接下載/運行deepseek,參數選擇最小的1.5b,在終端窗口運行下面命令:
ollama run deepseek-r1:1.5b

jingyuzhao@jingyuzhao-mac ~ % ollama run deepseek-r1:1.5b
pulling manifest
pulling manifest
pulling manifest
pulling manifest
pulling manifest
pulling manifest
pulling aabd4debf0c8... 100% ▕████████████████████████████████████████▏ 1.1 GB
pulling 369ca498f347... 100% ▕████████████████████████████████████████▏ 387 B
pulling 6e4c38e1172f... 100% ▕████████████████████████████████████████▏ 1.1 KB
pulling f4d24e9138dd... 100% ▕████████████████████████████████████████▏ 148 B
pulling a85fe2a2e58e... 100% ▕████████████████████████████████████████▏ 487 B
verifying sha256 digest
writing manifest
success
>>> Send a message (/? for help)
這里就直接可以和DeepSeek對話了:
>>> Hi! Who are you?
<think>
</think>
Hi! I'm DeepSeek-R1, an artificial intelligence assistant created by DeepSeek. I'm at your service
and would be delighted to assist you with any inquiries or tasks you may have.
>>> 你好,你是誰?
<think>
</think>
你好!我是DeepSeek-R1,一個由深度求索公司開發的智能助手。我擅長通過思考來幫您解答復雜的數學,代碼和
邏輯推理等理工類問題。 Feel free to ask me anything you'd like me to know!
>>> Send a message (/? for help)
2.下載Chatbox并配置為本地DeepSeek
Chatbox官方網站:


我這里還是Intel-based的MAC,
下載的Chatbox-1.9.7.dmg,大小100M多點,點擊安裝,按下面提示拖到Applications內:



注意,這里我故意選錯成DeepSeek API,這也是初學者經常會選錯的,實際上,若選擇這個你就找不到你本地的DeepSeek模型。
實際正確應該選擇OLLAMA API,然后就可以看到我們上一步安裝好的deepseek-r1:1.5b。

3.無需聯網也能和DeepSeek暢快聊天
配置好DeepSeek本地模型之后,就可以實現在斷網情況下自由問答了,比如,此刻我正在寫這篇文章,于是就問他幫我想幾個備選的標題:
我正在寫一篇文章,我起的名字是“手把手教你部署 DeepSeek 本地模型”。請你幫我重新生成10個吸引眼球的標題供我選擇。

他真的迅速給我起了10個吸引眼球的標題,還提供了它思考的過程,而且在我這4年前的電腦上跑起來都很迅速。
嗯,真的很贊!不過我還是決定用自己最初想的樸實標題,不做標題黨了。
轉載請注明原文鏈接:http://www.rzrgm.cn/jyzhao/p/18700202/shou-ba-shou-jiao-ni-bu-shu-deepseek-ben-de-mo-xin
?? 感謝閱讀,歡迎關注我的公眾號 「趙靖宇」
浙公網安備 33010602011771號