ollama一鍵式部署本地deepseek
1.主機配置
顯卡:4070d,12G顯存
內存:32G
CPU:i5-12600kf
此時部署deepseek r1,14b的模型,GPU利用率可以達到94%,并且幾乎無延遲。
2.下載安裝
1.安裝ollama
ollama官方網址:ollama官網

由于ollama默認安裝地址為C盤,對于我這種強迫癥患者很不友好,因此使用命令行安裝:

使用命令行參數安裝后,還需要修改模型安裝的環境變量,否則模型也會默認被安裝到C盤,在系統環境變量中添加指定模型安裝的位置。

安裝成功的標志為在終端執行ollama -v可以顯示版本號。

2.安裝模型
安裝模型也是一鍵式安裝,還是在ollama官網:
deepseek r1模型地址:deepseek r1
注意要按自己電腦的顯存選擇模型,12G顯存推薦14b,32b的GPU利用率會很低(顯存會被打滿,并且內存會占10G左右),并且非??D。如果有20G的4090推薦使用32b的
ps:b表示模型參數規模,b為billion的首字母,參數越多,模型效果越好。

安裝成功界面:

3.使用界面
3.1 終端使用
其實直接在終端輸入就可以了,可以看到,啪的一下,很快啊,就寫完了。

3.2 cherryai(客戶端使用)
cherry是一個開源的與大模型相關的客戶端,可以調ollama的api。
cherryai官網:cherryai
安裝后打開,點擊設置->Ollama->管理,選擇本地的deepseek-r1,添加即可完成。

這樣就可以在客戶端使用deepseek r1了。生成速度也非常的快。

并且可以看到,當在使用模型時,GPU利用率已經達到了94%,非常的完美。


浙公網安備 33010602011771號