C# 集成 DeepSeek 模型實現 AI 私有化(本地部署與 API 調用教程)
自從 DeepSeek 大模型火了以來,網絡上出現了許多關于本地部署的教程和方法。然而,要真正深入了解其功能和應用,還是需要自己動手進行一次本地部署。
DeepSeek 作為一個高效的自然語言處理模型,其本地部署能力為大家提供了靈活的應用場景。不管是開發私有化的 AI 應用,還是集成到現有的系統中,DeepSeek 都能提供強大的支持。
搭建基礎環境
Ollama 是一個輕量級AI模型運行框架,支持 macOS、Linux 和 Windows 跨平臺運行,并兼容包括 Llama 3.3、DeepSeek-R1、Phi-4 和 Gemma 2 在內的 54 種主流開源模型。
它簡化了模型的下載、安裝和使用過程,提供了統一的操作界面,能夠方便地在本地環境中運行和測試不同的語言模型,簡單的說就是相當于一個容器。
1、安裝 Ollama
首先先下載 Ollama,進入官網,根據大家當前的操作系統選擇安裝包(Windows/Linux/macOS)。
官網下載地址:https://ollama.com/download

如上圖所示點擊 Download 下載安裝包,然后直接安裝就可以。
注意:Ollama默認安裝是在C盤的以及下載的大模型數據包也是默認在C盤,所以一定要注意自己C盤的存儲空間夠用,
當然我們也有方式改變他的安裝路徑的。如果不想折騰的可以直接點擊安裝就可以了。
本文示例是修改了安裝路徑,具體步驟如下:
首先在目標路徑(如 D:\Ollaman)創建一個新文件夾并放置 Ollama 安裝包
然后在該路徑下打開命令窗口并輸入 OllamaSetup.exe /DIR=D:\Ollama,接著在安裝界面點擊 "Install",即可將 Ollama 安裝到指定目錄,大模型數據包也會默認下載到該目錄中。

Ollama 安裝好了就會自動啟動。
查看是否安裝成功 Windows+R,輸入CMD進入命令窗口,輸入:ollama -v有版本號就說明安裝好了,在任務欄右下角有個羊駝的圖標。

2、下載 DeepSeek R1 模型
在 Ollama 官網點擊 Models,選擇deepseek-r1

選擇對應的模型,可以看到模型的相信介紹、各種參數的模型。

普通用戶:選擇 8B 版本,適合日常對話、寫作等
高性能顯卡用戶(顯存 16GB 以上):可選 16B 版本,體驗更強大性能
各個版本模型對硬件要求,官方沒有明確的說明,根據網友分享的大概整理如下,大家可以根據自己的電腦配置選擇模型。

選擇要下載的模型,復制指令。

打開命令窗口,粘貼運行指令。等待下載完成。下載過程中,會顯示下載進度和速度等信息。由于模型文件較大,下載時間可能會較長,需要耐心等待。

至此,已經可以與DeepSeek進行會話。
同時在瀏覽器訪問:http://127.0.0.1:11434,有如下提示也代表啟動成功了。

客戶端 ChatBox AI接入 DeepSeek
Chatbox AI 是一款 AI 客戶端應用和智能助手,支持眾多先進的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和網頁版上使用。
1、下載 ChatBox AI
瀏覽器中訪問 Chatbox AI的官方網站(https://chatboxai.app/zh),下載安裝。

2、配置環境變量
添加兩個環境變量,允許外部訪問,填寫:0.0.0.0,代表允許任何電腦訪問。
OLLAMA_HOST:0.0.0.0 OLLAMA_ORIGING:*
點擊我的電腦,右鍵屬性->高級系統設置->環境變量。

注意:設置完環境變量后退出一下 Ollama,然后重新啟動下Ollama。

3、Chatbox AI 連接本地模型
啟動 Chatbox AI 軟件,選擇 Ollama API后,然后選擇下載的 DeepSeek模型,如果大家還有其他模型也可以選擇對應的模型。

模型設置
選擇API類型:Ollama API
模型名稱:deepseek-r1:8b
點擊檢查連接,如果狀態正常,可以開始使用了。

以上設置完成。我們就可以在客戶端使用AI聊天了,

C# 調用 DeepSeek API
Ollama 還提供了 API 接口功能,使得自定義客戶端開發或集成到應用系統變得非常方便。
其相關生態系統也非常完善,使用 C# 版本的 Ollama SDK(如 OllamaSharp)可以快速進行開發。
下面通過一個簡單的例子來演示如何使用 Ollama:
1、安裝依賴包
首先,安裝 OllamaSharp 依賴包:

2、示例代碼
新建一個 OllamaApiExampleController控制器,添加如下代碼:
using Microsoft.AspNetCore.Mvc; using Microsoft.Extensions.AI; using OllamaSharp; ? namespace DotNetCore.DeepSeekApi.Controllers { /// <summary> /// OllamaApi示例控制器 /// </summary> [ApiController] [Route("api/[controller]")] public class OllamaApiExampleController : ControllerBase { private readonly Uri _modelEndpoint = new Uri("http://localhost:11434"); private readonly string _modelName = "deepseek-r1:1.5b"; ? /// <summary> /// 初始化 /// </summary> /// <param name="httpClient"></param> /// <param name="configuration"></param> public OllamaApiExampleController(){} ? /// <summary> /// 提問接口 /// </summary> /// <param name="request"></param> /// <returns></returns> [HttpPost("ask")] public async Task<IActionResult> AskQuestion([FromBody] AskRequest request) { var chatClient = new OllamaApiClient(_modelEndpoint, _modelName); var question = request.Question; ? if (string.IsNullOrEmpty(question)) { return BadRequest("請輸入您的問題?"); } // 使用 await foreach 遍歷每個 ChatResponseUpdate var responseBuilder = new List<string>(); await foreach (var update in chatClient.GetStreamingResponseAsync(question)) { responseBuilder.Add(update.ToString()); } var response = string.Join("", responseBuilder); return Ok(new { Response = response }); } } ? /// <summary> /// 實體類 /// </summary> public class AskRequest { /// <summary> /// 問題 /// </summary> public string Question { get; set; } } }
3、運行結果

Ollama 相關的API接口,可以查看官方文檔。
https://github.com/ollama/ollama/blob/main/docs/api.md
總結
通過本文簡單的學習實現了DeepSeek 的本地部署和本地調用API接口。
能夠掌握 DeepSeek 的本地部署方法,還能學會如何在 C# 項目中集成并調用 DeepSeek 提供的強大功能。
如果你覺得這篇文章對你有幫助,不妨點個贊支持一下!你的支持是我繼續分享知識的動力。如果有任何疑問或需要進一步的幫助,歡迎隨時留言。
也可以加入微信公眾號[DotNet技術匠] 社區,與其他熱愛技術的同行一起交流心得,共同成長!優秀是一種習慣,歡迎大家留言學習!


浙公網安備 33010602011771號