<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      C# 集成 DeepSeek 模型實現 AI 私有化(本地部署與 API 調用教程)

      前言

      自從 DeepSeek 大模型火了以來,網絡上出現了許多關于本地部署的教程和方法。然而,要真正深入了解其功能和應用,還是需要自己動手進行一次本地部署。

      DeepSeek 作為一個高效的自然語言處理模型,其本地部署能力為大家提供了靈活的應用場景。不管是開發私有化的 AI 應用,還是集成到現有的系統中,DeepSeek 都能提供強大的支持。

      本文將詳細介紹如何快速部署 DeepSeek 模型,并通過 C# 調用其 API 接口,從而搭建高效的私有 AI 服務。我們將從環境準備、本地部署、API 客戶端配置到實際調用接口,完成整個過程。

      搭建基礎環境

      Ollama 是一個輕量級AI模型運行框架,支持 macOS、Linux 和 Windows 跨平臺運行,并兼容包括 Llama 3.3、DeepSeek-R1、Phi-4 和 Gemma 2 在內的 54 種主流開源模型。

      它簡化了模型的下載、安裝和使用過程,提供了統一的操作界面,能夠方便地在本地環境中運行和測試不同的語言模型,簡單的說就是相當于一個容器。

      1、安裝 Ollama

      首先先下載 Ollama,進入官網,根據大家當前的操作系統選擇安裝包(Windows/Linux/macOS)。

      官網下載地址:https://ollama.com/download

      如上圖所示點擊 Download 下載安裝包,然后直接安裝就可以。

      注意:Ollama默認安裝是在C盤的以及下載的大模型數據包也是默認在C盤,所以一定要注意自己C盤的存儲空間夠用,

      當然我們也有方式改變他的安裝路徑的。如果不想折騰的可以直接點擊安裝就可以了。

      本文示例是修改了安裝路徑,具體步驟如下:

      首先在目標路徑(如 D:\Ollaman)創建一個新文件夾并放置 Ollama 安裝包

      然后在該路徑下打開命令窗口并輸入 OllamaSetup.exe /DIR=D:\Ollama,接著在安裝界面點擊 "Install",即可將 Ollama 安裝到指定目錄,大模型數據包也會默認下載到該目錄中。

      Ollama 安裝好了就會自動啟動。

      查看是否安裝成功 Windows+R,輸入CMD進入命令窗口,輸入:ollama -v有版本號就說明安裝好了,在任務欄右下角有個羊駝的圖標。

      2、下載 DeepSeek R1 模型

      在 Ollama 官網點擊 Models,選擇deepseek-r1

      選擇對應的模型,可以看到模型的相信介紹、各種參數的模型。

      普通用戶:選擇 8B 版本,適合日常對話、寫作等

      高性能顯卡用戶(顯存 16GB 以上):可選 16B 版本,體驗更強大性能

      各個版本模型對硬件要求,官方沒有明確的說明,根據網友分享的大概整理如下,大家可以根據自己的電腦配置選擇模型。

      選擇要下載的模型,復制指令。

      打開命令窗口,粘貼運行指令。等待下載完成。下載過程中,會顯示下載進度和速度等信息。由于模型文件較大,下載時間可能會較長,需要耐心等待。

      至此,已經可以與DeepSeek進行會話。

      同時在瀏覽器訪問:http://127.0.0.1:11434,有如下提示也代表啟動成功了。

      客戶端 ChatBox AI接入 DeepSeek

      Chatbox AI 是一款 AI 客戶端應用和智能助手,支持眾多先進的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和網頁版上使用。

      1、下載 ChatBox AI

      瀏覽器中訪問 Chatbox AI的官方網站(https://chatboxai.app/zh),下載安裝。

      2、配置環境變量

      添加兩個環境變量,允許外部訪問,填寫:0.0.0.0,代表允許任何電腦訪問。

      OLLAMA_HOST:0.0.0.0
      OLLAMA_ORIGING:*

      點擊我的電腦,右鍵屬性->高級系統設置->環境變量。

      注意:設置完環境變量后退出一下 Ollama,然后重新啟動下Ollama。

      3、Chatbox AI 連接本地模型

      啟動 Chatbox AI 軟件,選擇 Ollama API后,然后選擇下載的 DeepSeek模型,如果大家還有其他模型也可以選擇對應的模型。

      模型設置

      選擇API類型:Ollama API

      模型名稱:deepseek-r1:8b

      點擊檢查連接,如果狀態正常,可以開始使用了。

      以上設置完成。我們就可以在客戶端使用AI聊天了,

      C# 調用 DeepSeek API

      Ollama 還提供了 API 接口功能,使得自定義客戶端開發或集成到應用系統變得非常方便。

      其相關生態系統也非常完善,使用 C# 版本的 Ollama SDK(如 OllamaSharp)可以快速進行開發。

      下面通過一個簡單的例子來演示如何使用 Ollama:

      1、安裝依賴包

      首先,安裝 OllamaSharp 依賴包:

      2、示例代碼

      新建一個 OllamaApiExampleController控制器,添加如下代碼:

      using Microsoft.AspNetCore.Mvc;
      using Microsoft.Extensions.AI;
      using OllamaSharp;
      ?
      namespace DotNetCore.DeepSeekApi.Controllers
      {
          /// <summary>
          /// OllamaApi示例控制器
          /// </summary>
          [ApiController]
          [Route("api/[controller]")]
          public class OllamaApiExampleController : ControllerBase
          {
              private readonly Uri _modelEndpoint = new Uri("http://localhost:11434");
              private readonly string _modelName = "deepseek-r1:1.5b";
      ?
              /// <summary>
              /// 初始化
              /// </summary>
              /// <param name="httpClient"></param>
              /// <param name="configuration"></param>
              public OllamaApiExampleController(){}
      ?
              /// <summary>
              /// 提問接口
              /// </summary>
              /// <param name="request"></param>
              /// <returns></returns>
              [HttpPost("ask")]
              public async Task<IActionResult> AskQuestion([FromBody] AskRequest request)
              {
                  var chatClient = new OllamaApiClient(_modelEndpoint, _modelName);
                  var question = request.Question;
      ?
                  if (string.IsNullOrEmpty(question))
                  {
                      return BadRequest("請輸入您的問題?");
                  }
                  // 使用 await foreach 遍歷每個 ChatResponseUpdate
                  var responseBuilder = new List<string>();
                  await foreach (var update in chatClient.GetStreamingResponseAsync(question))
                  {
                      responseBuilder.Add(update.ToString());
                  }
                  var response = string.Join("", responseBuilder);
                  return Ok(new { Response = response });
              }
          }
      ?
          /// <summary>
          /// 實體類
          /// </summary>
          public class AskRequest
          {
              /// <summary>
              /// 問題
              /// </summary>
              public string Question { get; set; }
          }
      }

      3、運行結果

      Ollama 相關的API接口,可以查看官方文檔。

      https://github.com/ollama/ollama/blob/main/docs/api.md

      總結

      通過本文簡單的學習實現了DeepSeek 的本地部署和本地調用API接口。

      能夠掌握 DeepSeek 的本地部署方法,還能學會如何在 C# 項目中集成并調用 DeepSeek 提供的強大功能。

      希望這些內容能夠幫助大家在實際項目中順利應用 DeepSeek,提升開發效率和項目質量。

      最后

      如果你覺得這篇文章對你有幫助,不妨點個贊支持一下!你的支持是我繼續分享知識的動力。如果有任何疑問或需要進一步的幫助,歡迎隨時留言。

      也可以加入微信公眾號[DotNet技術匠] 社區,與其他熱愛技術的同行一起交流心得,共同成長!優秀是一種習慣,歡迎大家留言學習!

      posted @ 2025-02-25 10:21  小碼編匠  閱讀(6191)  評論(4)    收藏  舉報
      主站蜘蛛池模板: 亚洲欧美日韩综合在线丁香| 一本精品99久久精品77| 男女激情一区二区三区| 日本东京热一区二区三区| 偷拍精品一区二区三区| 国产普通话刺激视频在线播放| 性色在线视频精品| 久热这里只精品99国产6-99RE视… | 国精偷拍一区二区三区| 国色天香中文字幕在线视频| 免费无码一区无码东京热| 亚洲精品熟女国产| 亚洲中文字幕有综合久久| 日韩中文字幕精品人妻| A毛片毛片看免费| 国产精品进线69影院| 国产精品久久毛片| 久热视频这里只有精品6| 靖江市| 日韩精品中文字幕人妻| 欧美日韩一线| 无码电影在线观看一区二区三区| 成人精品色一区二区三区| 18禁男女爽爽爽午夜网站免费| 亚洲美女少妇偷拍萌白酱| 免费无码高潮流白浆视频| 亚洲成人av综合一区| 国产一区二区不卡在线| 亚洲欧美在线观看一区二区| 日韩精品卡1卡2日韩在线| 欧美最新精品videossexohd| 国产精品一区二区传媒蜜臀| 亚洲精品韩国一区二区| 乱妇乱女熟妇熟女网站| 国产老熟女一区二区三区| 四虎网址| 熟女国产精品一区二区三| 在线中文一区字幕对白| 亚洲欧美日韩在线码| 日韩高清视频 一区二区| 亚洲高潮喷水无码AV电影|