Ollama部署本地大模型并通過Infortress APP遠程訪問保姆級教程
一、本地部署大模型:Ollama的極速上手
Ollama是近年來備受開發者青睞的本地LLM部署工具,支持Llama、Mixtral、Phi-3、Deepseek等主流開源模型,幾行命令即可完成搭建:
1、下載安裝Ollama:訪問Ollama官網,https://ollama.com ,點擊download按鈕進行下載,根據系統選擇對應版本進行下載,下載完成后點擊安裝。

安裝完成后,你的電腦右下角會有ollama的圖標,如下圖這樣。

驗證安裝是否成功,打開命令行,輸入ollama --version,如果命令執行成功,并輸出了版本信息,說明安裝成功了。

2、模型拉?。?/strong>打開終端,輸入ollama run {模型名稱}(如ollama run deepseek-r1:1.5b),即可自動下載,

下載完成后,ollama會為我們運行剛下載的大模型。下面是運行成功的截圖:

3、驗證服務:運行成功以后,我們可以直接在命令行和deepseek對話。

安裝完成后我們看到的是一個命令行窗口,使用起來并不方便。而且只能在本地使用,為了解決這些問題,可以接著安裝Infortress。
二、Infortress安裝
Infortress是一款專為普通用戶打造的AI遠程訪問工具,其APP端(iOS/Android/電腦客戶端)可無縫對接本地服務:
1、下載服務端,登錄Infortress官網,根據自己的電腦系統下載對應的電腦服務端

之后根據提示一鍵安裝,過程中只需要設置一下安裝目錄即可,之后等待自動安裝完成!

2、下載APP/客戶端:在手機應用商店搜索“Infortress”,或訪問官網掃碼獲取安裝包。電腦客戶端的用戶,直接到官網下載安裝包,之后根據提示一鍵安裝即可!

3、連接服務端:使用郵箱進行用戶注冊賬號,登錄后下拉頁面即可自動查找服務端,確認后,點擊注冊&連接按鈕,就安裝完成了。

電腦客戶端也是同樣的操作步驟,安裝好后會自動發現服務端,點擊注冊服務器及連接按鈕,即安裝完成

三、服務端配置:打通Ollama與Infortress
進入電腦服務端的設置頁面:點擊左側菜單“設置”,找到“本地大模型”。

默認是“內置大模型”,這里配置了多種主流大語言模型,用戶可以根據自己的需求,選擇適合的大模型系列,之后點擊后面的下載按鈕,即可自動進行安裝部署,之后點擊對話按鈕,就能使用(如下圖)!

如果本地已經部署了Ollama,可以在頂部這里進行切換,

切換之后,填寫本地模型地址,默認為:http://127.0.0.1:11434(若端口被占用,需在Ollama設置中修改并同步更新)。

測試連接:配置完成后,點擊對話,輸入問題,程序做出響應則表示鏈路打通。
在手機端或者電腦客戶端上,也可以遠程訪問本地部署的大模型,找到“AI大模型”,點擊進入,


這里可以和你本地部署的大模型進行對話,頂部可以切換不同的大模型,如果部署了本地知識庫,也可以切換大模型和知識庫


四、Infortress:不止于遠程訪問,更是你的私人AI數據中心
Infortress不僅能在手機/平板上隨時調用本地大模型,它還是一個專業的NAS軟件,NAS核心功能全覆蓋,感興趣的小伙伴,可以自行體驗!

浙公網安備 33010602011771號