如何在macos上配置ollama自啟動
在 macOS 上,可以通過 Launchd 來管理 Ollama 的自啟動。
配置自啟動文件
-
創(chuàng)建 Plist 文件:在用戶目錄下創(chuàng)建 LaunchAgents 目錄(如果不存在的話),并創(chuàng)建配置文件。
mkdir -p ~/Library/LaunchAgents
nano ~/Library/LaunchAgents/com.ollama.server.plist -
編寫配置內容:將以下 XML 內容寫入文件。同樣,請確保 ProgramArguments 中的路徑正確(通常為 /usr/local/bin/ollama)。
Label com.ollama.server ProgramArguments /usr/local/bin/ollama serve RunAtLoad KeepAlive StandardOutPath /tmp/ollama.stdout.log StandardErrorPath /tmp/ollama.stderr.log 保存并退出編輯器。
-
加載并啟動服務:使用 launchctl 命令加載此配置并啟動服務。
launchctl load ~/Library/LaunchAgents/com.ollama.server.plist
launchctl start com.ollama.server -
驗證服務:可以通過查看日志文件或檢查端口來確認服務是否運行。
tail -f /tmp/ollama.stdout.log
或
lsof -i :11434
更改模型保存路徑
? 自定義模型存儲路徑:如果你希望 Ollama 將模型下載到其他位置,可以通過設置環(huán)境變量 OLLAMA_MODELS 來實現(xiàn)。
? Linux/macOS:在 ~/.bashrc, ~/.zshrc 或服務配置文件(如 systemd 的 Environment 項或 launchd 的 EnvironmentVariables 鍵)中添加 export OLLAMA_MODELS="/your/custom/path"。
? Windows:在“系統(tǒng)屬性” -> “環(huán)境變量”中新建一個名為 OLLAMA_MODELS 的系統(tǒng)變量,值為你的自定義路徑。
? 允許外部訪問(謹慎操作):默認情況下,Ollama 只監(jiān)聽本地(127.0.0.1)。如果你需要從其他設備訪問,可以設置環(huán)境變量 OLLAMA_HOST=0.0.0.0:11434(11434 是默認端口,可更改)。請注意,這將使你的 Ollama 服務暴露在網(wǎng)絡上,可能會帶來安全風險,請確保在安全的網(wǎng)絡環(huán)境下操作。
驗證自動啟動
配置完成后,重啟你的電腦,然后通過以下方式驗證 Ollama 服務是否已自動在后臺運行:
? 打開終端或命令行,輸入 ollama list。如果正常返回(即使當前沒有模型,也應無報錯),說明服務已運行。
? 或者通過 API 接口檢查:curl http://localhost:11434/api/tags。

浙公網(wǎng)安備 33010602011771號