Ollama 是目前最流行的本地大模型运行框架,它让下载和运行模型变得像安装软件一样简单。
安装完成后,Ollama 会作为一个后台服务运行。
https://ollama.com/download
下载 ollama.dmg 然后安装,运行。
Ollama 社区提供了丰富的模型。对于 OpenClaw,推荐从以下几个开始:
# 通用性强,综合能力均衡 ollama pull gemma4:e2b # 中文能力突出,适合中文场景 ollama pull qwen3.5:9b # 推理能力强大,适合逻辑分析 ollama pull deepseek-r1:32b # 体验本地小模型 ollama pull qwen3.5:0.8b
你可以根据需求选择。qwen3.5:9b 是一个很好的起点,它在性能和资源消耗之间取得了不错的平衡。
如果你只是想尝试一下龙虾使用本地模型,可以直接在终端执行。
ollama launch openclaw --model qwen3.5:0.8b
如果你希望以后龙虾都能使用 ollama 提供的本地模型来完成推理,那么你可以将其写入配置文件。
这是最关键的一步,修改你的 openclaw.json 配置文件,将模型提供商指向本地的 Ollama 服务。
{ "agents": { "defaults": { "compaction": { "mode": "safeguard" }, "model": { "fallbacks": [ "minimax/MiniMax-M2.7" ], "primary": "ollama/qwen3.5:0.8b" }, "models": { "minimax/MiniMax-M2.7": { "alias": "Minimax" }, "ollama/qwen3.5:0.8b": { "alias": "qwen" } }, "workspace": "/Users/wilson/.openclaw/workspace" }
在这段配置中:
"primary": "ollama/qwen3.5:0.8b" 告诉 OpenClaw 使用 Ollama。
保存配置并重启 OpenClaw Gateway,你的 AI 助手就换上了全新的“本地大脑”。
