
基于Ollama和OpenClaw实现100%本地化部署AI助手的完整指南,涵盖环境准备、模型部署、多模型切换及Telegram对接,确保免费、断网可用、灵活扩展的特性。内容综合多篇实践文档,关键步骤均附引用来源。
winget install git.git
# 若报错,调整执行策略:
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
curl -fsSL https://ollama.com/install.sh | sh

| 模型名称 | 特点 | 下载命令 |
|---|---|---|
qwen3-coder |
编码任务优化 | ollama pull qwen3-coder |
gpt-oss:20b |
平衡性能与速度 | ollama pull gpt-oss:20b |
glm-4.7 |
通用能力强 | ollama pull glm-4.7 |
curl -fsSL https://openclaw.ai/install.sh | bash
iwr -useb https://openclaw.ai/install.ps1 | iex
ollama launch openclaw
\~/.openclaw/openclaw.json,指定Ollama的本地API地址(如http://127.0.0.1:11434/v1)和模型ID:
{
"models": {
"providers": {
"ollama": {
"baseUrl": "http://127.0.0.1:11434/v1",
"apiKey": "任意字符串(如ollama-local)",
"models": [{"id": "qwen3", "name": "Qwen3"}]
}
}
},
"agents": {
"defaults": {
"model": {"primary": "ollama/qwen3"}
}
}
}
api字段需设为openai-completions,否则可能无法响应。id和name字段,例如从qwen3改为gpt-oss:20b,重启服务生效。http://localhost:18789?token=配置中的token,输入问题测试回复是否来自本地模型。@BotFather申请新机器人,获取Token(如8123121125:AAExamegv-0FQCfhfbazmp4405V0XAJCKfk)[用户提供]。
openclaw pairing approve telegram DLW7HQ69
ollama launch openclaw
nvidia-container-toolkit并配置Docker。contextWindow和maxTokens参数以匹配硬件能力。