2026年Windows本地部署OpenClaw保姆级教程:把你的电脑变成24小时AI打工人
以后跟电脑说话就能干活,数据还全在自己手里
朋友们,2026年AI圈最火的是什么?不是那些云端聊天机器人,而是能真正帮你干活的本地AI智能体!今天数智侠就带你上手OpenClaw——这款能让你的Windows电脑秒变“24小时AI打工人”的神器。
最关键的是:所有数据都在你本地,再也不用担心隐私泄露,断网也能用,真正实现“聊天框里办大事”。
OpenClaw是什么?能帮我干啥?
简单说,OpenClaw是一个拥有“手脚”的AI助手——它不仅能听懂你的话,还能真的去操作你的电脑:
- “手”:读写本地文件、执行代码、操控命令行
- “脚”:联网搜索、访问网页并分析内容
- “大脑”:接入本地大模型(我们今天用Ollama实现)
实际应用场景(看完你就知道多香了):
- 邮件处理:对电脑说“检查我最近的10封邮件,告诉我哪些需要回复”,它真能帮你干
- 文件整理:“批量重命名D盘图片为‘日期+主题’格式”——秒搞定
- 学习助手:甩个B站链接,“提取核心知识点,整理成思维导图大纲”
- 代码调试:“调试这段代码,修复报错并优化效率”
部署前准备(10分钟搞定)
硬件要求(看看你电脑够不够格)
| 配置项 | 推荐要求 | 说明 |
|---|---|---|
| GPU | NVIDIA显卡显存≥8GB(如RTX 3060/4060) | 可流畅运行7B~14B模型;4GB显存可跑轻量版 |
| 内存 | ≥16GB(32GB更稳) | 内存不足会导致模型加载失败 |
| 硬盘 | 剩余≥20GB(推荐SSD) | 7B模型约4.7GB,14B模型约10GB |
| 系统 | Windows 10/11 64位 | 推荐Windows 11 22H2及以上 |
没NVIDIA显卡怎么办?也能跑,但只能用CPU推理,速度会慢不少(约每秒2-3个token)。
软件准备(就装一个Node.js)
第一步:安装Node.js(必须≥18.0.0)
- 打开 Node.js官网,它会自动推荐LTS版本(目前是v22.x)
- 下载Windows Installer (.msi) 文件
- 双击安装,关键一步:在“Custom Setup”页面务必勾选 “Add Node.js to PATH”(自动配置环境变量)
- 一路Next到底,安装完成
第二步:验证安装并解锁权限
以管理员身份打开PowerShell(按Win+S搜PowerShell,右键选“以管理员身份运行”),执行:
# 验证Node.js版本(需≥18.0.0) node --version # 解锁脚本执行权限(否则后面会报错) Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser
出现提示时输入Y确认。
正式部署(20分钟核心步骤)
阶段一:安装Ollama(AI大脑)
Ollama是运行本地大模型的工具,负责理解你的指令。
- 下载安装:访问 Ollama官网,下载Windows版安装包,双击默认安装
- 验证安装:在PowerShell输入 ollama --version,显示版本号即成功
- 拉取大模型(推荐通义千问,中文能力强):# 拉取Qwen2.5 7B模型(约4.7GB,显存8GB以上推荐) ollama pull qwen2.5:7b等待进度条跑完(根据网速5-20分钟)
阶段二:定制模型(核心!不然后面报错)
OpenClaw要求模型上下文窗口≥16000 tokens,但Ollama默认只有4096,必须手动扩展。
在PowerShell逐条执行(注意替换<你的用户名>为你的实际用户名,如Administrator或ZhangSan):
# 1. 切换到你的用户目录 cd C:\Users\<你的用户名> # 2. 创建配置文件 @"FROM qwen2.5:7b PARAMETER num_ctx 32768"@ | Out-File -Encoding ascii Modelfile # 3. 创建自定义模型(命名为qwen2.5:7b-32k) ollama create qwen2.5:7b-32k -f Modelfile # 4. 验证是否成功 ollama list # 应该能看到 qwen2.5:7b-32k
阶段三:安装OpenClaw(手脚部分)
# 1. npm全局安装OpenClaw npm install -g openclaw # 2. 验证安装 openclaw --version
如果报权限错误,用这个命令:npm install -g openclaw --unsafe-perm。
阶段四:配置OpenClaw对接Ollama(最关键!)
执行配置向导:
openclaw onboard
然后按照提示一步步选择(严格按下表操作,否则连不上):
| 提示内容 | 你的操作 | 说明 |
|---|---|---|
| Model/auth provider | 选 Custom Provider | 拉到列表最后一项 |
| API Base URL | 输入 http://127.0.0.1:11434/v1 | 本地Ollama地址 |
| API Key | 输入任意字符(如 ollama) | 不能留空,但Ollama不校验 |
| Endpoint compatibility | 选 OpenAI-compatible | 兼容模式 |
| Model ID | 输入 qwen2.5:7b-32k | 必须和你刚创建的名字一致 |
| 后续所有问题 | 全选 Skip for now / No | 先不配渠道和技能 |
配置成功会显示 “Verification successful”,并给出Web地址(一般是http://127.0.0.1:18789)和Token(一串字符)——截图保存Token,登录要用!
阶段五:解决可能出现的报错
错误:Model context window too small (4096 tokens)
这是因为OpenClaw缓存了旧参数,需要手动改配置:
- 打开文件夹 C:\Users\<你的用户名>\.openclaw\agents\main\agent\
- 用记事本打开 models.json
- 找到 "num_ctx" 这一行,把 4096 改成 32768
- 保存文件,重启OpenClaw
验证使用:你的AI助手活了!
- 启动服务:在PowerShell输入 openclaw gateway start
- 打开控制台:浏览器访问 http://127.0.0.1:18789
- 登录:输入刚才保存的Token
- 开始使唤!试试这些指令:
- “在D盘创建一个叫‘AI工作区’的文件夹”
- “读取我的C盘,告诉我空间使用情况”
- “用Python写一个斐波那契数列生成器,并保存为fib.py”
进阶玩法:让AI更懂你
扩展技能包:OpenClaw支持上千种插件,安装方法:
# 进入配置目录 cd C:\Users\<你的用户名>\.openclaw # 安装文件操作增强插件(示例) openclaw skills install fs-extra
对接飞书/企业微信:如果你想让团队都能用,可以在配置向导中选择配置渠道(Channels),按提示输入机器人Token即可。
常见问题速查
Q:部署过程中卡住不动怎么办?
A:按回车刷新,或者重新执行命令。网络问题多试几次。
Q:Ollama拉取模型太慢?
A:可以尝试更换网络,或者使用镜像源(具体可加粉丝群获取)。
Q:提示“端口18789已被占用”
A:执行 netstat -ano | findstr :18789 找到占用进程的PID,然后在任务管理器结束它。
数智侠说:本地部署AI智能体是2026年个人效率提升的分水岭技能——以前是我们适应软件,现在是软件听我们的话。而且所有数据都在自己手里,隐私安全拉满。
如果你部署过程中遇到问题,欢迎在评论区留言,数智侠会一一解答。觉得有用的话,点赞、分享给需要的朋友,让更多人拥有自己的AI打工人!
关注数智侠,带你走在数智化前沿,每周拆解一个能落地的技术干货!

