个人游戏笔记本免费“养龙虾”(Win10+WSL2+OpenClaw 部署与配置指南)

张开发
2026/4/9 16:33:56 15 分钟阅读

分享文章

个人游戏笔记本免费“养龙虾”(Win10+WSL2+OpenClaw 部署与配置指南)
个人游戏笔记本免费“养龙虾”Win10WSL2OpenClaw 部署与配置指南前言一、安装 WSL2 环境1、开启 WSL2注意事项验证安装2、启用systemd3、WSL固定DNS4、删除systemd生成的resolv.conf5、重启 WSL【可选】6、WSL2性能优化二、安装Node.js环境1、更换镜像源Ubuntu24.04三、部署openclaw1、配置npm国内镜像源2、安装OpenClaw3、初始化配置OpenClaw1安全须知2初始化配置3控制 OpenClaw四、部署本地私有模型1、安装Ollama2、 拉取基础大模型推荐Qwen系列国内适配性最佳3、 定制大模型扩展上下文窗口至32768 tokens核心步骤4、交互式配置对接本地Ollama模型5、碰到的问题及解决方法系列文章1. 个人游戏笔记本免费“养龙虾”Win10WSL2OpenClaw 部署与配置指南2.个人游戏笔记本免费“养龙虾”二用显卡GPU运行OpenClawCUDA的安装与配置3.个人游戏笔记本免费“养龙虾”三OpenClaw的安全配置指南4.个人游戏笔记本免费“养龙虾”四OpenClaw(exec tools)的文件权限配置5.个人游戏笔记本免费“养龙虾”五OpenClaw浏览器工具browser的使用6.个人游戏笔记本免费“养龙虾”番外篇VSCode远程SSH登录Ubuntu配置OpenClaw7.个人游戏笔记本免费“养龙虾”六给OpenClaw一个灵魂配置七大Markdown文件8.个人游戏笔记本免费“养龙虾”七OpenClaw的openclaw.json文件的基本配置9.个人游戏笔记本免费“养龙虾”八OpenClaw如何选择部署哪个大模型版本前言Openclaw的安全问题饱受诟病。为此有文章建议用虚拟机或者沙箱隔离能缓解风险。虚拟机对于GPU的支持不太好。而沙箱轻量高效有博文指出利用Docker容器构建沙箱适合运行Openclaw这类高风险AI工具。官方也支持并推荐Docker容器化部署。我的游戏笔记本是Lenovo Legion Y9000X 2021Windows10操作系统显卡是NVIDIA GeForce RTX 20606G显存。部署openclaw需要WSL2。WSL2类似于虚拟机已经具备一定的隔离主机的作用所以我不打算用Docker而是直接按照官方指南在WSL2中配置Ubuntu 24.04再部署openclaw的方式。有可能还需要安装CUDA Toolkit 12.4与NVIDIA Container Toolkit兼容层再通过systemd-genie启用服务管理。一、安装 WSL2 环境WSL2 是官方推荐的 OpenClaw 运行环境。1、开启 WSL2在powershell中安装WSL2。可以直接指定位置到其他盘符例如e:\WSL以免过多占用C盘空间。以管理员身份运行powershellwsl--install-d Ubuntu--location e:\WSL注意事项需要以管理员身份运行 PowerShell路径e:\WSL需要提前创建安装完成后可能需要重启系统第一次启动 Ubuntu 需要等待安装完成并设置用户名密码WSL2 在哪个盘OpenClaw 就在哪个盘。验证安装# 查看已安装的 WSL 发行版wsl-l-v# 启动 Ubuntuwsl-d Ubuntu安装的Ubuntu的版本是Ubuntu 24.04.4 LTScat /etc/os-releasePRETTY_NAME“Ubuntu 24.04.4 LTS”NAME“Ubuntu”VERSION_ID“24.04”VERSION“24.04.4 LTS (Noble Numbat)”2、启用systemd进入WSL Ubuntu终端查看/etc/wsl.conf。3、WSL固定DNS关闭WSL自动生成DNS## nano /etc/wsl.conf[network]generateResolvConffalse4、删除systemd生成的resolv.confsystemd生成的resolv.conf是软连接所以先删除再新建。sudorm/etc/resolv.conf创建新的静态 DNS 文件sudovim/etc/resolv.conf nameserver1.1.1.1 nameserver8.8.8.8 nameserver202.103.24.68 options timeout:2 attempts:35、重启 WSL在powershell中重启WSL再打开Ubuntu。注意不是在WSL Ubuntu终端wsl--shutdown wsl-d Ubuntun【可选】6、WSL2性能优化在Windows用户目录C:\Users\你的用户名下创建 .wslconfig 文件用于限制WSL2的内存和CPU使用避免占满主机资源。[wsl2]memory6GB # 根据你的物理内存调整 processors4localhostForwardingtrue保存后在PowerShell中执行wsl --shutdown重启WSL使配置生效。二、安装Node.js环境Node.js运行环境要求版本 ≥ 22。1、更换镜像源Ubuntu24.04修改/etc/apt/sources.list.d/文件夹中的ubuntu.sources。把http://archive.ubuntu.com/ubuntu/修改为https://mirrors.aliyun.com/ubuntu/。把http://security.ubuntu.com/ubuntu/修改为https://mirrors.aliyun.com/ubuntu/在 WSL Ubuntu 终端中执行curl-fsSLhttps://deb.nodesource.com/setup_22.x|sudo-Ebash-sudoapt-getinstall-ynodejs验证安装$node-vv22.22.1三、部署openclaw1、配置npm国内镜像源npmconfigsetregistry https://registry.npmmirror.com2、安装OpenClaw# 全局安装 OpenClawsudonpminstall-gopenclawlatest3、初始化配置OpenClaw参考文献1本地部署OpenClawQwen大模型接入飞书机器人参考文献2 让你玩转OpenClaw 安装配置篇-腾讯云开发者社区-腾讯云在终端中执行以下命令# 交互式配置openclaw onboard --install-daemon1安全须知OpenClaw onboarding启动之后首先给出必读的安全须知。其中明确说明了OpenClaw 是一个个人兴趣项目目前仍处于 Beta 测试阶段功能尚不完善可能存在未预期的行为或风险。2初始化配置以下是几个配置的选择方式。用↑、↓键选择↵回车键确认。I understand this is powerful and inherently risky. Continue?选择 YesOnboarding mode选择 QuickStartModel/auth provider选择 Skip for now稍后配置千问qwen3.5:2b模型Filter models by provider选择 All providersDefault model选择 Keep current (default: anthropic/claude-opus-4-6)Select channel (QuickStart)选择 Skip for now稍后配置渠道Configure skills now? (recommended)选择 NoEnable hooks?按空格键选中选项按回车键进入下一步How do you want to hatch your bot?选择 Do this later3控制 OpenClaw配置完成之后在终端界面中可以看到“控制界面”信息。把“WEB UI”中的地址复制到浏览器中就可以通知面板使用openclaw。http://127.0.0.1:18789/#token你自己的token值但是目前没有配置大模型所以无法实现AI功能。四、部署本地私有模型使用openclaw如果提示词使用不当进入死循环那么将产生巨量token费用。(建议合理设计提示词逻辑结构避免循环调用场景。监控API调用频率和token消耗情况设置使用阈值预警。)各云平台提供的试用免费API适合个人用户尝鲜使用可作为入门选择。个人游戏本配置有GPU显存可以本地运行Openclaw零成本、上手快无需购买服务器避免天量的token费用适合个人入门使用能够快速验证功能、处理敏感数据或断网环境使用。1、安装Ollama# LinuxUbuntu/Debiancurl-fsSLhttps://ollama.com/install.sh|sh验证安装# 显示版本号即表示成功$ ollama-vollama version is0.18.22、 拉取基础大模型推荐Qwen系列国内适配性最佳Ollama支持一键拉取主流大模型推荐通义千问系列兼顾性能与硬件要求# 拉取qwen3.5:2b基础模型约2.7GB适合6G显存GPUollama pull qwen3.5:2b拉取过程保持网络通畅耗时5~20分钟取决于网络速度模型自动存储在本地Ollama目录。ollama pull qwen3.5:2b pulling manifest pulling b709d81508a0:100% ▕▏2.7GB pulling 9be69ef46306:100% ▕▏11KB pulling 9371364b27a5:100% ▕▏65B pulling ee043a99abe5:100% ▕▏473B verifying sha256 digest writing manifest success3、 定制大模型扩展上下文窗口至32768 tokens核心步骤Ollama基础模型默认上下文窗口仅4096 tokens需手动定制扩展至32768 tokens兼顾推理速度与上下文长度。在Linux终端中新建Modelfile然后修改该文件内容# 1. 切换到当前用户根目录替换你的用户名为实际Windows用户名如Administrator$cd/mnt/c/users/你的用户名# 2. 一键创建Modelfile配置文件基于qwen3.5:2b设置上下文窗口32768 tokens$sudovimModelfile FROM qwen3.5:2b PARAMETER num_ctx32768# 3. 验证配置文件正确输出应包含FROM qwen3.5:2b和PARAMETER num_ctx 32768$ Get-Content Modelfile# 4. 可选创建自定义模型命名为qwen3.5:2b-32k便于识别$sudoollama create qwen3.5:2b-32k-fModelfile# 5. 验证自定义模型查看本地所有模型应显示qwen3.5:2b-32k$ ollama list# 6. 可选确认上下文窗口配置确保包含num_ctx 32768ollama show qwen3.5:2b-32k--modelfile# 7. 验证模型运行正常ollama run qwen3.5:2b你好请介绍自己# 8. 后台启动Ollama服务暴露本地接口ollama serve参考文献3Ollama自定义模型定制你自己的大模型参考文献4Ollama 本地自定义模型实践指南-CSDN4、交互式配置对接本地Ollama模型执行配置向导将OpenClaw指向本地Ollama。# 启动配置向导 openclaw onboard按PowerShell提示依次完成以下配置严格操作避免错误配置步骤操作要求输入/选择内容Model/auth provider选择模型提供商拉到列表最后一项Custom ProviderAPI Base URL本地Ollama的API地址固定格式http://127.0.0.1:11434/v1 此处有误需要修正具体见下文API Key任意字符串不可留空Ollama无实际鉴权仅为格式要求ollama或自定义如123456Endpoint compatibility接口兼容模式OpenAI-compatibleModel ID本地自定义模型名与前文一致qwen3.5:2b后续所有配置项暂不配置渠道、技能等全部选择Skip for now / No原文定稿于2026年3月31日在之后的OpenClaw使用过程中发现有问题。4月6日于此给出说明结论是API Base URL如果为http://127.0.0.1:11434/v1那么ollama可能会与OpenClaw冲突不能调用tools。API Base URL应该设置为http://127.0.0.1:11434。(不能用v1)OpenClaw官网文档中对于ollama的介绍中明确说明采用v1可能导致冲突不能调用tools和streaming。文中采用Custom Provider的方式只能是http://127.0.0.1:11434/v1。这种配置方式OpenClaw可以运行但是只能聊天不能自动执行任务。解决方法是“Model/auth provider”选择“ollama”。具体的配置方法请参考我写的第8篇博文“大模型的选择”。配置完成后若显示“Verification successful”表示连接成功控制台会显示OpenClaw Web UI地址http://127.0.0.1:18789和管理员Token记录Token备用。若提示“Verification failed”先执行ollama list测试Ollama服务是否正常确保API Base URL末尾包含“/v1”、API Key未留空。参考文献5OpenClawWindowsOllama本地私有化-阿里云在浏览器中输入http://127.0.0.1:18789/#token你自己的token值就可以使用OpenClaw了。5、碰到的问题及解决方法需要一定的Linux命令基础。在整个过程中会用到nano、cd、ls、mv、rm等Linux命令。对于挂载、环境变量等基本概念也需要了解。有的命令是在PowerShell中执行有的命令是在WSL2_Ubuntu命令行中执行。模型选择不当会造成内存不足导致WSL2崩溃退出。解决方法有2个一是选择参数较低的模型例如选择qwen3.5:2b而不选择qwen3.5:4b。二是降低配置参数例如降低上下文长度降低GPU层数量会更有效。三是关闭不必要的进程腾出更多的CPU和内存。例如关闭杀毒、浏览器等软件。# 修改ModelfilePARAMETER num_ctx4096# 将上下文长度从32K调整为4K大幅降低KVCache显存占用# nano ~/.bashrc# 设置GPU层数量显存6GB设为20显存8GB设为40exportOLLAMA_GPU_LAYERS10

更多文章