OpenClaw+Ollama本地部署模型养龙虾
OpenClaw小龙虾除了调用云端模型API之外,还可以在本地通过安装Ollama客户端的形式,部署本地大模型。
毕竟有些小伙伴一是担心调用云端模型,公司内部核心的信息数据不安全。二是龙虾吃token太厉害,用本地的能省点钱。
但这一切的前提条件是,你本地的电脑或者服务器硬件能够支撑得起来,硬件不行,跑不起来也没用。
而且很多量化后的小参数模型,干不了活,有点傻,你可以部署跑起来,但智力能力低下,等于没什么用。
参数大一点的模型,又太吃硬件性能,没好点的显卡跟内存同样跑不起来,尤其不适合消费级的显卡部署。
但自从前几天Qwen发布了Qwen3.5系列小模型之后,让一众普通用户看到了希望,模型不仅参数体量小,性能效果还不错。
拿Qwen3.5 9B举例,俗称小钢炮,普通消费级显卡就能跑,不需要专业的AI计算卡,门槛一下降低了不少。
当然,你想使用Ollama本地部署一个开源模型,却不知道什么样的电脑硬件可以支持,那你可以直接问豆包。
比如这样问:我想在windows本地电脑部署qwen3 8b模型,请问需要什么样的硬件配置才能跑得起来,如图:
所以,本地用Ollama部署模型,提供API接口给OpenClaw小龙虾调用,开始变得有意义,有价值了。
虽然老马之前已经写过在本地用Ollama部署模型的教程,但有些小伙伴还是搞不懂,希望有一篇能够针对OpenClaw的教程。
于是,今天就以Windows 11为例,给大家从头到尾实操一遍,中间有一些细节不要错漏,记得仔细阅读。
Ollama安装部署本地模型
老马是在虚拟机上新装了Windows 11系统,Ollama的Windows客户端需要Windows 10以上系统才能安装,电脑浏览器访问网址:
https://ollama.com/download,下载安装包进行安装即可,如图:
安装包有1.2G,下载需要一段时间,请耐心等待。下载完安装包,双击运行安装,跟普通的Windows软件安装一样,点击“install”安装就行,如图:
默认会安装到你的电脑C盘,安装过程中如果系统环境缺少组件,也会提示你去安装,记得点是确定安装组件,如图:
安装完毕启动Ollama,我们在左侧点左上角的图标展开列表,在列表里面就能看到“Settings”设置选项,点击进去,如图:
设置页面虽然是英文的,但好在选项不多,不影响我们操作,只需要把“Expose Ollama to the network”这个选项开关打开,如图:
这个选项的意思是允许其它第三方的应用,通过网络连接使用Ollama提供的模型服务,等于是开通API,给其它应用软件调用。
这个不打开的话,等下你的OpenClaw在填写完Ollama的API信息后,就没法连接成功,所以一定要记得打开。
打开的时候,如果Windows防火墙有提示,是否运行Ollama访问公用和专用网络,也一定要记得点击允许。
接下来设置上下文窗口大小,老马建议默认你就调到最大的256K,这样虽然有些模型达不到,起码不至于因为太小老是出问题,如图:
而且你也不用去问豆包,去查某个模型的上下文窗口是多少。虽然可以去查,根据模型的情况去设置,但小白用户拉到最大就行了。
以上设置调整完,Ollama会自动保存的,不需要你去点击什么保存按钮。然后我们返回刚才第一次打开Ollama的页面,即首页。
在对话框右下角就可以看到模型选择,点击会展开模型列表,如图:
凡是模型名称右侧带一朵云朵图标的,那是Ollama提供的云端模型服务,可以用,但不是我们今天要介绍的。
凡是模型名称右侧带一个下载箭头图标的,就是Ollama提供的可以下载到本地的模型文件,比如老马这里选择了qwen3-vl:8b这个模型,如图:
选择完模型后,在对话框里面随便输入一句:你好,发送过去,模型就开始启动下载了,不同模型文件大小不一样,耐心等待下载完成,如图:
模型下载进度到100%之后,Ollama会自动去加载使用已经下载好的本地模型文件。如果你的硬件不支持,比如内存不够,就会报下面的错误,如图:
之所以老马会出现这个内存不足的问题,两个原因,一个是qwen3-vl:8b是带视觉模块的模型,对内存要求要更大一些。
第二个是老马的Windows 11系统是运行在虚拟机上的,虽然电脑本身有64G的内存,加上打开的各种软件,当前可以使用的内存就不足了。
所以没办法,只能换一个模型,最后选择了qwen3:8b这个模型,不带Vl视觉模块的,如图:
重新等新的qwen3:8b模型下载完启动,没有提示任何错误的时候,就可以在对话框输入文字跟模型对话了,如图:
到这里,本地使用Ollama部署一个模型就搞定了。可能有些小伙伴又会问了,Ollam提供可以下载的模型种类太少,我能不能安装其它种类的模型。
答案是可以的,你只需要去阿里魔搭这种平台下载好模型文件,放到Ollama对应的模型目录即可,至于怎么操作,你可以问豆包。
咱们这里就不展开仔细讲,因为详细介绍这种方式,又得是写一篇几千字的长文教程,反倒是问豆包、千问,它会一步步引导你去怎么操作。
你只需要在提问的时候,把背景信息交代清楚。比如说我现在已经在本地Windows上安装了Ollama的客户端,想部署某某模型,怎么操作,我是个小白,请一步步引导我。
OpenClaw对接使用本地模型
Ollama本地部署模型完毕,下一步我们来对接OpenClaw小龙虾,老马这里还是推荐普通用户安装整合界面版的OneClaw,不会安装的可以查看文章:不需要懂技术,小白一键本地安装OpenClaw小龙虾
这个底层就是OpenClaw,只不过在安装方面进行了简化,尤其适合Windows系统用户,不需要去踩那么多的坑。
简单方便,安装完就可以打开使用,我们安装完OneClaw之后启动软件,第一步会要求你配置大模型的API,你可以先用别的服务商API先配置着。
别的服务商老马那篇安装文章中也有介绍的,都是云端的模型,那接下来我们在OneClaw里面点击设置,进入模型配置,选择自定义,把服务商变成我们Ollama部署的本地模型,如图:
首先上面是一个错误的写法,接口地址你如果填:http://127.0.0.1:11434,API密钥随便填个数字1,模型ID就是模型名称填qwen3:8b,接口类型默认,保存的时候就会报404错误。
这是因为接口地址错了,API密钥和模型ID都没有错,所以正确的接口地址写法应该是:http://127.0.0.1:11434/v1,如图:
这才是OpenAI支持的正确格式,把接口地址改成这样,其它保持不变,保存后,你的当前使用模型就会变成Ollama本地部署的模型了。
最后回到对话窗口,输入一下问题,发送过去,根据你硬件的性能,Ollama的响应输出速度也不一样,稍等片刻,就能收到回复了,如图:
这就代表着,你的模型已经成功切换到Ollama本地部署的模型上了,OpenClaw原版的对接方式也是差不多的。
你要使用Ollama本地部署的大模型,就把接口地址,API密钥(随便写),模型ID,直接发给小龙虾,让它帮你更换。
还有一种方式就是,你问小龙虾,本地配置文件OpenClaw.json的详细路径是什么,以及怎样修改里面的模型配置。
小龙虾就会告诉这个配置文件在本地电脑的路径,就去那个路径找到OpenClaw.json文件,一般Windows系统的话是在你用户名下的.OpenClaw目录。
然后你就用记事本打开进行编辑,找到模型配置的那一段,按照小龙虾的指导去修改保存,重启一下网关就行了。不知道怎么重启网关的,可以查看之前老马写的:玩转OpenClaw小龙虾常用命令,赶紧收藏学会
另外补充一点,你要持续地使用Ollama本地部署的模型服务,最好保证这个软件不要关闭掉,处于启动的状态,以免服务失效无法在OpenClaw上调用。
好了,以上就是今天的分享,欢迎关注、点赞、转发一键三连。有任何问题和需求,请在评论区留言,回见!
对了,老马最近刚创建了一个AI学习交流群,有兴趣进群的小伙伴可以添加老马微信号:immajiabin,添加好友时备注:进群(不备注不通过)。


