OpenClaw免费大模型接入_国内一键部署免费API使用方法
上篇文章讲了怎么用手机远程操控OpenClaw,有朋友问我:”耀宗,OpenClaw需要自己接大模型,有没有免费的方法啊?”
今天就来给大家分享一下,我是怎么在OpenClaw上接入免费大模型的。
先说说为什么要自己接大模型
OpenClaw本身只是一个框架,它需要接入大模型才能干活。就像是一个操作系统,需要装软件才能用。
为什么要自己接而不是用现成的?
- 成本更低:自己接免费大模型,一分钱不用花
- 数据更安全:数据直接走你的API,不会经过第三方
- 选择更多:可以选择更适合你需求的模型
- 没有限制:不会被突然停服或者限制使用次数
我试过的几个免费大模型
我先后试了好几个免费大模型,总结一下使用体验:
- 通义千问(推荐)
阿里出的,中文支持很好,而且有免费额度。我一直在用这个。
优点:
- 中文能力强
- 有免费额度(每天大概能生成5万字)
- 响应速度快
- 稳定性好
缺点:
- 免费额度有限,用完了要等第二天恢复
- 一些复杂任务处理能力不如GPT-4
- 文心一言(备选)
百度出的,中文支持也不错。
优点:
- 中文能力强
- 有免费额度
- 国内访问速度快
缺点:
- 免费额度更少
- 有时候会不稳定
- 对某些任务处理得不够好
- DeepSeek(黑马)
最近很火的一个开源模型,支持免费使用。
优点:
- 完全免费
- 性能不错
- 支持多种场景
缺点:
- 中文能力一般
- 国内访问可能不稳定
- API接口文档不够完善
- 智谱GLM(推荐)
清华出的,免费额度比较大。
优点:
- 中文能力强
- 免费额度大(每天10万字左右)
- 国内访问快
缺点:
- 有时候会卡顿
- 需要申请API key
推荐配置方案
综合下来,我推荐这几个配置方案:
方案一:主力+备用(最稳定)
- 主力:通义千问
- 备用:智谱GLM
这样配置的好处是,主力模型出问题的时候,可以自动切换到备用,不会中断工作。
OpenClaw支持配置多个API key,按顺序使用。我把通义千问设为第一个,智谱GLM设为第二个。
方案二:单模型方案(最简单)
- 通义千问
这个方案最简单,就接一个模型。适合使用量不大的朋友。
我之前的配置就是这个,每天用个几次,免费额度完全够用。
方案三:多模型方案(最灵活)
- 通义千问(日常对话)
- DeepSeek(代码生成)
- 智谱GLM(文档写作)
这个方案针对不同任务用不同模型,效果更好。但是配置会复杂一些。
详细配置步骤
以通义千问为例,讲一下怎么接入:
第一步:注册账号
去通义千问官网注册一个账号,用手机号或者邮箱都行。注册过程很简单,几分钟就搞定了。
第二步:申请API key
登录之后,进入控制台,找到”API管理”页面,点击”创建API key”。
会给你一个API key,这个一定要保存好,只显示一次,丢了就找不回来了。
第三步:在OpenClaw里配置
打开OpenClaw的配置文件,找到大模型配置部分。填上你的API key,配置成这样:
models:
- name: qwen
provider: qwen
apiKey: 你的API Key
baseUrl: https://dashscope.aliyuncs.com/compatible-mode/v1
保存配置文件,重启OpenClaw。
第四步:测试
在OpenClaw的Web界面里,输入一个测试命令,比如”你好”。
如果OpenClaw正常回复,说明配置成功了。如果报错,检查一下API key是不是填对了。
其他模型的配置方法大同小异,就是API key和baseUrl不一样。
多个API key的配置方法
如果你像我一样,想配置多个API key,可以这样:
models:
- name: qwen-primary
provider: qwen
apiKey: 第一个API Key
baseUrl: https://dashscope.aliyuncs.com/compatible-mode/v1
- name: qwen-secondary
provider: qwen
apiKey: 第二个API Key
baseUrl: https://dashscope.aliyuncs.com/compatible-mode/v1
- name: glm
provider: zhipu
apiKey: 智谱的API Key
baseUrl: https://open.bigmodel.cn/api/paas/v4
OpenClaw会按顺序尝试每个API key,第一个用完了自动用第二个。
免费额度的使用技巧
这些免费大模型都有额度限制,怎么才能最大化利用呢?分享几个技巧:
- 善用缓存
OpenClaw有缓存功能,相同的提问不会重复调用API。
可以在配置文件里开启缓存:
cache:
enabled: true
ttl: 3600
- 精简提示词
提示词越短,消耗的token就越少。
我一般会把提示词精简成这样:
- 不要:请你帮我写一篇关于OpenClaw的文章,要详细介绍OpenClaw的功能、特点和使用方法,字数在1000字左右。
- 要:写一篇1000字的OpenClaw介绍文章。
效果是一样的,但token少了很多。
- 选择合适的模型
不同任务用不同模型,不要都用最强的模型。
简单的对话用轻量模型,复杂的任务用强力模型。这样可以节省额度。
- 合理设置参数
在配置文件里,可以设置一些参数来控制API调用:
maxTokens: 2000
temperature: 0.7
maxTokens限制每次生成的token数量,避免浪费。temperature控制生成的随机性,调低一点会更省token。
常见问题解决
配置过程中可能会遇到一些问题,我总结一下:
- API key不生效
检查一下API key是不是复制全了,有没有多余的空格。通义千问的API key很长的,少一个字符都不行。
- 提示额度不足
免费额度用完了怎么办?
- 等到第二天零点,额度会自动恢复
- 申请新的API key
- 换别的免费大模型
- 响应太慢
这个问题通常是网络原因。可以试试:
- 检查网络连接
- 换个时间段再试
- 考虑用国内部署的模型
- 生成质量不好
如果生成的质量不好,可以试试:
- 调整提示词,写得更明确一些
- 换个更强大的模型
- 增加maxTokens参数,给模型更多发挥空间
写在最后
免费大模型虽然有限制,但是对于大多数日常任务来说,已经完全够用了。我用了大半年,很少遇到额度不够的情况。
如果你也想省下订阅费,就按照我说的方法试试吧。免费的东西,能省一点是一点。
下一篇文章,我会分享一下OpenClaw小龙虾的一键安装方法,感兴趣的可以关注一下。