写在前面我是一个独立开发者从今年初开始重度使用 OpenClaw。第一个月账单出来的时候我人傻了——光 API 费用就花了 400 多美元。后来花了两周时间研究怎么省钱现在月成本控制在 20 美元以内体验基本没缩水。这篇文章把我踩过的坑和摸出来的方法全写出来希望帮你少交点智商税。先说说为什么龙虾这么能吃很多人第一反应是“不就是个 AI 聊天吗能花多少钱”兄弟OpenClaw 不是聊天机器人。它是一个Agent——每次执行任务它不是简单地问一句答一句而是一个循环思考 → 调工具 → 看结果 → 再思考 → 再调工具……这个循环每转一圈Token 就哗哗地烧。具体来说Token 消耗的大头在这几个地方1. 上下文重复注入最大的杀手占 40-50%每次 OpenClaw 跟大模型对话它都会把一堆背景资料重新发一遍你的 AGENTS.md告诉它你是谁SOUL.md性格设定MEMORY.md记忆文件所有已安装工具的 schema 描述技能包说明你的 MEMORY.md 如果膨胀到几百行很容易的用几天就会哪怕你只是跟它说一句早上好光输入就要吃掉 8000-15000 个 Token。就这一句早上好按 Claude Opus 的价格大概 0.1-0.2 美元。一天打几次招呼就是一块多美元没了。2. 心跳和定时任务隐形吞金兽很多人配了 Cron 任务——每 15 分钟检查一下邮件、每小时刷一下热点之类的。问题是每次心跳都是一次完整的 Agent 调用带着全部上下文。我之前犯的最蠢的错误就是用 Claude Opus 跑心跳。一天 96 次心跳 × 每次 1.5 万 Token ≈一天 144 万 Token光心跳就烧十几美元。3. 工具输出和历史累积OpenClaw 每次调用工具读文件、跑命令、刷网页工具返回的内容会塞进上下文。如果你让它读一个大文件、或者浏览一个长网页一次就能灌进去几万 Token。而且这些历史不会自动清理会像滚雪球一样越来越大。4. 模型选错了全程用顶级模型处理所有任务就像开法拉利去买菜——能到但没必要。我的省钱方法论从月花 400 刀降到 20 刀以内下面是我实际在用的方法按投入产出比排序最容易做的放前面。方法一定期压缩上下文零成本立即见效这是最简单但很多人不知道的操作经常用/compact命令让 OpenClaw 总结历史、压缩上下文或者直接/new开新会话把 MEMORY.md 控制在 80 行以内我的做法是核心信息放 MEMORY.md其他详细记录放到单独的文件里让 Agent 需要的时候再去 read。效果光这一步Token 消耗直接砍掉 30-40%。方法二精简注入文件去看看你的 AGENTS.md 和 SKILL.md是不是写了一大堆废话把描述精简到最短能表达清楚的程度禁用你不用的工具每个工具的 schema 描述都要占 Token大文件别设成自动注入改成按需读取我把 AGENTS.md 从 200 多行砍到 60 行每次调用直接少吃 3000 Token。方法三智能模型路由最推荐省 70%这是我觉得性价比最高的方法——不同任务用不同模型。任务类型用什么模型大概成本心跳、日志检查、简单判断Haiku / Qwen / 本地 Ollama几乎免费日常对话、文件整理Sonnet / Kimi / Grok 快模型很便宜复杂推理、写长文、做决策Opus / GPT-4o该花的花怎么实现用OpenRouter或者中转站配置路由规则就行。我现在 90% 的调用走的是便宜模型只有真正需要深度思考的时候才用 Opus。光这一步成本直接从每天十几美元降到两三美元。方法四用 API 中转站国内用户必看这个是国内独立开发者的福音。中转站的原理很简单人家批量采购 API 额度然后以更低的价格转卖给你。兼容 OpenAI/Anthropic 协议配置起来就改两个字段的事。我在用的是wellapi中转wellapi.ai稳定、国内直连、支持多模型。重启搞定。效果同样的调用量成本大概是官方直连的 1/5 到 1/10。很多人从月花几百美元直接降到几十美元。方法五开启 Prompt Caching如果你用 Anthropic 的模型它支持 Prompt Cache——重复的上下文前缀会被缓存不重复计费。OpenClaw 每次调用都带着那堆固定的系统提示词和 AGENTS.md这些内容几乎不变缓存命中率极高。开启之后重复上下文的费用直接打一折。具体怎么开看你用的中转站或直连的文档一般加个参数就行。方法六区域订阅薅羊毛谨慎使用Claude Pro 订阅有区域定价差异美国$20/月尼日利亚约 $11/月便宜 45%埃及、土耳其也有折扣有些人通过切换 App Store 地区来拿低价订阅再结合 Proxy 转成 API 调用。但我要提醒这个有封号风险我自己没这么干只是知道有人在做。个人小规模用问题不大商用就别冒险了。我现在的配置方案供参考日常心跳/简单任务 → Qwen本地 Ollama 或中转站 内容生成/文件处理 → Sonnet 3.5中转站 复杂推理/重要决策 → Opus中转站 Prompt Cache 上下文管理 → 每天 /compact 一次MEMORY.md 控制 80 行内 监控 → LiteLLM Proxy 层加预算警报日消耗超 $3 自动通知实际月成本$15-20偶尔重度使用的月份也不超过 $30。对比最初的 $400省了95%。几个容易踩的坑别让 Agent 读大文件—— 一个 10KB 的文本文件灌进去就是几千 Token让它只读需要的部分别用贵模型跑 Cron—— 这是最常见的新手错误心跳用最便宜的模型就够了别无限累积历史—— 定期 compact或者设置自动 compaction 阈值别装一堆用不到的技能包—— 每个技能的描述都会注入上下文装 20 个技能包可能多吃 5000 Token/次设预算警报—— 不管你多自信先设一个日上限。我被坑过一次之后再也不裸奔了总结省钱优先级如果你懒得看上面那么多就按这个顺序做精简文件 定期 Compact5 分钟搞定省 30-40%模型路由简单任务用便宜模型配置一下省 70%上中转站改两行配置成本再砍 80%开 Prompt Cache如果支持的话区域订阅有风险量力而行最后说两句OpenClaw 本身是开源免费的真正的成本全在 Token 上。很多人觉得养龙虾太贵然后放弃了其实不是龙虾贵是你没管好它的饭量。管好上下文、选对模型、用好中转龙虾完全可以是一个月成本不到一杯咖啡钱的高效生产力工具。