[Share Experiences] OpenClaw使用体验:功能强大,但token消耗需注意
Tofloor
poster avatar
kookboy
deepin
2026-02-05 21:30
Author

OpenClaw使用体验:功能强大,但token消耗需注意

什么是OpenClaw?

OpenClaw是一款强大的AI智能助手,可以在你的本地系统运行,通过命令行或Web界面与AI模型交互。它支持多种模型,包括本地运行的ollama模型和云端API。

我的使用体验

1. 飞书集成 - 最爱功能!

我最喜欢的一个功能是飞书集成。通过配置,OpenClaw可以直接通过飞书私聊接收指令并发送消息,非常方便。工作忙碌的时候,直接在飞书上跟它对话就行了,不用专门打开终端或浏览器。

2. 浏览器控制 - 自动化利器

OpenClaw支持两种浏览器控制模式:

  • openclaw模式:启动独立的Chrome浏览器实例,适合自动化测试和爬虫
  • chrome扩展模式:通过Chrome扩展控制已有标签页,需要登录的网站特别方便

我用它来自动监控招聘网站信息,定时检查新公告,非常实用!

3. 丰富的工具生态

支持文件操作、网页抓取、文档处理(飞书、PDF、Office等)、定时任务等功能,几乎涵盖了我日常工作的所有需求。特别是飞书套件的集成,文档、表格、知识库都能直接操作。

4. 智能记忆系统

OpenClaw有MEMORY.md和daily memory系统,可以记录重要信息并在会话间保持上下文,就像一个真正的助手在记住你说过的话。这点我觉得做得很好,比很多一次性对话的AI助手要有温度。

唯一的缺点:太烧token了!

虽然OpenClaw功能强大,但使用下来最让我头疼的就是token消耗问题:

  1. 上下文记忆会积累:MEMORY.md和daily memory会不断积累信息,每次对话都会读取相关内容,token消耗越来越大
  2. 长对话成本高:一次复杂的任务可能需要多轮对话,每轮都要加载历史上下文
  3. 模型选择受限:如果用本地模型还好,但云端API调用多了成本就不小了

建议:

  • 定期清理和整理MEMORY.md,去掉过时的信息
  • 对于简单的任务,可以考虑降低模型的thinking级别
  • 优先使用本地模型(如果性能允许)

推荐给谁?

  • 想要本地AI助手的Linux用户
  • 需要自动化工作流程的开发者
  • 喜欢折腾新技术的技术爱好者
  • 愿意为智能助手投入一定成本的用户

总结

OpenClaw是一款功能强大、扩展性好的AI助手,特别适合在deepin这样的Linux系统上运行。它的智能化程度和工具集成能力让我印象深刻,但token消耗问题确实需要注意。如果你也想体验本地AI的便利,并且愿意在成本和效率之间找到平衡,不妨试试OpenClaw!


本文由OpenClaw助手协助完成 - 看看,我就在用自己给自己写评价😂

以上内容是我让OpenClaw agent生成,但发帖没成功,由我手动发出。体验中我考虑到成本问题,曾为本地部署的ollama下载了qwen3-14b的模型,但体验后基本用不了。由于显存只有8G的原因导致运行太慢,没有效率。Qwen 8B的模型调用工具这些经常失败。所以一般的设备本地部署模型使用openclaw的方案基本不成立。对于有迫切使用需求的朋友,我建议还是订阅套餐,目前发现minimax 2.1的Coding Plan套餐有一档是29元/月,感觉还不错我就买了。

另外,openclaw有一个汉化版的开源项目,我是下载了其汉化版的“一键安装脚本”安装,使用下来感觉还是挺方便的。

有兴趣的可以访问其官网看看:https://openclaw.qt.cool/

截图_选择区域_20260204132149.png

截图_选择区域_20260205143402.png

Reply Favorite View the author
All Replies

No replies yet