玩龙虾+微博不想掏钱怎么办? 给大家带来 OpenClaw 系列教程的第一篇: 本地部署!
只要你的显卡显存大于8G(Mac内存大于8G)就能跑!
微博刚出了个龙虾助手, 可以把微博私信功能接到龙虾里, 直接在微博里面就能跟自己的龙虾聊天了.
具体可以看官方教程: weibo.com/6808810981/QuyNB1dtd
但是大家又想玩又不想花钱怎么办? 于是我试了一下小模型, 答案是, 目前 Qwen3.5 新出的几个小模型都不错, 用在 OpenClaw 里面完成日常任务足够用了.
于是我给大家整理了一篇踩坑文档在这里: github.com/karminski/one-small-step/blob/main/20260308-Run-OpenClaw-with-9B-Model-on-Mac/Run-OpenClaw-with-9B-Model-on-Mac.md
注意, 【这篇文章不是给你看的, 是给你的AI看的】, 别照着文章自己搞,交给AI。 假设你的电脑是 Mac, 你只需要把这篇文章复制给你的龙虾甚至 claude code, 让它照着文章在本地部署一个然后接入 OpenClaw 就可以了.
另外本地部署其实最大的性能瓶颈应该是在 prefill, 即纯粹的GPU性能, 而不是显存带宽, 因为 OpenClaw 上来就20K token 起步, 假设你本地设备的 prefill 速度有 1000 token/s 这也得等个20秒. 所以如果觉得速度不够快, 可以尝试 4bit 量化版本, 我的文章中默认是 8bit 的.
配置完毕后就能在微博里跟你的龙虾畅聊啦~ 另外这几个模型是支持多模态的, 但是目前 openclaw-weibo 项目好像还不支持图片或者视频输入, 期待官方跟进一波
#HOW I AI##微博龙虾助手公测##微博龙虾助手##openclaw#
