零重力瓦力 26-03-26 14:35
微博认证:AI博主

Alex Finn 终于开始介绍通过本地模型跑龙虾(OpenClaw)的方法了。

高频使用龙虾的朋友可能已经开始感受每月 Token 账单的压力了。其实,将模型直接跑在自己电脑上,不仅省钱,还能解锁各种云端模型根本做不到的玩法,让AI全年无休地替你干活。

云端模型每发一条消息就在烧钱,隐私也是个隐患,网速差了还得等。更别说让它24小时不停跑任务,账单会让你怀疑人生。本地模型的逻辑完全不同,模型装在自己机器上,断网也能用,没人看得到你的对话,唯一的成本就是电费。

Alex 特别推荐了三个本地模型,Qwen 3.5智能程度高,Nvidia的Nemotron 3刚入场表现强劲,MiniMax 2.5轻量快速。下载工具可以用LM Studio,能够免费从Hugging Face拉模型,普通人也能上手。(由于国内的网络状况,使用 LM Stuido 会有障碍,我更推荐 Ollama。)

硬件方面也不用焦虑。600美元的Mac Mini就能跑小模型,处理记忆管理、内容分类这类任务已经够用。想要更强的智能,4000美元左右的Mac Studio能跑接近顶级模型的水平。如果你已经开始高频使用龙虾,24 小时运行,确实可以考虑 Mac Stuido,本地跑 Minimax M2.7、Qwen-3.5 都是非常好的选择。

真正的用法是 "大脑+肌肉"。用 ChatGPT 或 Claude 做调度,负责想清楚该干什么,再把具体任务扔给本地模型执行,写代码用 Qwen,做研究用 Nemotron,写文章用MiniMax。云端模型只消耗少量 Token,执行层全部免费,成本直接砍掉 90%。

实际怎么跑?一个本地模型全天候爬取商业机会,一个持续写代码,相当于雇佣了几个不要工资的员工。如果全部换成云端API来跑,每天的 Token 费用会是个让人头皮发麻的数字。

#AI技术[超话]##龙虾使用指南##OpenClaw##HOW I AI# http://t.cn/AXfDNpwi

发布于 上海