爱可可-爱生活 26-01-23 13:09
微博认证:AI博主 2025微博新锐新知博主

【零成本本地运行Claude Code:一份完整的隐私编程助手搭建指南】

最近开发者圈子里流传着一个有趣的玩法:用本地开源模型驱动Claude Code,实现完全离线、零API费用的AI编程助手。

先说清楚一点:这套方案用的是Claude Code的工具链和交互框架,底层跑的是本地开源模型,并非Anthropic的Claude模型本身。但这恰恰是它的价值所在,你获得了一个能读写文件、执行终端命令、理解项目上下文的本地AI代理,数据完全不出本机。

整个搭建过程分四步:

第一步,安装Ollama作为本地模型引擎。Ollama负责托管AI模型并支持工具调用,安装后在后台静默运行。模型选择上,高配机器可以拉qwen3-coder:30b,普通配置用qwen2.5-coder:7b或gemma:2b也能跑。终端执行ollama run加模型名即可下载。

第二步,安装Claude Code本体。Mac和Linux用curl命令,Windows用irm命令,一行搞定。安装完用claude --version验证。如果之前登录过Anthropic账号,需要先登出。

第三步是关键,把Claude指向本地。默认情况下Claude会连Anthropic服务器,需要手动重定向。设置三个环境变量:ANTHROPIC_BASE_URL指向localhost:11434,ANTHROPIC_AUTH_TOKEN随便填个值比如ollama,再加上CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1关闭遥测。

第四步,进入任意项目目录,用claude --model加模型名启动,就能开始干活了。

评论区有些争议值得关注。有人质疑本地模型不支持工具调用,作者明确回应:支持。也有人反馈配置后无法创建文件,作者建议确保上下文长度超过32k,并尝试不同模型。还有人指出qwen3-coder:30b相比顶级闭源模型仍有差距,gemma:2b作为代理几乎不可用,而且要跑得流畅需要不错的硬件。

这套方案的真正意义在于提供了一种可能性:当你需要处理敏感代码、受限于网络环境、或者单纯想省钱时,本地AI代理是个可行选项。它不会取代云端大模型的能力上限,但在特定场景下足够实用。

至于什么时候能本地跑Opus 4.5?正如作者调侃的,得先问问Anthropic什么时候开源。

#How I AI#

x.com/dr_cintas/status/2014380662300533180

发布于 北京