Free Claude Code ,讓 Claude Code 接入任何模型
發(fā)布日期:2026/5/9 10:36:39 瀏覽量:
Free Claude Code 的架構(gòu)非常清晰,本質(zhì)上是一個中間件代理:
用戶操作(Claude Code / VS Code / JetBrains 插件)
↓
free-claude-code 代理服務(wù)
↓
轉(zhuǎn)發(fā)請求
↓
[ NVIDIA NIM | OpenRouter | DeepSeek | LM Studio | llama.cpp | Ollama ] 復(fù)制
正常流程:Claude Code → Anthropic API → Claude 模型
加了 Free Claude Code:Claude Code → free-claude-code 代理 → 你選的服務(wù)商 → 對應(yīng)模型
這個代理做了兩件事:
- 接收 Claude Code 發(fā)出的 API 請求(格式兼容)
- 轉(zhuǎn)發(fā)給配置的目標服務(wù)商(做必要的格式轉(zhuǎn)換)
也就是說,Claude Code 的請求格式基本兼容主流 LLM API,所以轉(zhuǎn)發(fā)在技術(shù)上是可行的。
三、支持的后端服務(wù)商
|
|
|
|---|---|
| NVIDIA NIM | NVIDIA 官方模型托管,支持Llama/Phi等 |
| OpenRouter | 聚合多個模型 API,$5免費額度,支持free模型 |
| DeepSeek | 國產(chǎn)頂級模型,API 價格低,支持 V3 / Coder |
| LM Studio | 本地模型運行,零API費用,完全離線 |
| llama.cpp | 純C++推理引擎,支持GGUF格式本地模型 |
| Ollama | 本地模型管理,支持 hundreds of models |
重點說說 LM Studio 和 Ollama:如果你有一塊不錯的顯卡(8GB+ 顯存),完全可以把模型跑在本地,完全免費,而且數(shù)據(jù)不出本機,隱私有保障。
未來 AI 編程工具的競爭,不只是在"模型層",更會在"協(xié)議兼容層、路由層、工具層和工作流層"。
復(fù)制
Claude Code 的交互體驗(Terminal 工作流、工具調(diào)用、上下文管理)是目前最好的,但它綁定了 Anthropic 模型。Free Claude Code 證明了一個思路:交互層和模型層完全可以解耦。
這意味著:
- 一個好的 Agent 交互框架,未來可以對接任意模型
- 路由層(選哪個模型)可以變得更智能
- 本地模型 + 好用的交互層 = 完全私有的 AI 編程環(huán)境
安裝
npm install -g free-claude-code復(fù)制
配置后端
設(shè)置環(huán)境變量,選擇要使用的前端和后端組合:
# Claude Code 前端 + OpenRouter
export CLAUDE_CODE_FRONTEND=claude-code
export BACKEND_PROVIDER=openrouter
export OPENROUTER_API_KEY=sk-or-...
# 或者 Claude Code 前端 + DeepSeek
export BACKEND_PROVIDER=deepseek
export DEEPSEEK_API_KEY=sk-
啟動代理
npx free-claude-code proxy復(fù)制
使用
在 Claude Code、VS Code 的 Cline 插件、或 JetBrains 的 JetBrains AI Assistant 中配置代理地址,即可開始使用。
項目地址: https://github.com/Alishahryar1/free-claude-code
馬上咨詢: 如果您有業(yè)務(wù)方面的問題或者需求,歡迎您咨詢!我們帶來的不僅僅是技術(shù),還有行業(yè)經(jīng)驗積累。
QQ: 39764417/308460098 Phone: 13 9800 1 9844 / 135 6887 9550 聯(lián)系人:石先生/雷先生