免費 AI CLI 工具排名:Gemini CLI vs Codex CLI vs OpenCode vs Goose
2026 年所有免費 AI CLI 程式碼工具的正面對決排名。涵蓋 Gemini CLI、Codex CLI、OpenCode、Goose、aider、Crush 和 Copilot CLI — 經驗證的免費額度細節、功能比較、五項實戰測試,以及給預算有限的開發者的最終推薦。
結論先講:2026 年最好的免費 AI CLI 工具
Gemini CLI 勝出。每天 1,000 次模型請求、Gemini 2.5 Pro/Flash 自動路由、零成本、不會過期。對於一毛錢都不想花的開發者,Gemini CLI 能處理 80% 的日常程式任務。OpenCode 以模型彈性和 LSP 整合拿下第二。Goose 以 MCP 擴充性和自動化工作流程獲得第三。
但「免費」有很多種。有些工具是無條件免費,有些是綁訂閱的免費、限時的免費、或工具免費但 API 收錢。這篇排名把「真正免費」和「行銷話術的免費」分開,用五項真實任務測試全部七個工具,告訴你該先裝哪一個。
2026 AI CLI 工具完全指南涵蓋包含付費工具在內的完整生態系。本文只聚焦 $0 能拿到什麼。
七個免費 AI CLI 工具
2026 年有七個 AI CLI 工具提供有意義的免費使用。以下是截至 2026 年 3 月,每個工具實際免費給你的東西。
摘要:Gemini CLI 提供最慷慨的無條件免費額度。Codex CLI 暫時對 ChatGPT Free 使用者免費。四個開源工具(OpenCode、Goose、aider、Crush)是免費軟體但需要 API 金鑰或本地模型。Copilot CLI 在免費 GitHub 方案下每月給 50 次 premium 請求。
| 工具 | 免費類型 | $0 能拿到什麼 | 模型存取 | 附帶條件 |
|---|---|---|---|---|
| Gemini CLI | 無條件免費 | 每天 1,000 次請求、每分鐘 60 次 | Gemini 2.5 Pro/Flash 混合 | 需要 Google 帳號 |
| Codex CLI | 限時促銷 | 完整 Codex 存取(ChatGPT Free/Go) | GPT-5.3-Codex,沙盒執行 | 「限時」,可能隨時結束 |
| OpenCode | 免費軟體 + API 費用 | 工具無限使用 | 75+ 供應商、Ollama 本地模型 | LLM 供應商另計 |
| Goose | 免費軟體 + API 費用 | 工具無限使用 | 25+ 供應商、本地模型 | LLM 供應商另計 |
| aider | 免費軟體 + API 費用 | 工具無限使用 | 100+ 模型、本地模型 | LLM 供應商另計 |
| Crush | 免費軟體 + API 費用 | 工具無限使用 | OpenAI、Anthropic、Google、OpenRouter 等 | LLM 供應商另計 |
| Copilot CLI | 免費增值 | 2,000 補全 + 50 次 premium 請求/月 | GPT-5 mini、GPT-4.1(含在基本方案) | 50 次 premium 請求很快就用完 |
「真正免費」vs.「免費軟體」的區別
Gemini CLI 和 Copilot CLI 的免費額度是真正免費,軟體和模型推理都不用付錢。Google 和 GitHub 吸收了算力成本。
Codex CLI 目前在 ChatGPT Free 和 Go 方案上是真正免費的,但這是明確標示的限時促銷。截至 2026 年 3 月,OpenAI 尚未公佈結束日期。
OpenCode、Goose、aider 和 Crush 是免費開源軟體。工具本身不收錢。但你需要一個 LLM 來驅動它,不是雲端 API(要花錢),就是透過 Ollama 跑本地模型(花電費,需要不錯的硬體)。在 32GB RAM 的 MacBook 上跑 Llama 3.3 確實是零元。透過 API 用 Claude Sonnet 4.6 跑任何一個這類工具,每百萬輸入 token 要 $3。
逐一拆解
1. Gemini CLI — 免費額度之王
GitHub 星數: 55,000+ | 開發者: Google | 授權: Apache 2.0
Gemini CLI 用 Google 帳號認證,立刻給你每天 1,000 次模型請求。不用信用卡,不是試用期,不是促銷活動。這是常態的免費額度。
1,000 次請求到底代表什麼: 一個 prompt 不等於一次請求。Gemini CLI 每個 prompt 會發出多次 API 呼叫,讀檔案、規劃、寫程式碼、驗證。一個典型的 prompt 消耗 5-15 次請求。實際上每天大約 80-150 個 prompt。對整天中度程式工作來說,這夠用了。
模型品質: Gemini CLI 使用自動路由,簡單 prompt 送 Gemini Flash(快、便宜),複雜 prompt 送 Gemini 2.5 Pro(慢、強)。免費額度下不是無限使用 Pro,路由器決定。對大多數程式任務,這個混合表現不錯。對深度複雜的多檔案重構,和 Claude Opus 4.6 或 GPT-5.3 的品質差距是真實的。
核心功能: 1M+ token 上下文視窗、自動模型路由、開源、MCP 支援、AGENTS.md/CLAUDE.md 相容。
限制: 每日額度在太平洋時間午夜重置,不累計。下午 2 點前把請求用光,就得等到明天,或切換到其他工具。
2. Codex CLI — 免費(暫時的)
GitHub 星數: 62,000+ | 開發者: OpenAI | 授權: 開源(Rust 實作)
Codex CLI 是 OpenAI 的終端原生程式代理。預設在雲端沙盒執行程式碼,把執行環境和你的本機隔離。截至 2026 年 3 月,OpenAI 正在跑促銷:ChatGPT Free 和 Go 方案可免費使用 Codex,付費訂閱者則有雙倍速率限制。
「限時免費」是什麼意思: OpenAI 的公告明確寫著「for a limited time(限時)」。沒有結束日期。可能持續三個月,也可能三週。如果你的工作流程建立在 Codex CLI 的免費存取上,請準備後備方案。
模型品質: GPT-5.3-Codex 很強,尤其在程式碼生成和解釋現有程式碼方面。雲端沙盒執行是真正的差異化,你的代理在隔離容器中跑程式碼,不是在你的機器上。對於涉及執行不受信任命令的任務,這比清單上每個其他工具都安全。
核心功能: OS 層級沙盒、雲端執行、語音輸入、diff 記憶體管理、三層權限(建議/自動編輯/全自動)、MCP 支援。
限制: 綁定 ChatGPT 帳號和促銷時程。促銷結束後,最少需要 ChatGPT Plus($20/月)。
3. OpenCode — 模型不可知的重砲
GitHub 星數: 112,000+ | 開發者: Anomaly Innovations | 授權: 開源
單看採用指標,OpenCode 就是 2026 年最突出的開源 AI 程式 CLI。支援 75+ 個 LLM 供應商,透過 Ollama 跑本地模型,在免費工具中有最精密的子代理架構。
差異化: OpenCode 的 LSP 整合是真的,它自動偵測並啟動你專案的語言伺服器,讓 LLM 能存取型別資訊、診斷和程式碼智能,這是其他工具缺乏的。YAML 基礎的子代理系統讓你定義專門化代理(@general 有完整工具存取、@explore 只讀導覽),可自訂模型路由。
模型品質: 完全取決於你選的供應商。用 OpenCode 搭配 Claude Sonnet 4.6 API 可以得到接近 Claude Code 水準的結果,每百萬輸入 token $3。搭配本地 Llama 模型則是零成本但品質次一檔。
核心功能: 75+ 供應商、LSP 整合、子代理架構、帶語法高亮的 TUI、多工作階段並行代理、MCP 支援。
限制: 你需要 API 金鑰(花錢)或本地模型硬體。工具免費;大腦不免費,除非你跑本地。
4. Goose — 擴充性冠軍
GitHub 星數: 27,000+ | 開發者: Block(Linux Foundation) | 授權: Apache 2.0
Goose 不只是改程式碼。它從頭建專案、跑 shell 命令、編排多步驟工作流程、連接 3,000+ 個 MCP 伺服器。Block(Square 和 Cash App 背後的公司)創建了 Goose,並將它移到 Linux Foundation 下進行供應商中立治理。
差異化: Goose 的 MCP 整合是所有免費工具中最深的。連接 GitHub、Jira、Slack、Docker、Kubernetes、資料庫,全部透過標準化 MCP 伺服器。統一的「Summon」擴充系統讓你委派任務給子代理和載入專門技能。v1.25+ 包含 OS 層級沙盒。
模型品質: 跟 OpenCode 一樣取決於供應商。Goose 支援 25+ 個供應商。關鍵基準測試數據:在第三方測試中,Goose 消耗 300k token、平均每個任務 587 秒,但程式碼基準正確率僅 5.2%。這意味著 Goose 的強項是工作流程編排和工具整合,而非原始程式碼生成精確度。程式碼任務請搭配強模型(Claude Sonnet、GPT-5)。
核心功能: 3,000+ MCP 伺服器、OS 層級沙盒、桌面應用 + CLI、配方管理、子代理委派、語音輸入。
限制: 純程式碼任務的基準數字令人擔憂。Goose 在編排方面出色(連接工具、跑工作流程、自動化 DevOps)而非寫精確的程式碼。
5. aider — Git 原生的配對程式設計師
GitHub 星數: 39,000+ | 開發者: Paul Gauthier | 授權: Apache 2.0
aider 是最成熟的開源 AI 程式 CLI。它早於 2025-2026 年的 AI CLI 熱潮,擁有所有工具中最精緻的 git 整合。aider 做的每個變更都會自動 commit 並附帶描述性訊息。你永遠知道 AI 改了什麼,隨時可以回滾。
差異化: aider 會建立整個程式碼庫的 repository map,讓 LLM 有結構性意識,提升大型專案的精確度。支援 100+ 個模型,每次變更後自動 lint 和測試,有所有工具中最乾淨的復原機制,每個 AI 修改都是一個 git commit。
模型品質: aider 在基準測試中達到 52.7% 綜合分數,在 257 秒內完成任務,消耗 126k token。這是開源工具中最佳的效率比,每 token 精確度優於 Codex CLI 和 Goose。
核心功能: 自動 git commit、repository map、lint/test 整合、100+ 模型、圖片和網頁上下文支援、co-author 標註。
限制: aider 是配對程式設計師,不是完全自主的代理。它擅長聚焦的檔案級別編輯。要從零搭建整個服務或編排多工具工作流程,其他工具(Goose、OpenCode)更有優勢。
6. Crush — 最美的終端代理
GitHub 星數: 21,000+ | 開發者: Charmbracelet | 授權: 開源
Crush 把 Charmbracelet 傳奇級的終端美學帶進了 AI 程式碼。如果你用過任何 Charm 工具(Bubble Tea、Lip Gloss、Glow),你知道他們的 TUI 品質。Crush 是最好看的 AI CLI 工具,沒有之一。
差異化: LSP 增強上下文(和 OpenCode 一樣)、工作階段中途切換模型且不丟失對話上下文、最廣的平台支援,macOS、Linux、Windows、Android、FreeBSD、OpenBSD、NetBSD。對,你可以在手機上跑 Crush。
模型品質: 取決於供應商。Crush 支援 OpenAI、Anthropic、Google、Groq、Vercel AI Gateway、OpenRouter、Hugging Face 和自訂 API。LSP 整合讓它比沒有 LSP 的工具有更好的上下文感知。
核心功能: 同類最佳 TUI、LSP 整合、工作階段中途模型切換、MCP 可擴充、每個專案獨立的工作階段上下文、細粒度工具權限。
限制: 比較年輕的專案(截至 2026 年 3 月為 v0.48.0),生態系比 aider 和 OpenCode 小。
7. Copilot CLI — GitHub 原住民
開發者: GitHub | 授權: 專有
Copilot CLI 是 GitHub Copilot 的終端延伸。免費 GitHub 方案包含每月 2,000 次程式碼補全和 50 次 premium 請求。premium 請求涵蓋聊天、代理模式、程式碼審查和 Copilot CLI 使用。
50 次 premium 請求代表什麼: 不多。代理模式下一個複雜任務就能消耗 3-5 次 premium 請求。每月 50 次大約是 10-15 個有意義的任務,每個工作天大約一個。不過 GPT-5 mini 和 GPT-4.1 包含在基本訂閱中且不消耗 premium 請求,所以用這些模型的簡單任務實質上無限。
模型品質: Copilot CLI 透過 GitHub 基礎設施存取多個模型,包括 Claude、GPT 和 Gemini。Pro+($39/月)解鎖 Claude Opus 4.6 和 OpenAI o3。免費額度僅限於包含的模型。
核心功能: 深度 GitHub 整合(PR、issues、actions)、代理委派、計劃模式、多模型路由。
限制: 每月 50 次 premium 請求是這份清單上最吝嗇的免費額度。Copilot CLI 最適合作為其他主要工具的補充,而非獨當一面。
比較總表
摘要:Gemini CLI 在免費額度慷慨度和上下文視窗方面領先。OpenCode 在模型彈性和 GitHub 採用度方面領先。aider 在每 token 效率方面領先。Goose 在 MCP 整合方面領先。Crush 在平台支援和 TUI 品質方面領先。
| 功能 | Gemini CLI | Codex CLI | OpenCode | Goose | aider | Crush | Copilot CLI |
|---|---|---|---|---|---|---|---|
| 每日免費請求 | 1,000 | 無限(促銷中) | 無限* | 無限* | 無限* | 無限* | 平均約 2 次/天 |
| 免費模型 | Gemini 2.5 Pro/Flash | GPT-5.3-Codex | 自選 | 自選 | 自選 | 自選 | GPT-5 mini |
| 上下文視窗 | 1M+ token | 1M token | 依供應商 | 依供應商 | 依供應商 | 依供應商 | 依供應商 |
| 開源 | 是 | 是 | 是 | 是(Apache 2.0) | 是(Apache 2.0) | 是 | 否 |
| LSP 整合 | 否 | 否 | 是(30+ 伺服器) | 否 | 否 | 是 | 否 |
| MCP 支援 | 是 | 是 | 是 | 是(3,000+ 伺服器) | 否 | 是 | 是 |
| 沙盒 | 否 | 是(雲端 + OS) | 否 | 是(OS 層級) | 否 | 否 | 否 |
| Git 整合 | 基本 | 基本 | 基本 | 基本 | 最佳(自動 commit) | 可配置 | 深度(GitHub 原生) |
| 本地模型支援 | 否 | 否 | 是(Ollama) | 是(Ollama) | 是(Ollama) | 是(自訂 API) | 否 |
| 平台 | macOS、Linux | macOS、Linux、Windows | macOS、Linux、Windows | macOS、Linux、Windows | macOS、Linux、Windows | 全部(含 Android) | macOS、Linux、Windows |
| GitHub 星數 | 55K+ | 62K+ | 112K+ | 27K+ | 39K+ | 21K+ | N/A |
*工具無限使用,但 LLM 供應商另計或需跑本地模型。
五項任務正面對決
我在同一個 Next.js 15 程式碼庫上(12,000 行、TypeScript、Prisma、Tailwind)測試了全部七個工具的五項真實開發任務。每個工具使用其最佳可用免費模型。對於自帶金鑰的工具(OpenCode、Goose、aider、Crush),我使用免費的本地模型(Llama 3.3 70B via Ollama)來確保 $0 價位的公平比較。
任務 1:解釋複雜模組
Prompt: 「解釋這個專案的認證流程,入口點、session 管理、token 刷新、錯誤處理。」
| 工具 | 品質(1-10) | 時間 | 備註 |
|---|---|---|---|
| Gemini CLI | 8 | 12 秒 | 準確,識別出全部四個認證入口點 |
| Codex CLI | 8 | 18 秒 | 詳盡,包含安全性觀察 |
| OpenCode(本地) | 6 | 45 秒 | 涵蓋基本面,遺漏 token 刷新邊界案例 |
| Goose(本地) | 5 | 52 秒 | 冗長,session 處理部分不準確 |
| aider(本地) | 6 | 38 秒 | 簡潔、正確但淺薄 |
| Crush(本地) | 6 | 42 秒 | 結構好,遺漏一個入口點 |
| Copilot CLI | 7 | 15 秒 | 紮實,整合了 repo 上下文 |
贏家: Gemini CLI。雲端模型(Gemini 2.5 Pro、GPT-5.3)在解釋任務上明顯優於本地 Llama 3.3。這在預料之中,模型品質差距是真的。
任務 2:為現有工具函式撰寫單元測試
Prompt: 「用 Vitest 為 src/lib/validation.ts 撰寫完整的單元測試。」
| 工具 | 品質(1-10) | 時間 | 備註 |
|---|---|---|---|
| Gemini CLI | 8 | 20 秒 | 14 個測試,全部通過,涵蓋邊界案例 |
| Codex CLI | 9 | 25 秒 | 16 個測試,邊界條件覆蓋最佳 |
| OpenCode(本地) | 7 | 60 秒 | 12 個測試,11 個通過,1 個型別錯誤 |
| Goose(本地) | 5 | 85 秒 | 8 個測試,3 個失敗,import 路徑錯誤 |
| aider(本地) | 7 | 50 秒 | 12 個測試,全部通過,自動 commit |
| Crush(本地) | 7 | 55 秒 | 13 個測試,全部通過 |
| Copilot CLI | 7 | 22 秒 | 11 個測試,全部通過 |
贏家: Codex CLI。沙盒執行讓它能在呈現結果前實際跑測試並修復失敗。Gemini CLI 緊追在後。
任務 3:修復跨兩個檔案的 Bug
Prompt: 「src/components/DatePicker.tsx 的日期選擇器顯示 UTC 時間而不是使用者的本地時區。格式化邏輯在 src/lib/dates.ts。修復這兩個檔案。」
| 工具 | 品質(1-10) | 時間 | 備註 |
|---|---|---|---|
| Gemini CLI | 8 | 18 秒 | 兩個檔案都正確修復 |
| Codex CLI | 8 | 22 秒 | 正確修復,新增時區工具函式 |
| OpenCode(本地) | 6 | 65 秒 | 修了 dates.ts 但遺漏 DatePicker.tsx 的一個呼叫點 |
| Goose(本地) | 4 | 90 秒 | 覆寫了 DatePicker.tsx 中不相關的程式碼 |
| aider(本地) | 7 | 48 秒 | 正確修復,乾淨的 diff,自動 commit |
| Crush(本地) | 6 | 58 秒 | 修了核心問題但格式微偏 |
| Copilot CLI | 7 | 20 秒 | 正確修復,最小變更 |
贏家: Gemini CLI 和 Codex CLI 並列。兩者都產出乾淨、正確的跨檔修復。
任務 4:重構一個模組(5 個檔案)
Prompt: 「把通知系統從 callback 架構重構為事件驅動。檔案:src/lib/notifications.ts、src/services/email.ts、src/services/slack.ts、src/services/webhook.ts、src/api/notify/route.ts。」
| 工具 | 品質(1-10) | 時間 | 備註 |
|---|---|---|---|
| Gemini CLI | 7 | 45 秒 | 架構正確,遺漏 webhook.ts 的一個 callback |
| Codex CLI | 8 | 55 秒 | 乾淨的重構,五個檔案一致 |
| OpenCode(本地) | 5 | 120 秒 | 部分重構,事件命名不一致 |
| Goose(本地) | 3 | 150 秒 | 嚴重錯誤,搞壞了 API route |
| aider(本地) | 6 | 90 秒 | 三個檔案正確,兩個需要手動修復 |
| Crush(本地) | 5 | 110 秒 | 結構不錯但兩個檔案有型別錯誤 |
| Copilot CLI | 6 | 50 秒 | 合理的嘗試,有些不一致 |
贏家: Codex CLI。多檔案一致性需要強大的架構推理,雲端模型在這方面決定性地勝過本地模型。
任務 5:新增功能(設定 + 實作 + 測試)
Prompt: 「為所有 API routes 加上頻率限制。使用滑動視窗演算法,每個 IP 每分鐘 60 次請求。在 src/config/ 加設定,在 src/middleware/ 加實作,加測試。」
| 工具 | 品質(1-10) | 時間 | 備註 |
|---|---|---|---|
| Gemini CLI | 7 | 55 秒 | 可運作的實作,基本測試 |
| Codex CLI | 8 | 70 秒 | 完整方案,在沙盒中跑了測試 |
| OpenCode(本地) | 5 | 140 秒 | 部分實作,測試不完整 |
| Goose(本地) | 4 | 180 秒 | 建了檔案但 middleware 整合壞了 |
| aider(本地) | 6 | 100 秒 | 核心可運作,測試通過但覆蓋率有限 |
| Crush(本地) | 5 | 125 秒 | 實作可用,config 結構不標準 |
| Copilot CLI | 6 | 60 秒 | 可運作但任務途中撞到 premium 請求限制 |
贏家: Codex CLI。開發過程中能在沙盒環境跑測試是新功能實作的真正優勢。
測試結果總結
摘要:雲端後端的工具(Gemini CLI、Codex CLI、Copilot CLI)在精確度上持續勝過使用本地模型的工具。雲端工具中,Codex CLI 在複雜多檔案任務上略勝 Gemini CLI。本地模型工具中,aider 提供最佳的精確度/token 比。
| 工具 | 總分(50) | 平均品質 | 最佳任務 | 最弱任務 |
|---|---|---|---|---|
| Codex CLI | 41 | 8.2 | 測試撰寫(9) | — |
| Gemini CLI | 38 | 7.6 | 解釋(8) | 重構(7) |
| Copilot CLI | 33 | 6.6 | 解釋(7) | 新功能(6) |
| aider(本地) | 32 | 6.4 | Bug 修復(7) | 重構(6) |
| OpenCode(本地) | 29 | 5.8 | 測試撰寫(7) | 新功能(5) |
| Crush(本地) | 29 | 5.8 | 測試撰寫(7) | 重構(5) |
| Goose(本地) | 21 | 4.2 | 解釋(5) | 重構(3) |
重要提醒: 這個比較對自帶金鑰的工具天生不公平。用 Claude Sonnet 4.6 API 跑 OpenCode、aider 或 Crush 會大幅提升它們的分數,但那就不是免費的了。測試衡量的是真正 $0 價位你能得到什麼。
最終排名
第一梯隊:優先安裝
1. Gemini CLI — 任何想要免費 AI CLI 工具的開發者的預設推薦。每天 1,000 次請求搭配雲端品質模型,沒有附加條件,不會到期。安裝它,用 Google 認證,開始寫程式。如果你只裝一個工具,就裝這個。
2. Codex CLI — 促銷期間,Codex CLI 是能力最強的免費工具。雲端沙盒執行、強勁的模型品質(GPT-5.3-Codex)、真正功能完整的代理能力。風險是:這個免費存取可能隨時結束。用它,但別依賴它。
第二梯隊:加入你的工具箱
3. OpenCode — 想要模型彈性的開發者的最佳開源替代方案。LSP 整合讓它比其他自帶金鑰的工具有真正的技術優勢。如果你有 API 金鑰或不錯的本地模型硬體,OpenCode 能提供接近商業工具品質的結果。112K+ GitHub 星數和活躍社群意味著長期可行性。
4. aider — 重視 git 衛生的開發者的最安全選擇。每個 AI 變更都是一個 commit。你永遠能看到發生了什麼,永遠能回滾。開源工具中最佳的效率比(每消耗 token 的精確度)。當你想要精確的手術式編輯而非自主代理時,用 aider。
第三梯隊:特定使用情境
5. Goose — 不要拿 Goose 做程式碼生成精確度。拿它做工作流程編排和工具整合。3,000+ MCP 伺服器、深度擴充性、Linux Foundation 治理。如果你的工作流程涉及在 GitHub、Jira、Slack 和資料庫之間協調,Goose 是連接它們的免費工具。
6. Crush — 如果你在意 TUI 品質,或需要在特殊平台上跑(Android、FreeBSD),選 Crush。LSP 整合跟 OpenCode 一樣。Charmbracelet 生態系意味著精緻的終端互動。比 aider 和 OpenCode 年輕,但發展快速。
7. Copilot CLI — 每月 50 次 premium 請求不夠當主力工具。但如果你已經大量使用 GitHub,深度整合(PR、issues、actions)作為補充有其價值。放在你的 PATH 裡,用在 GitHub 專屬的快速任務。
零元組合:實際該裝什麼
對於想要以 $0/月得到最佳 AI CLI 體驗的開發者,裝這套組合:
- Gemini CLI — 80% 任務的主力工具。探索、程式碼審查、寫測試、修 bug、生成文件。
- Codex CLI — 需要沙盒執行的任務的副手(促銷期間)。
- aider + Ollama — 離線備用,搭配本地模型處理隱私敏感工作,或 Gemini CLI 每日額度用完時頂上。
這給你一整天免費的雲端品質 AI 程式碼(Gemini CLI)、目前最強的免費代理處理複雜任務(Codex CLI,暫時的)、以及隨時可用的本地後備(aider + Ollama)。
Codex CLI 促銷結束後,把它換成 OpenCode + API 金鑰作為升級路徑。AI CLI 省錢工作流指南涵蓋如何隨需求增長逐步加入付費工具。
免費什麼時候不夠用
免費工具有真正的限制。Gemini 2.5 Pro 和 Claude Opus 4.6 之間的模型品質差距,在複雜多檔案重構、架構推理和安全敏感程式碼上是重要的。透過 Ollama 跑本地模型對簡單任務可以,但對生產環境程式碼變更所需的精確度力有未逮。
你已經超出免費工具範圍的訊號:
- 你花更多時間修正 AI 輸出而非自己寫程式
- 多檔案重構需要 3 次以上迭代才對
- 一週內有超過兩天在下午 3 點前就撞到 Gemini CLI 每日額度上限
- 你正在處理安全關鍵程式碼,精確度的價值超過省下的費用
當你碰到這些訊號,雙工具策略,在 Gemini CLI 免費額度之上加入 $20/月的 Claude Code Pro,是最具成本效益的下一步。常規工作繼續用免費工具,只在值得訂閱的任務上用 Claude Code。
安裝指南:10 分鐘從零到三個工具
Gemini CLI(2 分鐘)
npm install -g @google/gemini-cli
gemini
出現提示時用 Google 帳號認證。在任何專案目錄中執行 gemini 開始使用。
Codex CLI(3 分鐘)
npm install -g @openai/codex
codex
用 ChatGPT 帳號登入。如果你是 Free 或 Go 方案,目前有完整存取權限。
aider + Ollama(5 分鐘)
# 安裝 Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 拉一個能力不錯的本地模型
ollama pull llama3.3:70b
# 安裝 aider
pip install aider-chat
# 用本地模型跑 aider
aider --model ollama/llama3.3:70b
三個工具各跑在獨立的終端工作階段。同時並排執行,一個面板用 Gemini CLI 探索、一個面板用 Codex CLI 實作、一個面板用 aider 作為本地後備,是最大化覆蓋範圍的工作流。管理三個同時運行的終端工作階段,正是像 Termdock 這樣的多終端工作空間展現價值的地方:拖曳調整每個代理的面板大小,同時看三個工具運作,在它們之間切換不丟失上下文。
Ready to streamline your terminal workflow?
Multi-terminal drag-and-drop layout, workspace Git sync, built-in AI integration, AST code analysis — all in one app.