結論先講:2026 年最好的免費 AI CLI 工具
七個工具。五項真實任務。一個贏家。
Gemini CLI 勝出。每天 1,000 次模型請求、Gemini 2.5 Pro/Flash 自動路由、零成本、不會過期。對於一毛錢都不想花的開發者,Gemini CLI 能處理 80% 的日常程式任務。OpenCode 以模型彈性和 LSP 整合拿下第二。Goose 以 MCP 擴充性和自動化 workflow 獲得第三。
但「免費」有很多種。有些工具是無條件免費,有些是綁訂閱的免費、限時的免費、或工具免費但 API 收錢。這篇排名把「真正免費」和「行銷話術的免費」分開,用五項真實任務測試全部七個工具,告訴你該先裝哪一個。
2026 AI CLI 工具完全指南涵蓋包含付費工具在內的完整生態系。本文只聚焦 $0 能拿到什麼。
七個免費 AI CLI 工具
2026 年有七個 AI CLI 工具提供有意義的免費使用。以下是截至 2026 年 3 月,每個工具實際免費給你的東西。
摘要:Gemini CLI 提供最慷慨的無條件免費額度。Codex CLI 暫時對 ChatGPT Free 使用者免費。四個開源工具(OpenCode、Goose、aider、Crush)是免費軟體但需要 API key 或本地模型。Copilot CLI 在免費 GitHub 方案下每月給 50 次 premium 請求。
| 工具 | 免費類型 | $0 能拿到什麼 | 模型存取 | 附帶條件 |
|---|---|---|---|---|
| Gemini CLI | 無條件免費 | 每天 1,000 次請求、每分鐘 60 次 | Gemini 2.5 Pro/Flash 混合 | 需要 Google 帳號 |
| Codex CLI | 限時促銷 | 完整 Codex 存取(ChatGPT Free/Go) | GPT-5.3-Codex,沙盒執行 | 「限時」,可能隨時結束 |
| OpenCode | 免費軟體 + API 費用 | 工具無限使用 | 75+ 供應商、Ollama 本地模型 | LLM 供應商另計 |
| Goose | 免費軟體 + API 費用 | 工具無限使用 | 25+ 供應商、本地模型 | LLM 供應商另計 |
| aider | 免費軟體 + API 費用 | 工具無限使用 | 100+ 模型、本地模型 | LLM 供應商另計 |
| Crush | 免費軟體 + API 費用 | 工具無限使用 | OpenAI、Anthropic、Google、OpenRouter 等 | LLM 供應商另計 |
| Copilot CLI | 免費增值 | 2,000 補全 + 50 次 premium 請求/月 | GPT-5 mini、GPT-4.1(含在基本方案) | 50 次 premium 請求很快就用完 |
「真正免費」vs.「免費軟體」的區別
Gemini CLI 和 Copilot CLI 的免費額度:真正免費。軟體和模型推理都不用付錢。Google 和 GitHub 吸收了算力成本。
Codex CLI:目前在 ChatGPT Free/Go 方案上是真正免費的。但 OpenAI 的公告明確寫著「for a limited time(限時)」。截至 2026 年 3 月,尚未公佈結束日期。
OpenCode、Goose、aider、Crush:免費開源軟體。工具不收錢。驅動它的 LLM 要錢 — 不是雲端 API 就是跑本地模型的電費。在 32GB RAM 的 MacBook 上跑 Llama 3.3:確實零元。透過 API 用 Claude Sonnet 4.6:每百萬輸入 token $3。
逐一拆解
1. Gemini CLI — 免費額度之王
GitHub 星數: 55,000+ | 開發者: Google | 授權: Apache 2.0
用 Google 帳號認證。立刻:每天 1,000 次模型請求。不用信用卡,不是試用期,不是促銷。這是常態的免費基準。
1,000 次請求到底代表什麼: 一個 prompt 不等於一次請求。Gemini CLI 每個 prompt 會發出多次 API 呼叫 — 讀檔案、規劃、寫程式碼、驗證。一個典型的 prompt 消耗 5-15 次請求。實際上每天大約 80-150 個 prompt。對整天中度程式工作來說,夠了。
模型品質: 自動路由把簡單 prompt 送 Flash(快、便宜),複雜 prompt 送 Gemini 2.5 Pro(慢、強)。免費額度下不是無限 Pro — 路由器決定。對大多數程式任務,混合表現不錯。對深度複雜的多檔案重構,和 Opus 4.6 或 GPT-5.3 的品質差距是真的。
核心功能: 1M+ token context window、自動模型路由、開源、MCP 支援、AGENTS.md/CLAUDE.md 相容。
限制: 太平洋時間午夜重置,不累計。下午 2 點前用光,就得等到明天 — 或切換工具。
2. Codex CLI — 免費(暫時的)
GitHub 星數: 62,000+ | 開發者: OpenAI | 授權: 開源(Rust 實作)
OpenAI 的 terminal 原生程式 agent。預設在雲端沙盒執行 — 你的程式碼跑在隔離環境。截至 2026 年 3 月,ChatGPT Free 和 Go 方案免費使用,付費訂閱者雙倍速率限制。
「限時免費」是什麼意思: OpenAI 公告這麼寫的。沒有結束日期。可能持續三個月,也可能三週。如果你的 workflow 建立在 Codex CLI 的免費存取上,準備後備方案。
模型品質: GPT-5.3-Codex 在程式碼生成和解釋上很強。雲端沙盒是差異化所在 — agent 在隔離容器中跑程式碼,不是在你的機器上。對執行不受信任的命令,比清單上每個其他工具都安全。
核心功能: OS 層級沙盒、雲端執行、語音輸入、diff 記憶體管理、三層權限(建議/自動編輯/全自動)、MCP 支援。
限制: 綁定 ChatGPT 帳號和促銷時程。結束後最少需要 ChatGPT Plus($20/月)。
3. OpenCode — 模型不可知的重砲
GitHub 星數: 112,000+ | 開發者: Anomaly Innovations | 授權: 開源
單看採用指標就是 2026 年最突出的開源 AI 程式 CLI。75+ 個 LLM 供應商,Ollama 本地模型,免費工具中最精密的 subagent 架構。
差異化: 真正的 LSP 整合。自動偵測並啟動你專案的語言伺服器,讓 LLM 能存取型別資訊、診斷和程式碼智能 — 其他工具缺乏的。YAML 基礎的 subagent 系統定義專門化 agent(@general 有完整工具存取、@explore 只讀),可自訂模型路由。
模型品質: 取決於供應商。OpenCode 搭配 Claude Sonnet 4.6 API:接近 Claude Code 水準,每百萬輸入 token $3。搭配本地 Llama:堪用但差一檔。
核心功能: 75+ 供應商、LSP 整合、subagent 架構、帶語法高亮的 TUI、多 session 並行 agent、MCP 支援。
限制: 需要 API key(花錢)或本地模型硬體。工具免費;大腦不免費 — 除非你跑本地。
4. Goose — 擴充性冠軍
GitHub 星數: 27,000+ | 開發者: Block(Linux Foundation) | 授權: Apache 2.0
Goose 不只是改程式碼。它從頭建專案、跑 shell 命令、編排多步驟 workflow、連接 3,000+ 個 MCP 伺服器。Block(Square 和 Cash App 背後的公司)創建,現在在 Linux Foundation 下治理。
差異化: 所有免費工具中最深的 MCP 整合。GitHub、Jira、Slack、Docker、Kubernetes、資料庫 — 全部透過標準化 MCP 伺服器。「Summon」擴充系統委派任務給 subagent 和載入專門 skill。v1.25+ 包含 OS 層級沙盒。
模型品質: 取決於供應商。關鍵 benchmark 數據:在第三方測試中,Goose 消耗 300k token、平均每個任務 587 秒,但程式碼正確率僅 5.2%。Goose 的強項是 workflow 編排,不是原始程式碼生成。程式碼任務請搭配強模型。
核心功能: 3,000+ MCP 伺服器、OS 層級沙盒、桌面應用 + CLI、配方管理、subagent 委派、語音輸入。
限制: 純程式碼任務的 benchmark 數字令人擔憂。在編排方面出色 — 連接工具、跑 workflow、自動化 DevOps — 而非寫精確的程式碼。
5. aider — Git 原生的配對程式設計師
GitHub 星數: 39,000+ | 開發者: Paul Gauthier | 授權: Apache 2.0
最成熟的開源 AI 程式 CLI。早於 2025-2026 年的熱潮。每個變更自動 commit 並附帶描述性訊息。你永遠知道 AI 改了什麼,隨時可以回滾。就像一個筆記從不出錯的配對程式設計師。
差異化: 建立整個 codebase 的 repository map,讓 LLM 有結構性意識。100+ 模型。每次變更後自動 lint 和測試。最乾淨的復原機制 — 每個 AI 修改都是一個 git commit。
模型品質: benchmark 綜合 52.7%,257 秒完成任務,消耗 126k token。開源工具中最佳效率比 — 每 token 精確度優於 Codex CLI 和 Goose。
核心功能: 自動 git commit、repository map、lint/test 整合、100+ 模型、圖片和網頁 context 支援、co-author 標註。
限制: 配對程式設計師,不是完全自主的 agent。擅長聚焦的檔案級別編輯。要從零搭建整個服務或編排多工具 workflow,OpenCode 和 Goose 更有優勢。
6. Crush — 最美的 Terminal Agent
GitHub 星數: 21,000+ | 開發者: Charmbracelet | 授權: 開源
Charmbracelet 傳奇級的 terminal 美學遇上 AI 寫程式。如果你用過 Bubble Tea、Lip Gloss、Glow,你知道他們的 TUI 品質。Crush 是最好看的 AI CLI 工具,沒有之一。
差異化: LSP 增強 context(和 OpenCode 一樣)、session 中途切換模型且不丟失對話、最廣的平台支援 — macOS、Linux、Windows、Android、FreeBSD、OpenBSD、NetBSD。對,在手機上跑 AI 寫程式。
模型品質: 取決於供應商。支援 OpenAI、Anthropic、Google、Groq、Vercel AI Gateway、OpenRouter、Hugging Face、自訂 API。LSP 讓它比沒有 LSP 的工具有更好的 context 感知。
核心功能: 同類最佳 TUI、LSP 整合、session 中途模型切換、MCP 可擴充、每個專案獨立的 session context、細粒度工具權限。
限制: 比較年輕的專案(截至 2026 年 3 月為 v0.48.0),生態系比 aider 和 OpenCode 小。
7. Copilot CLI — GitHub 原住民
開發者: GitHub | 授權: 專有
GitHub Copilot 的 terminal 延伸。免費 GitHub 方案每月 2,000 次程式碼補全和 50 次 premium 請求。premium 請求涵蓋聊天、agent 模式、code review 和 CLI 使用。
50 次 premium 請求代表什麼: 不多。agent 模式下一個複雜任務消耗 3-5 次。每月 50 次大約 10-15 個有意義的任務,每個工作天約一個。不過 GPT-5 mini 和 GPT-4.1 包含在基本方案中且不消耗 premium — 用這些模型的簡單任務實質上無限。
模型品質: 透過 GitHub 基礎設施存取多個模型。Pro+($39/月)解鎖 Opus 4.6 和 o3。免費額度僅限包含的模型。
核心功能: 深度 GitHub 整合(PR、issues、actions)、agent 委派、計劃模式、多模型路由。
限制: 每月 50 次 premium 請求是這份清單上最吝嗇的免費額度。最適合當補充,而非獨當一面。
比較總表
摘要:Gemini CLI 在免費額度慷慨度和 context window 方面領先。OpenCode 在模型彈性和 GitHub 採用度方面領先。aider 在每 token 效率方面領先。Goose 在 MCP 整合方面領先。Crush 在平台支援和 TUI 品質方面領先。
| 功能 | Gemini CLI | Codex CLI | OpenCode | Goose | aider | Crush | Copilot CLI |
|---|---|---|---|---|---|---|---|
| 每日免費請求 | 1,000 | 無限(促銷中) | 無限* | 無限* | 無限* | 無限* | 平均約 2 次/天 |
| 免費模型 | Gemini 2.5 Pro/Flash | GPT-5.3-Codex | 自選 | 自選 | 自選 | 自選 | GPT-5 mini |
| Context window | 1M+ token | 1M token | 依供應商 | 依供應商 | 依供應商 | 依供應商 | 依供應商 |
| 開源 | 是 | 是 | 是 | 是(Apache 2.0) | 是(Apache 2.0) | 是 | 否 |
| LSP 整合 | 否 | 否 | 是(30+ 伺服器) | 否 | 否 | 是 | 否 |
| MCP 支援 | 是 | 是 | 是 | 是(3,000+ 伺服器) | 否 | 是 | 是 |
| 沙盒 | 否 | 是(雲端 + OS) | 否 | 是(OS 層級) | 否 | 否 | 否 |
| Git 整合 | 基本 | 基本 | 基本 | 基本 | 最佳(自動 commit) | 可配置 | 深度(GitHub 原生) |
| 本地模型支援 | 否 | 否 | 是(Ollama) | 是(Ollama) | 是(Ollama) | 是(自訂 API) | 否 |
| 平台 | macOS、Linux | macOS、Linux、Windows | macOS、Linux、Windows | macOS、Linux、Windows | macOS、Linux、Windows | 全部(含 Android) | macOS、Linux、Windows |
| GitHub 星數 | 55K+ | 62K+ | 112K+ | 27K+ | 39K+ | 21K+ | N/A |
*工具無限使用,但 LLM 供應商另計或需跑本地模型。
五項任務正面對決
同一個 Next.js 15 codebase(12,000 行、TypeScript、Prisma、Tailwind)上測試全部七個工具。每個工具用其最佳可用免費模型。自帶金鑰的工具(OpenCode、Goose、aider、Crush)使用免費的本地模型(Llama 3.3 70B via Ollama),確保 $0 價位的公平比較。
任務 1:解釋複雜模組
Prompt: 「解釋認證流程 — 入口點、session 管理、token 刷新、錯誤處理。」
| 工具 | 品質(1-10) | 時間 | 備註 |
|---|---|---|---|
| Gemini CLI | 8 | 12 秒 | 準確,識別出全部四個認證入口點 |
| Codex CLI | 8 | 18 秒 | 詳盡,包含安全性觀察 |
| OpenCode(本地) | 6 | 45 秒 | 涵蓋基本面,遺漏 token 刷新邊界案例 |
| Goose(本地) | 5 | 52 秒 | 冗長,session 處理部分不準確 |
| aider(本地) | 6 | 38 秒 | 簡潔、正確但淺 |
| Crush(本地) | 6 | 42 秒 | 結構好,遺漏一個入口點 |
| Copilot CLI | 7 | 15 秒 | 紮實,整合了 repo context |
贏家: Gemini CLI。雲端模型(Gemini 2.5 Pro、GPT-5.3)在解釋任務上明顯優於本地 Llama 3.3。預料之中 — 模型品質差距是真的。
任務 2:為現有工具函式寫單元測試
Prompt: 「用 Vitest 為 src/lib/validation.ts 撰寫完整的單元測試。」
| 工具 | 品質(1-10) | 時間 | 備註 |
|---|---|---|---|
| Gemini CLI | 8 | 20 秒 | 14 個測試,全部通過,涵蓋邊界案例 |
| Codex CLI | 9 | 25 秒 | 16 個測試,邊界條件覆蓋最佳 |
| OpenCode(本地) | 7 | 60 秒 | 12 個測試,11 個通過,1 個型別錯誤 |
| Goose(本地) | 5 | 85 秒 | 8 個測試,3 個失敗,import 路徑錯誤 |
| aider(本地) | 7 | 50 秒 | 12 個測試,全部通過,自動 commit |
| Crush(本地) | 7 | 55 秒 | 13 個測試,全部通過 |
| Copilot CLI | 7 | 22 秒 | 11 個測試,全部通過 |
贏家: Codex CLI。沙盒執行讓它能在呈現結果前實際跑測試並修復失敗。Gemini CLI 緊追在後。
任務 3:修復跨兩個檔案的 Bug
Prompt: 「DatePicker.tsx 顯示 UTC 而非本地時區。格式化邏輯在 dates.ts。修復兩個檔案。」
| 工具 | 品質(1-10) | 時間 | 備註 |
|---|---|---|---|
| Gemini CLI | 8 | 18 秒 | 兩個檔案都正確修復 |
| Codex CLI | 8 | 22 秒 | 正確修復,新增時區工具函式 |
| OpenCode(本地) | 6 | 65 秒 | 修了 dates.ts 但遺漏 DatePicker.tsx 的一個呼叫點 |
| Goose(本地) | 4 | 90 秒 | 覆寫了 DatePicker.tsx 中不相關的程式碼 |
| aider(本地) | 7 | 48 秒 | 正確修復,乾淨 diff,自動 commit |
| Crush(本地) | 6 | 58 秒 | 修了核心問題但格式微偏 |
| Copilot CLI | 7 | 20 秒 | 正確修復,最小變更 |
贏家: Gemini CLI 和 Codex CLI 並列。兩者都產出乾淨、正確的跨檔修復。
任務 4:重構一個模組(5 個檔案)
Prompt: 「把通知系統從 callback 架構重構為事件驅動。五個檔案:notifications.ts、email.ts、slack.ts、webhook.ts、notify/route.ts。」
| 工具 | 品質(1-10) | 時間 | 備註 |
|---|---|---|---|
| Gemini CLI | 7 | 45 秒 | 架構正確,遺漏 webhook.ts 的一個 callback |
| Codex CLI | 8 | 55 秒 | 乾淨的重構,五個檔案一致 |
| OpenCode(本地) | 5 | 120 秒 | 部分重構,事件命名不一致 |
| Goose(本地) | 3 | 150 秒 | 嚴重錯誤,搞壞了 API route |
| aider(本地) | 6 | 90 秒 | 三個檔案正確,兩個需要手動修復 |
| Crush(本地) | 5 | 110 秒 | 結構不錯但兩個檔案有型別錯誤 |
| Copilot CLI | 6 | 50 秒 | 合理的嘗試,有些不一致 |
贏家: Codex CLI。多檔案一致性需要強大的架構推理 — 雲端模型在這方面決定性地勝過本地模型。
任務 5:新增功能(設定 + 實作 + 測試)
Prompt: 「為所有 API route 加上頻率限制。滑動視窗,每個 IP 每分鐘 60 次。src/config/ 加設定,src/middleware/ 加實作,加測試。」
| 工具 | 品質(1-10) | 時間 | 備註 |
|---|---|---|---|
| Gemini CLI | 7 | 55 秒 | 可運作的實作,基本測試 |
| Codex CLI | 8 | 70 秒 | 完整方案,在沙盒中跑了測試 |
| OpenCode(本地) | 5 | 140 秒 | 部分實作,測試不完整 |
| Goose(本地) | 4 | 180 秒 | 建了檔案但 middleware 整合壞了 |
| aider(本地) | 6 | 100 秒 | 核心可運作,測試通過但覆蓋率有限 |
| Crush(本地) | 5 | 125 秒 | 實作可用,config 結構不標準 |
| Copilot CLI | 6 | 60 秒 | 可運作但任務途中撞到 premium 請求限制 |
贏家: Codex CLI。開發過程中能在沙盒環境跑測試,是新功能實作的真正優勢。
測試結果總結
摘要:雲端工具(Gemini CLI、Codex CLI、Copilot CLI)在精確度上持續勝過本地模型工具。雲端工具中,Codex CLI 在複雜多檔案任務上略勝 Gemini CLI。本地模型工具中,aider 提供最佳的精確度/token 比。
| 工具 | 總分(50) | 平均品質 | 最佳任務 | 最弱任務 |
|---|---|---|---|---|
| Codex CLI | 41 | 8.2 | 測試撰寫(9) | — |
| Gemini CLI | 38 | 7.6 | 解釋(8) | 重構(7) |
| Copilot CLI | 33 | 6.6 | 解釋(7) | 新功能(6) |
| aider(本地) | 32 | 6.4 | Bug 修復(7) | 重構(6) |
| OpenCode(本地) | 29 | 5.8 | 測試撰寫(7) | 新功能(5) |
| Crush(本地) | 29 | 5.8 | 測試撰寫(7) | 重構(5) |
| Goose(本地) | 21 | 4.2 | 解釋(5) | 重構(3) |
重要提醒: 這個比較對自帶金鑰的工具天生不公平。用 Claude Sonnet 4.6 API 跑 OpenCode、aider 或 Crush 會大幅提升分數 — 但那就不是免費的了。測試衡量的是真正 $0 價位你能得到什麼。
最終排名
第一梯隊:優先安裝
1. Gemini CLI — 預設推薦。每天 1,000 次請求搭配雲端模型。沒有附加條件,不會到期。只裝一個工具,就裝這個。
2. Codex CLI — 促銷期間,能力最強的免費工具。雲端沙盒、強勁模型、完整 agent 能力。風險:免費存取可能隨時結束。用它,但別依賴它。
第二梯隊:加入你的工具箱
3. OpenCode — 模型彈性的最佳開源替代。真正的 LSP 整合。112K+ 星數和活躍社群代表長期可行性。有 API key 或本地硬體的話,接近商業工具品質。
4. aider — 重視 git 衛生的最安全選擇。每個 AI 變更都是 commit。開源工具中最佳效率比。想要精確的手術式編輯而非自主 agent 時,用 aider。
第三梯隊:特定使用情境
5. Goose — 不拿來做程式碼生成精確度。拿來做 workflow 編排和工具整合。3,000+ MCP 伺服器、深度擴充性、Linux Foundation 治理。如果你的工作涉及在 GitHub、Jira、Slack 和資料庫之間協調,Goose 是連接它們的免費工具。
6. Crush — 在意 TUI 品質或需要在特殊平台跑(Android、FreeBSD)就選 Crush。LSP 跟 OpenCode 一樣。Charmbracelet 生態系代表精緻的 terminal 互動。比較年輕,但發展快速。
7. Copilot CLI — 每月 50 次 premium 請求不夠當主力。但深度 GitHub 整合(PR、issues、actions)作為補充有其價值。
零元組合:實際該裝什麼
以 $0/月得到最佳 AI CLI 體驗:
- Gemini CLI — 主力。80% 任務。探索、code review、寫測試、修 bug、產文件。
- Codex CLI — 副手。需要沙盒執行的任務(促銷期間)。
- aider + Ollama — 離線備用。本地模型處理隱私敏感工作,或 Gemini CLI 每日額度用完時頂上。
一整天免費的雲端品質 AI 程式碼(Gemini CLI)。目前最強的免費 agent 處理複雜任務(Codex CLI,暫時的)。隨時可用的本地後備(aider + Ollama)。
Codex CLI 促銷結束後,換成 OpenCode + API key 作為升級路徑。AI CLI 省錢 workflow 指南涵蓋如何隨需求增長逐步加入付費工具。
免費什麼時候不夠用
免費工具有真正的限制。Gemini 2.5 Pro 和 Claude Opus 4.6 之間的模型品質差距,在複雜多檔案重構、架構推理和安全敏感程式碼上是重要的。本地模型對簡單任務可以,但對 production 程式碼的精確度力有未逮。
你已經超出免費工具範圍的訊號:
- 你花更多時間修正 AI 輸出而非自己寫程式
- 多檔案重構需要 3 次以上迭代才對
- 一週內有超過兩天在下午 3 點前就撞到 Gemini CLI 每日額度上限
- 你正在處理安全關鍵程式碼,精確度的價值超過省下的費用
碰到這些訊號,雙工具策略 — 在 Gemini CLI 免費額度之上加入 $20/月的 Claude Code Pro — 是最具成本效益的下一步。常規工作繼續用免費工具。只在值得訂閱的任務上用 Claude Code。
安裝指南:10 分鐘從零到三個工具
Gemini CLI(2 分鐘)
npm install -g @google/gemini-cli
gemini
出現提示時用 Google 帳號認證。在任何專案目錄中執行 gemini。
Codex CLI(3 分鐘)
npm install -g @openai/codex
codex
用 ChatGPT 帳號登入。Free/Go 方案目前有完整存取。
aider + Ollama(5 分鐘)
# 安裝 Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 拉一個能力不錯的本地模型
ollama pull llama3.3:70b
# 安裝 aider
pip install aider-chat
# 用本地模型跑 aider
aider --model ollama/llama3.3:70b
三個工具,三個 terminal session。並排執行 — Gemini CLI 探索、Codex CLI 實作、aider 本地後備 — 最大化覆蓋範圍。管理三個同時運行的 agent,正是像 Termdock 這樣的多 terminal workspace 展現價值的地方:拖曳調整每個面板大小,同時看三個工具運作,在它們之間切換不丟失 context。
Ready to streamline your terminal workflow?
Multi-terminal drag-and-drop layout, workspace Git sync, built-in AI integration, AST code analysis — all in one app.