~ / blog / series / OpenClaw
❯ ls ~/blog/series/openclaw
11 篇文章
- #日期標題
- 12026-03-05[AI Agent] 零 API 成本:用 DGX Spark + Mac Mini 跑 OpenClaw
完整的本地 AI Agent 架構:Mac Mini M4 當長駐 gateway,GX10 跑推理,Telegram 當介面。不需要訂閱,不需要雲端 API。六個部署心得。
- 22026-03-06[vLLM] SSM 模型不能加 --enable-chunked-prefill
把 --enable-chunked-prefill 加到 Qwen3.5-35B(SSM+MoE hybrid)上,吞吐量從 47 tok/s 掉到 5.7 tok/s。解釋為什麼 SSM 遞迴架構和 chunked prefill 根本不相容。
- 32026-03-07[vLLM] Ollama 的 KEEP_ALIVE 在偷吃你的 vLLM 記憶體空間
128GB 統一記憶體的機器 vLLM 重啟時 OOM。原因:Ollama KEEP_ALIVE=2h 把 19-51GB 壓在 GPU 上。診斷指令、手動 unload 方式、以及為什麼要把 KEEP_ALIVE 改成 0。
- 42026-03-01[Benchmark] 純 MoE vs SSM Hybrid:Context Decay 與為什麼 Agent 要在乎
GLM-4.7-Flash 短 context 57.8 tok/s,但 8K 時掉到 42 tok/s。Qwen3.5-35B SSM hybrid:短 56 tok/s,8K 仍 56 tok/s。為什麼有長 system prompt 的 agent 應該在乎這個差距。
- 52026-03-16[AI Agent] Codex-Executor 模式:讓 Agent Session 保持輕量
為什麼我們停止讓 OpenClaw agent 直接編排多步驟任務,改成派生 Codex subprocess。這個模式讓 agent context 保持輕量、任務執行更可靠。
- 62026-02-25[AI Agent] OpenClaw Config 熱重載:不需要重啟
花了好幾週每次改設定都重啟 gateway。後來才發現有 file watcher。哪些東西可以立即熱重載、哪些還是要重啟、還有怎麼區分 auth 失敗和短暫網路錯誤。
- 72026-03-18[AI Agent] openclaw:Agent 卡住的時候,叫 CLI 來幫
怎麼在本地 agent loop 裡掛上 callhelp tool,讓它在推理途中 spawn Codex CLI。一個必設的 permission flag,還有為什麼 Claude quota 是我自己的。
- 82026-03-19[AI Agent] openclaw:Bot 突然消失了 — Tailscale、IPv6、和一個 Node.js 的安靜陷阱
Bot process 跑著、token 有效、訊息有收到。但沒有任何回應。四個錯誤假設、一張路由表,還有一個大多數人不知道的 Node.js 行為。
- 92026-03-21[AI Agent] openclaw 接上 131K Context:max_tokens 變負數的那一刻
openclaw 串接 gpt-oss-120B,第一條訊息就收到 400 max_tokens must be at least 1, got -1292。Context budget 的數學、config key 的坑、以及修法。
- 102026-03-21[AI Agent] openclaw 用 Telegram Bot API 9.5 sendMessageDraft 做即時串流
把 editMessageText 輪詢換成 sendMessageDraft,實現真正的動態串流輸出。patch 方式、thinking block 過濾、以及私訊裡的 optional chaining 坑。
- 112026-03-24[AI Agent] openclaw + ChatGPT OAuth:不買 API 額度也能用 GPT-5.4
openclaw 2026.3.13 加入了 OpenAI OAuth 登入。一行指令讓你的 agent 用 ChatGPT Plus 訂閱取得 GPT-5.4 的 100 萬 token context,不需要另外買 API credits。