
Claude 降智風波的真相
過去一個多月,社群一直有聲音說 Claude Code「變笨了」。我自己也感覺得到:對話中段開始失憶、重複問同樣的問題,usage limit 也掉得比以前快。 4/23 Anthropic 發出 postmortem,承認確實有問題,而且不是單一事件,是三個獨立 bug 在 3 月到 4 月中疊加發生。 結論:核心 API 與模型推論層沒事,問題全部發生在 Claude Code 這個 harness 層。這件事對所有在做 AI 產品的人都有參考價值,因為它展示了一個殘酷的事實:模型本身沒退步,但使用者體感有可能因為不容易注意到的 bug 而退步。 三個 bug,三種失效模式 Bug 1:模型推理預設 effort 從 high 降到 medium(3/4 – 4/7) 3/4 那天團隊為了解決「UI 看起來卡住」的抱怨,把 Claude Code 的預設 reasoning effort 從 high 降到 medium,換取更低的 latency。影響 Sonnet 4.6 + Opus 4.6。 使用者的反應是:「感覺變笨了。」 後來客戶回饋很明確:寧願預設聰明




