星期四
04 / 03
Anthropic回应Claude Code限额危机:建议不使用Opus并关闭100万上下文,未提及补偿
星期四 2026-04-03 08:48

据 1M AI News 监测,Anthropic Claude Code 团队成员 Lydia Hallie 发布了对近两周限额争议的调查结果。结论是:高峰时段限额确实已收紧,100 万 token 上下文会话的消耗增大,「这就是你们感受到的大部分原因」。她称团队修复了一些 bug,但强调「没有任何一个 bug 导致了多收费」。

随后她给出了省量建议:

1. Pro 用户默认用 Sonnet 4.6 而非 Opus,因为 Opus 消耗速度约为两倍
2. 不需要深度推理时降低推理强度或关闭 extended thinking
3. 闲置超过一小时的长会话不要恢复,重新开一个
4. 设置环境变量 CLAUDE_CODE_AUTO_COMPACT_WINDOW=200000 限制上下文窗口大小

没有提及任何形式的限额重置或补偿。

AI 播客主持人 Alex Volkov 将这份回应概括为「你拿的方式不对」(You're holding it wrong),指出 Anthropic 自己把 100 万上下文设为默认、把 Opus 作为旗舰模型推广,现在却建议付费用户不要使用这些功能。他还注意到,与 OpenAI Codex 此前出现类似问题后为用户重置配额不同,Anthropic 没有做任何追溯补偿。

「没有多收费」的说法也与 Claude Code 自己的更新记录存在张力。就在前一天发布的 v2.1.90 版本修复了一个自 v2.1.69 起存在的缓存回归 bug:使用 --resume 恢复会话时,本应命中缓存的请求会触发完整的 prompt cache miss,按全价计费。这个 bug 横跨约 20 个版本才被发现和修复。Lydia 的回应中没有提及这个已确认的计费异常。

自 3 月 23 日起,大量 Pro 和 Max 订阅用户反映限额异常快速耗尽。GitHub issue #41930 汇集了数百条报告,有用户称 Max 5x 计划的额度在 1 小时内用完,有用户称一条简单的单句回复就将使用率从 59% 拉到 100%。Anthropic 3 月 30 日曾在 Reddit 上承认「用户触达限额的速度远超预期」,并称已列为团队最高优先级。

这份回应的核心问题不在于技术细节是否准确,而在于它把责任几乎全部推给了用户的使用方式。Anthropic 卖的是「最强模型 + 最大上下文 + 最高推理能力」的 Pro/Max 订阅,收的是每月 20 到 200 美元的费用,现在告诉用户省着点用。