1M контекста в Claude - разбираю на практике

Sergey Golubev 2026-03-14 3 мин чтения
🌐 Read in English

Anthropic выкатил 1M контекста для Opus 4.6 и Sonnet 4.6. По дефолту, без наценки за длинный контекст. В Claude Code на Max, Team и Enterprise - уже работает.

Почему 200K было мало

С 200K реально доступно ~167K токенов (по оценке claudefa.st). Хватало на маленький проект без плясок с бубном. Один сервис, пара файлов.

Проблема - длинные сессии. Compaction срабатывает при ~83.5% заполнения окна (по данным claudefa.st). На активной работе это каждые 20-30 минут. Детали исчезали. Объясняешь контекст заново.

Типичная ситуация: Claude Code тратит 100K+ токенов только на поиск по Datadog, Braintrust, базам данных. Потом включается compaction. Детали исчезают. Дебажишь по кругу.

Что реально поменялось

Монорепо целиком. По оценке claudefa.st, из 1M доступно ~830K рабочих токенов. Весь код + документация + тесты одновременно.

Длинные сессии без потерь. По данным claudefa.st, на 15% меньше событий compaction. Compaction привязана к токенам, не ко времени - можно оставить сессию на ночь, утром агент помнит всё.

Ревью больших PR. Adhyyan Sekhsaria из Cognition описал проблему: “Большие диффы не влезали в 200K… агент дробил контекст, терял кросс-файловые зависимости.” С 1M - один проход. Видишь как изменение в одном файле ломает интерфейс в другом.

Документы. 600 страниц PDF вместо 100. Пять версий 100-страничного соглашения в одной сессии.

Нюансы

MRCR v2 (тест на извлечение из длинного контекста) - 78.3%. Лучший среди frontier-моделей, но не 100%. Пока не уверен, насколько это критично в ежедневной работе - буду тестировать.

Ценообразование: Opus $5/$25 за миллион токенов. Sonnet $3/$15. Без наценки за long context. Выбрал Opus для сложных задач, Sonnet для рутины - разница в цене x1.7, но Opus реже ошибается на длинном контексте. Izzy Miller, AI Engineer в Hex, заметил парадокс: “Подняли окно с 200K до 500K - агент стал эффективнее и тратит меньше токенов в целом.”

Ограничение: в чатах claude.ai миллион пока недоступен. Только API и Claude Code. Cursor тоже ещё не обновился.

1M был доступен в бете - тестил, на моих задачах работал хорошо. Но была наценка за длинный контекст и beta-header. GA убрал оба костыля - теперь это просто дефолт.

Что понял

Главное: не надо так сильно экономить контекст и думать, какие файлы включить. Можно спокойно накидывать больше. Но это не значит, что нужно выжирать весь миллион - контекст всё равно стоит держать контролируемым.

Источники

  1. 1M Context GA - Anthropic Blog
  2. ClaudeFast Guide: 1M Context
  3. InfoQ: Opus 4.6 Context Compaction
  4. Reddit Discussion
  5. Siskar Analysis: 1 Trillion Token Context