16 апреля 2026 года Anthropic официально выпустил свою флагманскую модель Claude Opus 4.7. Идентификатор модели — claude-opus-4-7, цены на вход и выход остались прежними: $5 / $25 за 1M токенов, как и у 4.6. Но внутри — поддержка изображений высокого разрешения, новый уровень усилий xhigh, task budgets (бета), новый токенизатор и ряд других изменений, которые заметно переосмысляют саму модель как флагман.

Одновременно отменены extended thinking API, параметры сэмплирования temperature/top_p/top_k, prefill — это breaking changes, и существующий код без правки работать не будет.

В этой статье разбираем, что именно новое в 4.7, что изменилось по сравнению с 4.6, и когда модель стоит использовать — с инженерной точки зрения.

Релиз Claude Opus 4.7 — обзор новых возможностей

1. Обзор релиза — когда, что, цены, где доступно

ПараметрЗначение
Дата релиза16 апреля 2026
ID моделиclaude-opus-4-7
Цена (вход)$5 за 1M токенов (как у 4.6)
Цена (выход)$25 за 1M токенов (как у 4.6)
Контекстное окно1 000 000 токенов (базовая цена API, без доплаты за длинный контекст)
Максимум вывода128 000 токенов
Где доступноclaude.ai, Anthropic API, AWS Bedrock, Google Vertex AI, Microsoft Foundry

Особое внимание привлекает то, что «контекст 1M стал доступен по базовой цене, без доплат». Раньше за длинный контекст (свыше 200K и т. п.) часто приходилось платить отдельно, а в 4.7 даже 1M токенов считается по обычному тарифу.

Пользователи платных планов claude.ai видят Opus 4.7 сразу в веб- и мобильных приложениях, а через API достаточно переключить идентификатор модели. Одновременно модель доступна в AWS Bedrock, Google Vertex AI и Microsoft Foundry — в мультиоблачных корпоративных сетапах она работает без дополнительной интеграции.

2. Краткий список нововведений

Основные новые и изменённые возможности Opus 4.7.

Новые функции Opus 4.7 — HD-картинки, xhigh, task budgets, новый токенизатор
  • Поддержка HD-картинок (впервые в Claude) — до 2576px / 3,75 мегапикселей (около ×3 от прежних 1568px / 1,15 МП)
  • Улучшенное низкоуровневое восприятие — точнее указывает, измеряет, считает, определяет bounding box'ы
  • Новый уровень усилий xhigh — промежуточный между high и max; оптимален для кода и агентов
  • Task budgets (бета) — возможность заранее оценить совокупные токены на весь цикл агента
  • Новый токенизатор — для того же текста требует в 1,0–1,35 раза больше токенов (до +35%)
  • Adaptive thinking — выключено по умолчанию (нужен явный opt-in)
  • Улучшенная файловая «память» — scratchpad и заметки лучше работают между сессиями
  • Улучшения по работе с документами (.docx / .pptx) — редактирование с track changes, макеты слайдов, разбор графиков и схем
  • Связка с Claude Code — новая slash-команда /ultrareview, в плане Max дефолтный effort повышен до xhigh, Auto mode распространён на Max-пользователей
  • Realtime-защита по кибербезопасности — новые правила отказа для высокорисковых тем
  • Изменения поведения — точнее следует инструкциям, более прямой тон, реже вызывает инструменты

Особенно большую практическую ценность несут HD-картинки и xhigh — в анализе документов, Computer Use и агентах программирования. Разберём их по очереди.

3. HD-картинки — впервые в Claude

Opus 4.7 — первая модель из серии Claude, которая напрямую работает с HD-изображениями.

Что изменилось по разрешению

ПараметрДо Opus 4.6Opus 4.7
Макс. разрешение (длинная сторона)1568px2576px
Макс. мегапиксели1,15 МП3,75 МП
Токенов на 1 изображение в полном разрешении≈1 600≈4 784 (около ×3)
Шкала координатпиксели уменьшенного изображения1:1 с реальными пикселями (конверсия не нужна)

Что это даёт

  • Анализ документов — на сканах A4 теперь хорошо читается мелкий текст, линии таблиц, подписи осей графиков
  • Computer Use — скриншоты уровня Full HD и выше понимаются «как есть»
  • UI-скриншоты — 4K-экраны и HiDPI-захваты анализируются без даунсемпла
  • Координаты 1:1 — при возврате моделью координат кликов больше не нужна логика пересчёта масштаба

Минус — одно изображение в полном разрешении тратит около 4 784 токенов. Если агент гоняет много скриншотов, расход токенов на картинки быстро растёт — и это бьёт по бюджету. Когда хватает меньшего разрешения, стоит заранее уменьшать изображение.

4. Уровни усилий — добавлен xhigh

В параметре «effort level», регулирующем глубину extended thinking, появилось новое значение — xhigh.

Уровни усилий — low / medium / high / xhigh / max

Пять уровней

УровеньХарактеристикаКогда подходит
lowминимум мышления, ставка на скоростькороткие вопросы, классификация, простые резюме, чат-ответы
mediumсредний уровень рассужденийобычные QA, извлечение данных, лёгкая генерация
highглубокие рассужденияархитектурные решения, сложный анализ, длинные тексты
xhigh (новое)между high и max; оптимизировано под код и агентовреализация кода, мульти-шаговые агенты, рефакторинг
maxмаксимальная глубинасамые сложные задачи рассуждения, research-уровень

До 4.6 существовал разрыв: «high уже мало, но max — перебор», особенно в задачах кода и агентов. Уровень xhigh как раз закрывает эту дыру, и Anthropic рекомендует его именно для кода и агентов.

Как выбирать уровень

В 4.7 калибровка усилий стала строже: особенно low и medium «жёстко держат рамки». Если раньше у вас medium справлялся, а теперь ощущается, что «модель слишком урезает», стоит попробовать high или xhigh.

5. Task budgets (бета)

В Opus 4.7 появилась новая бета-функция — Task Budgets. С её помощью можно заранее указать ориентировочный лимит токенов, который потратит весь цикл агента.

Спецификация

  • Beta header: task-budgets-2026-03-13
  • Минимальное значение: 20 000 токенов
  • Область учёта: весь цикл агента — мышление + вызовы инструментов + вывод
  • Характер: advisory-лимит (ориентир), а не жёсткий — при превышении насильно не обрывает

Зачем

Обычный max_tokens ограничивает только длину одного ответа. В реальных агентах же чередуются мышление, вызовы инструментов и многошаговые ответы — и сложно предсказать «сколько же токенов потратит задача целиком».

Если задать task budget, модель опирается на этот бюджет при планировании и подбирает подходящую глубину и скорость работы. По факту это способ по затратам сказать «не копай слишком глубоко, закругляйся быстрее» или наоборот «подумай подольше».

Но т. к. это advisory-ограничение, если нужно гарантированно остановить при превышении, придётся реализовать свой счётчик на стороне приложения.

6. Эффекты нового токенизатора

В Opus 4.7 внедрён новый токенизатор, и на том же тексте он тратит в 1,0–1,35 раза больше токенов, чем прежние модели; в зависимости от содержимого — до +35%.

Влияние на стоимость и контекст

  • Тот же промпт может стоить дороже — цена за токен прежняя, но токенов больше
  • В 1M контекста помещается фактически меньше информации — 1M токенов — это по-прежнему 1M, но тот же документ съедает больше
  • Нужно пересмотреть оценки и оповещения — если лимиты и бюджеты рассчитывались под старую токенизацию, их нужно пересчитать

Что делать на практике

При переключении существующего приложения Claude на 4.7 пересмотрите следующее.

  1. Прогноз месячных расходов — закладывайте прирост до +35% при том же трафике
  2. Загрузка контекстного окна — если логи показывают, что вы «еле вмещались в 1M», будьте внимательны
  3. Лимиты и TPM — пересчитайте запас до потолка организации
  4. Стратегия кэширования — hit rate prompt-кэша может измениться

Подробный план перехода с 4.6 на 4.7 — в отдельной статье-руководстве по миграции.

7. Изменения поведения — что стало по-другому по сравнению с 4.6

В Opus 4.7 дело не только в новых функциях — сам стиль ответов отличается от 4.6.

Основные изменения

  • Точнее следует инструкциям — особенно на низком и среднем effort делает ровно то, что просят, без лишнего
  • Более прямой тон — реже validation phrases («отличный вопрос!»), меньше избыточной вежливости и эмодзи
  • Длина ответа адаптируется под задачу — простое — коротко, сложное — длинно; «универсальная развёрнутость» ушла
  • По умолчанию меньше tool calls — если можно решить рассуждением, модель не дёргает инструменты зря
  • Реже запускает саб-агентов — сначала думает сама, а не разворачивает параллельную работу
  • Строже калибровка усилий — low / medium держат scope и не домысливают

Влияние на старые промпты

Промпты, построенные в расчёте на «4.6 щедро добавит контекст» или «агент проверит всё, вызвав тучу инструментов», в 4.7 могут повести себя иначе.

  • если нужны пояснения — явно пишите: «объясни причины и альтернативы»
  • если нужно больше tool calls — явно указывайте: «обязательно проверь факты через WebSearch»
  • если нужен длинный ответ — явно задайте: «минимум 500 символов»

В целом модель эволюционирует в сторону «не делает лишнего», и в итоге поведение стало более предсказуемым: пишете явные инструкции — получаете именно то, что просите.

Кибербезопасность и safeguards

В Opus 4.7 появилась realtime-защита по кибербезопасности, и даже при законных задачах — пентест, исследование уязвимостей, red teaming — возможны отказы в зависимости от контекста. Для прод-использования в security рассмотрите подачу заявки в Cyber Verification Program от Anthropic.

Из того, что Anthropic официально относит к улучшениям безопасности:

  • Больше честности (honesty) — чаще говорит «не знаю», реже даёт уверенные заявления без оснований
  • Устойчивость к prompt injection — лучше защищается от инструкций, вброшенных третьей стороной
  • Mythos Preview — лучший alignment на данный момент — у Opus 4.7 шире возможности, но точность alignment у Mythos Preview всё равно выше

Из обратных эффектов официально отмечено: советы о снижении вреда при controlled substances стали слегка многословнее. В фарме и медицине держите наготове фильтр на выходе.

8. Breaking changes

Opus 4.7 несколько раз ломает обратную совместимость с 4.6. Если код писался под 4.6, «просто так» он может валиться с ошибкой 400.

Удалённые параметры и функции

ФункцияКак было до 4.6Как в 4.7
Extended thinkingвключали thinking: {type: "enabled", budget_tokens: N}та же полезная нагрузка — ошибка 400. Переход на adaptive
Adaptive thinkingпо умолчанию включенопо умолчанию выключено. Включать явно: thinking: {type: "adaptive"}
Отображение мыслейпо умолчанию возвращалисьпо умолчанию omitted. Чтобы видеть — display: "summarized"
temperatureнастраивалось 0.0–1.0любое значение ≠ по умолчанию — ошибка 400
top_p / top_kможно было управлять сэмплированиемлюбое ≠ по умолчанию — ошибка 400
Assistant prefillв конец messages подкидывали assistant-сообщение, чтобы продолжить с негоошибка 400 (унаследовано из 4.6)

Что именно надо исправить

  1. Код с extended thinking: в thinking.type поставьте "adaptive" и при необходимости добавьте display
  2. Код с настройкой temperature и аналогов: уберите эти параметры; если нужна детерминированность — задавайте её промптом
  3. Код с assistant prefill: встройте префикс в сообщение пользователя или управляйте форматом через инструкции вывода
  4. UI, показывающий мысли: без display: "summarized" содержимое мышления не придёт

Подробный план — в руководстве по миграции.

9. Бенчмарки

На момент релиза детальные цифры опубликованы лишь частично, но Anthropic заявляет о существенных улучшениях в кодинге, агентах и vision-задачах.

Официальные цифры

Ключевые результаты, которые Anthropic показал в анонсе.

БенчмаркOpus 4.6Opus 4.7Область
CursorBench58%70%кодинг
CursorBench (визуальная точность)54,5%98,5%понимание UI-скринов
Rakuten-SWE-Benchбазовый уровень×3 задач решенореальные изменения в проде
CyberGym73,8— (данные не публичны)безопасность
Finance Agentstate-of-the-artфинансовый агент
GDPval-AAtop-tierвысокоценные knowledge-задачи

Отзывы третьих сторон

  • 93 кодинг-задачи: прирост около +13% к Opus 4.6
  • OfficeQA Pro (рассуждения по документам): ошибок стало меньше примерно на 21%
  • Factory Droids (боевые задачи): доля успеха выросла на 10–15%

Важное замечание по замерам

Выше — результаты от Anthropic и партнёров. Но самая надёжная оценка — замер на ваших реальных рабочих нагрузках. Новый токенизатор меняет число токенов, и стоимость с задержкой важно протестировать заранее.

Практические принципы замера:

  1. одни и те же входы — в 4.6 и 4.7, сравниваем качество, время и токены
  2. для кодинга — «запустилось с первого раза?», «проходят ли тесты?»
  3. для агентов — «доля выполненных задач» и «число tool calls» (4.7 вызывает меньше, поэтому если доля успеха выросла — это чистое улучшение)
  4. для vision — реальные сценарии с HD-картинками (UI-скрины, скан документа)

Позиционирование относительно Mythos Preview

В анонсе Anthropic отдельно сказал, что неопубликованная модель Mythos Preview сейчас лидирует по alignment и имеет самый низкий процент сбоев. Opus 4.7 шире по возможностям, но по cyber-способностям — не на уровне Mythos Preview (стратегия: сначала проверяем cyber-safety на более мощных моделях, потом постепенно раскатываем). Текущий флагман для обычных пользователей — Opus 4.7.

10. Сравнение с Opus 4.6 / 4.5 / 4.1

ПараметрOpus 4.1Opus 4.5Opus 4.6Opus 4.7
Цена (вход)$15$5$5$5
Цена (выход)$75$25$25$25
Макс. контекст200K200K1M1M
Макс. вывод32K64K128K128K
Макс. разрешение картинки1568px1568px1568px2576px
Уровни усилийlow/medium/highlow/medium/high/maxlow/medium/high/maxlow/medium/high/xhigh/max
Extended thinkingестьестьadaptive thinkingadaptive thinking (по умолч. OFF)
Task budgetsнетнетнетесть (бета)
temperature и аналогидоступнодоступнодоступноудалено
Prefillдоступендоступенудалёнудалён
Токенизаторстарыйстарыйстарыйновый (x1.0–1.35)

Цифры — по официальным данным на 16 апреля 2026 года. Главная идея перехода 4.6 → 4.7: новые функции при сохранённой цене.

11. Когда использовать

Opus 4.7 — флагман, но использовать его везде подряд не обязательно.

Когда Opus 4.7 оптимален

  • Сложный код — большие рефакторинги, архитектурные решения, многофайловые изменения
  • Длинные циклы агента — многошаговая автоматизация, хорошо сочетается с task budgets
  • Vision с HD-картинками — Computer Use, разбор UI-скриншотов, OCR по документам
  • Работа с контекстом 1M — анализ крупных кодовых баз, длинных документов
  • Самые сложные рассуждения — математика, research-задачи, стратегия

Где стоит подумать про Sonnet

  • типовые QA-ответы, классификация, извлечение данных
  • большой батч, где важна цена и «достаточно умно»
  • realtime-UX, где нужны минимальные задержки

Где стоит подумать про Haiku

  • минимальная стоимость на больших объёмах: простая классификация, перевод, фильтры
  • IoT / edge — там, где главное скорость ответа

На практике экономически разумная схема: пользовательские задачи (генерация кода, сложные рассуждения, ядро агента) — на Opus 4.7, фоновые объёмные операции (классификация логов, извлечение данных, первый фильтр) — на Sonnet или Haiku.

12. Новшества в Claude Code — /ultrareview

Claude Code (официальный CLI Anthropic) обновился вместе с Opus 4.7, и в нём появилась новая slash-команда — /ultrareview.

Что умеет /ultrareview

  • ревью изменённого кода с глубиной на уровне xhigh
  • идёт дальше обычного code review — переиспользуемость, обработка ошибок, подводные камни concurrency, security-риски
  • указывает не только на ошибки реализации, но и на «нежелательные архитектурные решения»

Если обычный /review — это «ревью PR», то /ultrareview — это полноценное design-ревью от senior-инженера. Подходит перед крупными фичами и перед финальной проверкой релиза.

При этом /ultrareview работает на xhigh-мышлении и тратит больше времени и токенов, чем обычное ревью. Совет: повседневные лёгкие проверки PR — /review, ключевые точки — /ultrareview.

Повышенный дефолтный effort в плане Max

Пользователи плана Max при работе с Opus 4.7 получают дефолтный effort, поднятый до xhigh. Повседневные задачи, которые раньше шли в high, теперь автоматически идут с более глубокими рассуждениями. В рамках токен-лимита получаются более качественные результаты, но расход выше — включите мониторинг.

Auto mode теперь и для Max

Раньше Auto mode был доступен только части планов, теперь он есть и у пользователей Claude Code Max. Он автоматически переключает Opus / Sonnet / Haiku в зависимости от задачи — баланс стоимости и скорости.

FAQ

Q. Можно просто сменить модель с 4.6 на 4.7, и всё заработает?

Во многих приложениях достаточно сменить ID модели, но исправления нужны, если вы: (1) используете thinking: {type: "enabled"}; (2) задаёте temperature/top_p/top_k не по умолчанию; (3) используете assistant prefill; (4) показываете мысли в UI. Это приведёт к ошибке 400 или изменению поведения. Подробности — в руководстве по миграции.

Q. Правда, что с новым токенизатором расходы растут?

Тот же текст тратит в 1,0–1,35 раза больше токенов, в худшем случае это примерно +35% стоимости. Но 4.7 меньше вызывает инструменты и в целом короче отвечает — итоговая разница по приложениям бывает разной. Если трафик высокий, стоит несколько недель поработать параллельно на 4.6 и 4.7, замерить месячные расходы и только потом переключать прод.

Q. Чем xhigh отличается от max в плане выбора?

Anthropic позиционирует xhigh как оптимальный для кода и агентов. max — для «самых сложных рассуждений». Реализация кода, рефакторинги, добавление тестов, многошаговое планирование агента — sweet spot на xhigh. Сложная математика, research-анализ, стратегия — max. Если сомневаетесь — начните с xhigh, не хватит — поднимите до max.

Q. Почему task budgets — не жёсткий лимит?

В цикле агента из-за инструментов расход токенов скачет непредсказуемо. Если сделать жёсткий лимит, будут частые обрывы прямо у цели. Поэтому Anthropic оставил advisory-лимит: модель учитывает бюджет при планировании, но при необходимости немного перерасходует. Если обязательно нужно гарантированное прекращение — поставьте свой счётчик на стороне приложения.

Q. HD-картинки включаются автоматически?

Да. При использовании ID модели 4.7 картинки обрабатываются с разрешением до 2576px без дополнительного opt-in. Но помните: одно изображение в полном разрешении — около 4 784 токенов. Агенты, которые гоняют много скриншотов, могут сильно выйти за бюджет — уменьшайте картинки заранее, если HD не нужен.

Q. Если temperature недоступна, как добиться детерминированности?

В 4.7 любые значения temperature/top_p/top_k, отличные от дефолтных, — ошибка 400. Если нужна стабильность, жёстко фиксируйте формат ответа в промпте («верни JSON, строго соответствующий такой-то схеме»). Для ещё большей стабильности используйте structured outputs через response_format.

Q. Почему мысли не видны по умолчанию?

В 4.7 содержимое мышления по умолчанию omitted (опускается). Чтобы увидеть, укажите display: "summarized". Идея: «мышление — это внутренний процесс, основной результат для пользователя — финальный ответ». Если нужен debug или UI типа «модель думает...», — явно задавайте summarized.

Q. Чем /ultrareview отличается от /review?

/review — это обычный PR-обзор: качество кода, баги, стиль. /ultrareview идёт на глубине xhigh: архитектурные проблемы, подводные камни concurrency, security, переиспользуемость, адекватность обработки ошибок. Тратит больше времени и токенов, но на важных merge перед релизом незаменим. Повседневно — /review, в ключевых точках — /ultrareview.

Q. Насколько улучшились бенчмарки?

По официальным данным Anthropic и партнёров: CursorBench: 58% → 70% (кодинг), визуальная точность CursorBench: 54,5% → 98,5% (UI-скрины), Rakuten-SWE-Bench: ×3 решённых боевых задач. В сторонних отчётах: +13% на кодинг-бенче из 93 задач, ≈-21% ошибок на OfficeQA Pro, +10–15% доли успеха на Factory Droids. На Finance Agent и GDPval-AA — state-of-the-art / top-tier.

Q. Что такое Mythos Preview? Она сильнее Opus 4.7?

Mythos Preview — неопубликованная модель Anthropic. В официальном анонсе сказано: «Mythos Preview сейчас лидирует по alignment и имеет минимальный процент сбоев». Но это поэтапный релиз с намеренно ограниченными cyber-возможностями, а по общему набору задач Opus 4.7 — сильнейшая публично доступная модель. По ряду способностей Mythos выше 4.7, но в общее пользование её выдают аккуратно, начиная с проверенных по безопасности сценариев.

Q. В security-работах стали случаться отказы — как быть?

В 4.7 включены realtime-safeguards по кибербезопасности, и даже при законном пентесте, исследовании уязвимостей или red team возможны контекстные отказы. Если security — ваш прод-сценарий, подавайте заявку в Cyber Verification Program. После одобрения станут доступны менее ограниченные настройки.

Q. Где взять детальные оценки бенчмарков 4.7?

На момент релиза данные опубликованы лишь частично; Anthropic заявляет о крупных улучшениях в кодинге, агентах и vision. По индустриальным бенчмаркам (SWE-bench и т. п.) стоит дождаться официального блога Anthropic, model card и независимых оценок. Но самая надёжная проверка — замер на вашей рабочей нагрузке; перед выводом в прод настоятельно рекомендуется A/B-сравнение.

Статья опирается на официальные данные по состоянию на 16 апреля 2026 года. Спецификации, цены и область доступности могут меняться — перед выводом в прод сверяйтесь с актуальной документацией Anthropic. Конкретный план миграции смотрите в руководстве по миграции.