GPT 5.4 в Codex: первые впечатления после суток Прошло чуть больше 24 часов с релиза, и я уже потра

💻 GPT 5.4 в Codex: первые впечатления после суток

Прошло чуть больше 24 часов с релиза, и я уже потратил 80% недельного лимита Codex на Pro-плане на 5.4… Есть что сказать.

1) Контекст на миллион токенов в Codex — бесполезен

Модель начинает заметно деградировать после ~300к токенов: повторяет свои ответы, отвечает на старые промпты, генерирует плохой код. Не случайно по умолчанию окно ограничено 272к — это потолок, на котором работа ещё комфортна, и его я и рекомендую оставлять. Лучше пусть контекст автоматически сжимается почаще, но зато код будет почище :3

2) Точечные правки — на уровне, которого раньше не было

Такого качества у моделей я не видел ни разу. Просишь небольшую правку — а 5.4 не просто делает, что попросил, а думает дальше: сама выносит повторяющуюся логику в общую функцию, убирает дублирование, заботится об экономии строк за тебя. Ведёт себя как настоящий смелый разработчик, которому не всё равно на кодовую базу. И делает это круто.

Но на крупных задачах эта магия пропадает — код, к сожалению, всё ещё выходит довольно грязным, приходится вычищать скиллом Code Simplifier или перепрогонять в GPT 5.4 Pro.

Где 5.4 в иерархии?

Точно сильнее чем 5.3 Codex, которая вышла слабоватой. Но на длинных и тяжёлых задачах не факт, что новинка обходит 5.2 — надо тестировать, сомнения на этот счёт есть 🌚

При этом 5.4 всё равно лучшая и самая сбалансированная на данный момент модель для кодинга. Жаль, что не выпустили Extreme Mode для ризонинга. Текущего Extra High часто не хватает, модель думает не особо долго. А 5.2 думает сильно дольше, поэтому и кажется, что она может быть лучше..

А вам как 5.4? Делитесь в комментариях! 👇

Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *