💻 GPT 5.4 в Codex: первые впечатления после суток
Прошло чуть больше 24 часов с релиза, и я уже потратил 80% недельного лимита Codex на Pro-плане на 5.4… Есть что сказать.
1) Контекст на миллион токенов в Codex — бесполезен
Модель начинает заметно деградировать после ~300к токенов: повторяет свои ответы, отвечает на старые промпты, генерирует плохой код. Не случайно по умолчанию окно ограничено 272к — это потолок, на котором работа ещё комфортна, и его я и рекомендую оставлять. Лучше пусть контекст автоматически сжимается почаще, но зато код будет почище :3
2) Точечные правки — на уровне, которого раньше не было
Такого качества у моделей я не видел ни разу. Просишь небольшую правку — а 5.4 не просто делает, что попросил, а думает дальше: сама выносит повторяющуюся логику в общую функцию, убирает дублирование, заботится об экономии строк за тебя. Ведёт себя как настоящий смелый разработчик, которому не всё равно на кодовую базу. И делает это круто.
Но на крупных задачах эта магия пропадает — код, к сожалению, всё ещё выходит довольно грязным, приходится вычищать скиллом Code Simplifier или перепрогонять в GPT 5.4 Pro.
Где 5.4 в иерархии?
Точно сильнее чем 5.3 Codex, которая вышла слабоватой. Но на длинных и тяжёлых задачах не факт, что новинка обходит 5.2 — надо тестировать, сомнения на этот счёт есть 🌚
При этом 5.4 всё равно лучшая и самая сбалансированная на данный момент модель для кодинга. Жаль, что не выпустили Extreme Mode для ризонинга. Текущего Extra High часто не хватает, модель думает не особо долго. А 5.2 думает сильно дольше, поэтому и кажется, что она может быть лучше..
А вам как 5.4? Делитесь в комментариях! 👇
Добавить комментарий