Быстро. Дёшево. Бесполезно  немного про опыт использования GPT-5.3-Codex-Spark в задачах разработки.

«Быстро. Дёшево. Бесполезно» – немного про опыт использования GPT-5.3-Codex-Spark в задачах разработки.

Есть такой прекрасный сервис – Cerebras. Упоминал их в этом материале.

Компания делает чипы, оптимизированные под работу с LLM. Создают их таким образом, что некоторые (не самые большие) модели вмещаются целиком на один чип и, благодаря этому, выдают впечатляющую скорость инференса.

В результате партнёрской сделки между OpenAI и Cerebras, про которую стало известно 14 января, появилась та самая GPT-5.3-Codex-Spark.

Фактически, это урезанная GPT-5.3-Codex. Урезанная ровно настолько, чтобы поместиться на чип Cerebras и получить преимущество по скорости.

Скорость действительно поражает. Но на этом всё.

Чтобы с данной моделью получить приемлемый результат, я вижу две стратегии:

1. Микро-правки, где после каждого небольшого шага LLM, пользователь проводит детальное ревью и направляет AI-агента в новую микро-задачу.

2. Отправить модель по строгому максимально-детерменированному пайплайну, в котором Spark просто не сможет себе позволить вольности.

Первая стратегия – это то, от чего мы начали уходить ещё год назад. Когда появился Claude Code и AI-coding-агентам стали давать больше свободы (хорошо, когда с детерменированными проверками за счёт хуков).

А вторая… Если честно, в таком пайплайне лучше подойдёт более сообразительная GPT-5.3-Codex. Она, конечно, чуть медленнее, но разница не так велика, как со вдумчивой GPT-5.2 High, например. А GPT-5.3-Codex сможет обеспечить куда меньшее количество правок на ровном месте.

Для первого опыта в рамках партнёрства с Cerebras, результат – нормальный. На мой пайплайн разработки не повлияет (буду продолжать использовать другие модели), но следующая версия Spark, возможно, станет более понятной и предсказуемой. И сохранит при этом впечатляющую скорость.

Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *