OpenAI релизнули GPT-5.3-Codex-Spark, это их сверхбыстрая модель, заточенная под real-time кодинг.

OpenAI релизнули GPT-5.3-Codex-Spark, это их сверхбыстрая модель, заточенная под real-time кодинг.

Они выкатили её как research preview для пользователей ChatGPT Pro в Codex app, Codex CLI и IDE-расширении.

GPT-5.3-Codex-Spark это первая веха в их партнёрстве с Сerebras.

Она даёт более быстрый tier на том же продовом стеке, что и остальные их модели, дополняя GPU для задач, где критична низкая задержка.

Codex будет становиться ещё быстрее.

Они улучшили стриминг ответов, ускорили инициализацию сессий и переписали ключевые части inference-стека.

Эти улучшения раскатятся на все модели в Codex в ближайшие несколько недель.

Сейчас Codex-Spark только текстовый и с контекстным окном 128k.

Они добавят больше возможностей, включая более крупные модели, более длинный контекст и мультимодальный ввод, по мере того как будут учиться на первом продовом деплое low-latency инфраструктуры и железа.

Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *