OpenAI релизнули GPT-5.3-Codex-Spark, это их сверхбыстрая модель, заточенная под real-time кодинг.
Они выкатили её как research preview для пользователей ChatGPT Pro в Codex app, Codex CLI и IDE-расширении.
GPT-5.3-Codex-Spark это первая веха в их партнёрстве с Сerebras.
Она даёт более быстрый tier на том же продовом стеке, что и остальные их модели, дополняя GPU для задач, где критична низкая задержка.
Codex будет становиться ещё быстрее.
Они улучшили стриминг ответов, ускорили инициализацию сессий и переписали ключевые части inference-стека.
Эти улучшения раскатятся на все модели в Codex в ближайшие несколько недель.
Сейчас Codex-Spark только текстовый и с контекстным окном 128k.
Они добавят больше возможностей, включая более крупные модели, более длинный контекст и мультимодальный ввод, по мере того как будут учиться на первом продовом деплое low-latency инфраструктуры и железа.
Добавить комментарий