OpenAI представила сверхбыструю модель GPT-5.3-Codex-Spark Компания OpenAI запустила исследовательс

✴️ OpenAI представила сверхбыструю модель GPT-5.3-Codex-Spark

Компания OpenAI запустила исследовательское превью модели GPT-5.3-Codex-Spark, специально оптимизированной для задач программирования с мгновенным откликом.

Модель работает на базе аппаратного ускорителя Cerebras Wafer Scale Engine 3, что обеспечивает экстремально низкую задержку.

— СКОРОСТЬ ГЕНЕРАЦИИ ПРЕВЫШАЕТ 1000 ТОКЕНОВ В СЕКУНДУ. 🤯
— Предназначена для точечных правок, рефакторинга логики и итераций в реальном времени (в отличие от «тяжелых» моделей для автономных задач).
— Поддерживает контекстное окно 128k токенов (на старте только текст).
— Сокращает время до появления первого токена на 50% и накладные расходы сети на 80% благодаря переходу на WebSocket.
— По умолчанию не запускает автотесты, чтобы сохранять максимальный темп работы.
— В бенчмарках SWE-Bench Pro и Terminal-Bench 2.0 сохраняет уровень качества «старшей» GPT-5.3-Codex при кратно меньшем времени выполнения.

Доступно подписчикам ChatGPT Pro в приложении Codex, CLI и расширении для VS Code.

@ThePerceptronChannel

Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *