Рубрика: Новости

  • Главная преграда для внедрения ИИ сами руководители Это основной тейк из статьи, которую разбирали

    Главная преграда для внедрения ИИ – сами руководители

    Это основной тейк из статьи, которую разбирали с LLMками на моем воркшопе для руководителей 😅

    Еще понравилось: сотрудники в 3 раза чаще используют ИИ, чем предполагает руководство

    Наверное, потому что руководство судит по себе, хехе. Но не подумайте, я не виню – их можно понять: обычно и так забот полон рот, так еще и инструментов с каждым днем все больше. Как выбрать что-то работающее, а потом так настроить, чтобы хотя бы не отставать от подчиненных?

    Так что никто не готов тратить несколько часов на знакомство с новым инструментом – только чтобы понять, что он не решает задачу. И правильно делают – их час обычно слишком дорого стоит для такого.

    И это относится не только к руководству – будем честны, мало кто любит проводить время за тестированием плохих продуктов.

    Ну и дальше уже классический для моего канала call-to-action – приходите на бесплатную конфу, чтобы послушать тех, кто уже потратил время за вас и во всем разобрался. Даже если вы не руковод – должно быть полезно. Проводит Стратоплан – я про них не знаю, но ребята, с которыми делали ai-dev.live, подтвердили – они норм. А некоторые даже сами будут там спикерами (!)

    Я, кстати, буду ее открывать – у меня самый первый доклад из всех 4 дней, ух

    Я даже интерактивчик приготовил, так как не делать что-то всратое я не умею. Так что, либо приходите получить ценный опыт, либо покринжевать с меня, если все пойдет не по плану – каждый найдет себе занятие по вкусу

    Когда: с 8 по 12 декабря, с 16:00 до 17:00 GMT+3

    Бесплатно и без всяких скрытых оплат:

    Ссылка

  • DeepSeek V3.2 и V3.2 Speciale  попытка вернуться в игру!

После релиза R1 в январе DeepSeek заметно

    DeepSeek V3.2 и V3.2 Speciale попытка вернуться в игру! После релиза R1 в январе DeepSeek заметно

    🚀 DeepSeek V3.2 и V3.2 Speciale – попытка вернуться в игру!

    После релиза R1 в январе DeepSeek заметно отстал от лидеров рынка. Теперь они выпустили две новые модели, чтобы догнать конкурентов:

    🔹 DeepSeek V3.2 – основная модель уровня GPT-5, доступна в приложении, веб и API
    🔹 DeepSeek V3.2 Speciale – максимальный reasoning, конкурирует с Gemini 3 Pro

    🏆 По заявлениям DeepSeek – V3.2 Speciale показывает золотой уровень в бенчмарках IMO, CMO, ICPC World Finals и IOI 2025

    Thinking в Tool-Use – первая модель с интегрированным reasoning при работе с инструментами. Обучена на 1800+ окружениях и 85тыс+ сложных инструкциях.

    ⚠️ Speciale расходует больше токенов и пока без tool-use

    ➡️ Попробовать можно в @JumbleGPT_bot
    А так же на офф сайте и в HuggingFace

    🧩 ChatConnectGPTYouTube

  • Стандарты в промптинге: как экономить токены и получать предсказуемый output Я уже писал про то, ка

    Стандарты в промптинге: как экономить токены и получать предсказуемый output

    Я уже писал про то, как люблю стандарты — они спасают сотни часов разработки, а иногда и жизни. Сейчас хочу поделиться простой техникой, которая сильно упрощает работу со structured output.

    Суть в том, что LLM отлично понимают широко-используемые стандарты (ISO и не только) и им не нужно объяснять что это такое — достаточно просто назвать. Вместо «в этом поле укажи язык» (и потом парсить «English», «english», «eng», «английский») — просто говоришь «ISO 639-1» и получаешь чёткий «en».

    Что это дает:
    — Меньше токенов на выходе — «US» вместо «United States of America»
    — Детерминированность — никаких вариаций и неточностей
    — Проще парсить — не надо городить регулярки на все случаи жизни
    — Совместимость — стандарты работают со всеми библиотеками и API, а еще легко найти готовые маппинги/справочники типа такого

    Все стандарты запомнить невозможно, поэтому у меня такой подход: перед тем как составить схему/промпт, спрашиваю себя (и AI) — а есть ли тут стандарт? Дальше разбираюсь какие есть варианты, насколько они общеприняты, и просто ссылаюсь в промпте.

    Собрал для вас список наиболее полезных стандартов (список раскрывается)

    Языки и локализация
    — ISO 639-1 для языков: «en», «ru», «zh»
    — ISO 639-2/T (Alpha-3): «eng», «rus», «chi»
    — BCP 47 для локалей: «en-US», «zh-Hans», «pt-BR»
    — Unicode (UTF-8) для кодировки символов

    География
    — ISO 3166-1 alpha-2 для стран: «US», «DE», «JP»
    — ISO 3166-1 alpha-3 для стран: «USA», «DEU», «JPN»
    — ISO 3166-2 для регионов: «US-CA», «DE-BY»
    — IANA/Olson для таймзон: «America/New_York», «Europe/Moscow»
    — WGS 84 (EPSG:4326) для координат GPS: «55.7558, 37.6173»

    Даты и время
    — ISO 8601 для дат: «2024-03-15», «2024-03-15T14:30:00Z»
    — ISO 8601 duration для периодов: «P3Y6M», «PT2H30M»
    — Cron expression для расписаний: «0 9 * * 1-5»
    — RRULE (RFC 5545) для повторений: «FREQ=WEEKLY;BYDAY=MO,WE,FR»

    Финансы
    — ISO 4217 для валют: «USD», «EUR», «BTC»
    — IBAN / BIC / SWIFT (ISO 9362) — для счетов и банков

    Контакты
    — E.164 для телефонов: «+14155551234»
    — vCard (RFC 6350) для обмена контактами

    Прочие
    — MIME types для файлов: «application/pdf», «image/png»
    — Hex RGB для цветов: «#FF5733» (а также HSL / HSLA)
    — Транслитерация BGN/PCGN
    — конечно же база: помните про СИ из школьной физики?

    Паттерн в промпте простой: «Extract X from this text. Return ONLY in [STANDARD NAME] format (e.g., «example1», «example2″). If uncertain, return null.»

    💡 Pro-tip: Когда стандарт найден — идете на github и ищите его название — скорее всего выйдете много полезного: справочники, библиотеки и тд. Справочники можно искать прямо в gist по фильтру JSON: пример.

    Попробуйте на своих задачах. Скорее всего для вашего кейса уже есть стандарт, который LLM знает лучше вас и вам же будет проще это использовать в остальном коде.

    🔥🔁 P.S. в тг все еще нет органики, поэтому делитесь если понравилось

  • Вайб-обзор на GPT 5.1 Gemini 3 Pro Opus 4.5 (22) Gemini 3 Pro Модель перед выпуском хайпили так,

    Вайб-обзор на GPT 5.1 / Gemini 3 Pro / Opus 4.5 (2/2)

    Gemini 3 Pro

    Модель перед выпуском хайпили так, что казалось, будто у всех сотрудников Google есть KPI на то, чтобы твитнуть нечто загадочное про выход то Gemini, то про что-то с цифрой 3, то про будущие фантастические возможности.

    Конкретно у меня было много надежд на то, что у нас-таки будет модель уровня GPT 5, но c 1м контекста, с большей эрудицией (у GPT 5 с этим явно хуже) и агентностью.

    Но чуда не случилось. Для разработки так уж точно.

    Впечатление от релиза смазалось ещё и тем, что в составе продуктов, где модель стала доступной на старте, она работала довольно нестабильно (и это местами продолжается).
    Ну а после того, как в реальной работе она не показала заявленного в бенчмарках, стало совсем грустно.

    Нет, это безусловно отличная модель, очень начитанная, с мультимодальностью из коробки, но, кажется, её не создавали быть лучшей в разработке.

    Для всего остального, впрочем, она очень хороша, а такие штуки как Nano Banana Pro и NotebookLM теперь у меня входят в набор повседневных инструментов.

    Опять-таки, это Preview версия, и, возможно, тут, как и на старте GPT 5, проблема больше в тулинге, чем в самой модели, и нужно подождать месяц-другой, пока и тулинг оптимизируется, и появится новый чекпойнт модели.

    А ещё стоит посматривать за прогрессом Antigravity, там есть несколько интересных задумок:
    ● спеки/планы как first-class citizens;
    ● поддержка работы с браузером через кастомное расширение для Chrome, что делает возможным модели «смотреть» на результат свой работы для замыкания feedback loop;
    ● отдельный интерфейс для работы с агентами;
    ● генерация схем проекта, дизайнов и картинок с помощью Nano Banana Pro.

    Opus 4.5

    Честно говоря, не думал, что Anthropic что-то сможет представить достойное на фоне прошлых двух моделей, но однако ж получилось.
    Вкупе со снижением цен это делает новый Opus приемлемым как по лимитам, так и по качеству работы.

    А если добавить к этому Claude Code, который, как я уже упомянул, в принципе является лучшим CLI-агентом на текущий момент, то вообще хорошо.

    Виден рост по всем метрикам, связанным с разработкой, модель стала более аккуратной в суждениях, реже считает ваши решения гениальными и тратит меньше токенов.

    Однако это всё ещё типичная Claude — стремительно улетающий контекст, недостаток внимания к мелочам, объявление нетронутых задач выполненными и т.п.
    Да, всего этого стало меньше, но на это всё равно намного чаще натыкаешься, чем в той же GPT 5.1, и для эффективной работы всё ещё нужно построение более сложного набора костылей поддерживающего workflow.

    Зато Claude Code + Opus — отличная связка для:
    ● greenfield-проектов и не очень сложных и больших проектов в целом, как для планирования, так и написания кода;
    ● всего, что связано с красивостями в UI;
    ● для агентных в целом и devops-задач в частности, когда нужно много всяких разных тулов подёргать, и через много шагов прийти к конечному результату (пока контекст не кончился, хехе).

    Вердикт

    Ультимативного инструмента нет, и нельзя его выбрать по какой-то одной характеристике, но если брать самые их яркие особенности, то я бы распределил их так:

    ● Сложный проект, много существующего кода, нужно внесение аккуратных правок, продумывая архитектуру и обсуждая варианты решения в деталях — GPT 5.1.

    ● Более-менее универсальная рабочая лошадка, которую вполне можно использовать как единственный инструмент, но с условием того, что вам придётся её объездить — Opus 4.5.
    (прошу винить в обилии «лошадиных» аналогий модный сейчас термин harness).

    ● Если вам не так важна собственно разработка, а нужна вторая модель с хорошей эрудицией и интуицией не только в технических доменах, большим контекстом, хорошей мультимодальностью, а также для прототипов и ваншотов — Gemini 3 Pro.

    Но в целом это, конечно, отличные обновления, прогресс весьма заметен.
    И посмотрим, изменится ли что-то ещё до конца года 🙂

    #ai #model #review

  • Вайб-обзор на GPT 5.1  Gemini 3 Pro  Opus 4.5 (12)

Даа, ноябрь выдался весьма урожайным на новые мо

    Вайб-обзор на GPT 5.1 Gemini 3 Pro Opus 4.5 (12) Даа, ноябрь выдался весьма урожайным на новые мо

    Вайб-обзор на GPT 5.1 / Gemini 3 Pro / Opus 4.5 (1/2)

    Даа, ноябрь выдался весьма урожайным на новые модели.
    Перебивая один другого, ведущие вендоры выпустили по флагманской модели (некоторые даже по нескольку).

    Провел с каждой из них достаточно времени, чтобы теперь поделиться мнением 🙂

    Будем считать это вайб-обзором, т.к. формальных метрик у меня нету, и по сути это набор личных впечатлений, полученных в процессе решения реальных задач.

    Если не указано иного, то я рассматриваю модели чисто с точки зрения использования их для разработки и исключительно в «родных», вендорских инструментах и на платных подписках.

    Оценки по каждой характеристике относительны и выставлены в сравнении с лучшей моделью из трёх (т.е. 10 ≠ абсолют).

    Критерии

    Интеллект
    В данном случае — способность к решению сложных проблем.

    Работа с контекстом
    Удержание, экономность использования, галлюцинации.

    Следование инструкциям
    … плюс способность их помнить и принимать во внимание все разом, внимание к деталям.

    Планирование
    Анализ требований и их осуществимости с граундингом на существующий проект, разбивка по этапам и задачам.

    Архитектура
    Способность понимать, оперировать и следовать архитектурным концепциям, предлагать неконфликтующие изменения.

    Агентность
    Автономное выполнение задач с эффективным использованием выданных инструментов.

    Рефакторинг
    Понимание типовых рефакторингов, code smells и способность делать широкие изменения в существующей кодовой базе.

    UI/UX
    Визуальная красота и удобство UI (в отрыве от красоты/сложности кода).

    Инструментарий
    Набор IDE, CLI, Web и прочих инструментов, где работает модель.

    Стабильность
    Как бесперебойность доступа к модели со стороны вендора, так и стабильность выдаваемого результата с т.з. качества.

    GPT 5.1 High (+Codex, +Max)

    Весьма педантичное семейство моделей, которым можно доверить сложные и глубокие задачи, а так же те, которые требуют внимания к деталям.
    Ни Gemini 3 Pro, ни Opus 4.5, даже несмотря на результаты на бенчмарках, не смогли стать заменой GPT 5 там, где нужен мощный ризонинг.
    Через неё у меня проходят финальные версии планов, архитектурных решений, ревью — и всё обязательно с граундингом на существующую кодовую базу и документацию.

    Собственно именно работа в существующих больших проектах ей удаётся лучше всего — модель сама способна качественно собрать контекст, понять corner cases, адаптироваться к стилю кода и архитектурным паттернам, и в целом ведёт себя не как ковбой-кодер, который после прочтения пары файлов кидается писать код (да, Gemini?).

    И пусть иногда сбор этого самого контекста и раздумья происходят мучительно долго, по мне так лучше подождать ради качественного результата вместо того, чтобы потом переделывать несколько раз и бороться с галлюцинациями или излишней самоуверенностью, как это бывает у других моделей.

    Увы, насколько хороша модель, настолько же и плох тулинг вокруг неё.
    Несмотря на быстрый старт, команда Codex CLI спустя короткое время то ли увязла в выбранных технологиях, то ли готовит какой-то другой продукт — иначе сложно объяснить игнор нужных и очевидных фич, которые просит сообщество.

    Claude Code почти во всём лучше Codex CLI, но, видимо, нам нельзя иметь удобную оболочку (harness / упряжку) и хорошую модель в составе одного агента.

    Ну и агентность у GPT 5.1 похуже, если сравнивать с Claude, даже в случае Codex-вариантов.
    Хотя связка обычной GPT 5.1 как планировщика, а Codex-варианта как исполнителя вполне рабочая на большинстве задач.

    #ai #model #review

  • Claude Chrome Extension и use-кейсы для AI-браузеров Некоторые из вас перешли на AI-браузер, некото

    Claude Chrome Extension и use-кейсы для AI-браузеров

    Некоторые из вас перешли на AI-браузер, некоторые не могут найти им применение — для себя пока не нашел причины полностью мигрировать на Comet, Atlas и подобные. Когда они только появились, я сделал ставку на то, что скорее будет мощное развитие расширений для существующих браузеров — слишком большая аудитория у того же Chrome.

    Недавно Anthropic выкатили свой Chrome Extension и он попался мне под руку для одной задачи. Одно из самых полезных применений AI-браузеров и расширений типа этого — работа с сервисами, которые доступны только в браузере, ну или настраивать API/MCP уж очень замороченно. Вчера был ровно такой кейс: сделать SEO анализ ключевых слов для продуктового блога — данные в Ahrefs, Google Analytics и Search Console. У Ahrefs API стоит на порядок дороже самого инструмента. У гугловых сервисов API есть, но настраивать долго. А в браузере это уже есть.

    Что я сделал. По-открывал нужные сайты в группе вкладок chrome, открыл эстеншн и дал агенту задачу: проанализировать статистику, найти «низко висящие фрукты» (ключевики на второй странице, которые легко дожать), сделать отчет по ключевикам и идеям контента.

    Opus реально хорошо понимает UI — не спотыкается на кнопках и формах, в отличие от того же Comet. Работает медленно, как и все подобные системы, обычно ставлю задачу и ухожу пить кофе, наблюдать за этими медленными кликами тяжко (даже это видео я в основном записывал в фоне, а потом подрезал и ускорил). Еще из минусов: пока слабая интеграция в экосистему Claude — нельзя продолжить диалог в основном приложении, нет доступа к skills и code interpreter. Чувствуется как отдельная штука. Но слушайте, это работает — я не спец в ahrefs, а Opus сходу разобрался что делать, я его только направлял по тому что нужно мне. И далее когда я задавал уточняющие вопросы у него был весь контекст увиденного.

    В общем, я вижу пользу в подобных расширениях (и AI-браузерах) как такой контекстный помощник, когда агенту доступен только UI, и нет прямого доступа по API/MCP.

    А какие у вас кейсы для AI-браузеров?

    🔥🔁

  • Channel created

    Channel created

  • Блин, я уж думал, что пропустил прорыв Короче, оказывается, еще 3 месяца назад OpenAI очень круто п

    Блин, я уж думал, что пропустил прорыв

    Короче, оказывается, еще 3 месяца назад OpenAI очень круто прокачали structured output.

    Я знаю про сильно увеличенный размер схемы, доп ограничения вроде max/min, но оказывается, они разрешили целые грамматики с нуля прописывать. То есть сгенерировать не просто json, соответствующей pydantic/zod схеме с разными валидаторами, а вообще текст на любом языке, который описывается Context Free грамматикой.

    Теоретически, это может быть SQL или python, а может быть даже конкретный диалект SQL или вообще проприетарный DSL (domain specific language), например, игрового движка

    Когда прочитал, у меня аж глаза загорелись, но потом пыл поутих, когда я понял, что большая часть идей применения в целом реализуется и через классический structured output + какой-нибудь конвертер в нужный формат.

    Но если нужен какой-то сложный формат, который не описать json схемой, то это прям киллер фича. Если есть идеи, кидайте в комменты

    Подумал, что это может быть отличным выходом из ситуации, когда новые языки просто перестают появляться, потому что их не было в обучающей выборке и нейронки не умеют генерировать корректный код для них

    P.s sql и python не описываются целиком Context Free грамматикой. То есть не получится сделать такую грамматику, которая прям однозначно гарантировала соответствие всем фичам языка, но все равно можно заложить очень много

    Дока

  • Jumble Connect полностью обновлён и стал ещё мощнее!  

Мы провели огромную работу и написали нашего

    Jumble Connect полностью обновлён и стал ещё мощнее! Мы провели огромную работу и написали нашего

    🛡 Jumble Connect полностью обновлён и стал ещё мощнее!

    Мы провели огромную работу и написали нашего бота полностью с нуля! Некоторые функции и инструкции находятся в стадии доработки, наберитесь терпения 🙏

    ☄️ Что нового?
    Теперь подписка на Jumble Connect включает одновременный доступ из сразу 5 стран:
    🇳🇱 Нидерланды
    🇫🇮 Финляндия
    🇩🇪 Германия
    🇳🇴 Норвегия
    🇺🇸 США

    💵 При продлении подписки продлеваются все серверы – никакой возни с выбором!
    🔄 Выбирайте страну с минимальным пингом под ваше местоположение и получайте максимальную скорость!
    Особенно важное обновление: доступ к сервисам Google полностью восстановлен при подключении через Финляндию!

    📲 Рекомендуем использовать приложение HAPP для максимальной совместимости:

    iOS / macOS / Android / TV
    Windows / Linux .deb .rpm

    ⚠️ ВАЖНО! Чтобы бот заработал – обязательно нажмите /start и вставьте новую ссылку формата https://jumbleai.ru/connect/******** в приложение!

    ➡️ Перейти в Jumble Connect

    🧩 ChatConnectYouTube

  • Куда на самом деле движется индустрия LLM (спойлер: вы выбираете не модель — вы выбираете стек). По

    Куда на самом деле движется индустрия LLM (спойлер: вы выбираете не модель — вы выбираете стек).

    Пост навеян свежим релизом Opus 4.5, а именно ее доп фичами как Context Editing — нам показывают действительно впечатляющие демки… Но постойте — это же (очередная) не-фича foundation модели. Это не что-то в весах. Это инфраструктурный middleware, который живет между вами и моделью. И если вы проанализируете (особенно глазами разработчика) релизы последнего года, то вы увидите что мы все дальше от бога от LLM как модели, и тем ближе к LLM как infrastructure-as-a-service. Давайте поговорим, куда нас ведет индустрия и что из этого следует, но начнем с начала.

    Большинство людей (в том числе многие разработчики) когда говорят про условный ChatGPT не видят весь спектр между «моделью» и «продуктом» — ведь это одновременно и foundation model, и старый добрый completions API, и вполне себе агентный Responses API c Code Interpreter, File Search (RAG прямо в «модельке», ага) и т.д.

    Что на самом деле продают вендоры

    OpenAI Responses API — это целая инфра, включая NoSQL БД для истории, хранилище файлов и тд. Вы отдали им state management.

    Code Interpreter и Code Execution — это PaaS: managed sandbox — $0.03 за сессию платите за инфру, не за «умную модель».

    Claude Context Editing — middleware с настраиваемой стратегией pruning (keep last 3 tool uses, clear 5000+ tokens). Оркестрация, а не интеллект.

    Google Grounding и Maps tool — dynamic retrieval: модель решает нужен ли поиск, генерит queries, получает доступ к индексу (глубже публичного API), делает reranking, отдает с citations. Вы покупаете gateway к индексу, не модель.

    Даже Structured Outputs — это частично заслуга инфры, а не весов — constrained decoding через CFG (конвертит JSON Schema в грамматику, маскирует невалидные токены). Компилятор поверх модели.

    Большинство не осознают, как растет пропасть между проприетарными infrastructure-as-a-service от OpenAI/Google/Anthropic и голыми весами open-source моделей. Проприетарные LLM превращаются из inference провайдеров в операционки для intelligence.

    Что из этого следует и что следует иметь в виду

    1. Понимать уровни зависимости, я выделяю три:
    — State (Threads, File API, memory) — критический lock-in, вы не владеете памятью системы
    — Execution (Code Interpreter, sandboxes) — средний lock-in, нужна своя инфра для рантайма
    — Behavior (Grounding, Computer Use) — средне-высокий, модель часто обучена под «свои» инструменты

    Перед использованием любой фичи спрашивайте: «Где живут данные? Кто контролирует логику? Смогу ли я воспроизвести это сам?»

    2. Integration Tax vs Migration Tax — ключевая асимметрия. Проприетарные фичи дают быстрый старт, но стоимость выхода растет экспоненциально. Это не обязательно плохо — это trade-off, который нужно делать осознанно.

    3. Разделять Core и периферию
    Core (ваша уникальная ценность, основа продукта) — инвестируйте в независимость: свой state management, своя оркестрация и тд.
    Пример: AI-агент для support как продукт — владение историей диалогов критично, а вот Code Interpreter для внутренней аналитики — это ок.

    4. Есть обратная сторона. Чем глубже расходятся продуктовые слои провайдеров, тем сложнее делать model-agnostic продукты, которые работают так же хорошо. Manus поняли это рано — выжали максимум из Anthropic, не пытаясь быть совместимыми со всеми, и сделали продукт-звезду. Возможно, по той же причине Claude Code так хорош?

    5. Учитывайте свою стадию. 0→1 (поиск PMF) — максимально используйте проприетарные фичи, скорость важнее. Когда растете — можно строить абстракции: gateway, свой state для core функций. На стадии масштабирования — еще больше контроля и взаимозаменяемости компонентов (interoperability это дорого).

    Главное

    Проприетарные AI-платформы — это managed infrastructure, как AWS. Вы платите не только деньгами, но и зависимостью. И этот тренд будет расти. Часто это правильный trade-off, особенно на старте. Но это решение нужно принимать с открытыми глазами — понимать, какую часть системы отдаете «в управление», и делать это осознанно для каждого компонента продукта.

  • Активно ищу талантливого и энергичного фулстек founding engineer с потенциалом на кофаундера для сов

    Активно ищу талантливого и энергичного фулстек founding engineer с потенциалом на кофаундера для совместной работы над 2pr.io, AI-агентом для контента в LinkedIn.

    Текущий founding engineer вынужден уйти по личным причинам, но будет доступен для комфортной передачи продукта.

    Я не ищу простого сотрудника. Ищу второго пилота или даже кофаундера.

    Описание роли здесь

    Просьба внимательно прочесть описание и если всё нравится, присылай сразу CV и/или LinkedIn в ТГ в личку @imidov

  • Метрики внедрения AI coding инструментов в компаниях В комментах к одному из прошлых постов спросил

    Метрики внедрения AI coding инструментов в компаниях

    В комментах к одному из прошлых постов спросили про метрики внедрения AI coding инструментов. Решил написать свою точку зрения.

    Мерить эффективность работы программистов готовыми метриками — очень сложно. А эффект от внедрения AI coding инструментов — еще сложнее:

    1⃣ бизнесу важны деньги — сэкономленные или заработанные. Но связь между кодом и финансовым результатом появляется только через месяцы или годы, поэтому нужно использовать прокси-метрики.

    2⃣ нормальных метрик на уровне одного разработчика практически нет. Данные шумные, люди хачат KPI, а сами измерения меняют поведение.

    3⃣ популярные показатели вроде LoC, числа коммитов, пулл-реквестов, закрытых задач, субъективных оценок ускорения очень часто не репрезентативны. Также как и количество принятых изменений от AI coding агентов.

    4⃣ черри-пикинг отдельных удачных кейсов (например миграция с legacy на новый тех стек) может показывать крутые отдельно взятые бизнес-результаты, но не всегда масштабируется на всю организацию.

    Я считаю, что важнее мерить импакт на уровне команды или бизнеса-юнита:

    1⃣ time to market для фичей (время от попадания в бэклог до прода);

    2⃣ размер и количество заделиверенных изменений (проще если есть стори-пойнты или другой способ оценки размера ченжей);

    3⃣ change failure rate (процент релизов с откатом или инцидентом);

    4⃣ количество post release багов.

    Именно эти 4 метрики в совокупности являются взаимодополняемыми и сбалансированными. Плюс полезно мерить уровень удовлетворенности разработчиков AI тулами (NPS), но это вторичный показатель, влияющий лишь на выбор инструментов.

    Подписаться

  • Вышел Claude Opus 4.5!

Как утверждает Anthropic  это самый мощный ИИ для кода, агентов и повседневн

    Вышел Claude Opus 4.5! Как утверждает Anthropic это самый мощный ИИ для кода, агентов и повседневн

    🔥 Вышел Claude Opus 4.5!

    Как утверждает Anthropic – это самый мощный ИИ для кода, агентов и повседневной работы, который превосходит GPT-5.1 и Gemini 3 Pro!

    💡 Что нового:
    Лучший в мире ИИ для программирования: 1-е место на SWE-bench Verified и в 7 из 8 языков на Multilingual
    Умнее и эффективнее: решает сложные задачи с меньшим количеством токенов (до 76% экономии vs Sonnet 4.5)
    Работает как супер-агент: понимает неочевидные сценарии, находит креативные решения
    Идеален для Excel, Chrome и длинных чатов: автоматически сжимает контекст и не забывает начало беседы
    Самая безопасная версия на сегодня: лучшая защита от prompt injection и вредоносных атак

    Claude Opus 4.5 уже доступен в API, налажен в облаках (Azure, GCP, AWS) и в IDE типа Cursor AI

    💵 Цены стали доступнее: $5 / $25 за миллион токенов
    В Cursor AI доступен по цене Sonnet 4.5 до 5го декабря

    ➡️ Бесплатно потестировать можно в чате LM Arena

    🧩 ChatConnectYouTube

  • #ReDigest Продолжаем субботнюю рубрику, тут я кратко рассказываю про новости из мира технологий и A

    #ReDigest

    Продолжаем субботнюю рубрику, тут я кратко рассказываю про новости из мира технологий и AI, которые привлекли мое внимание.

    Дайджест недели:

    — Google выкатили Gemini 3 Pro — SOTA почти по всем бенчам, первая модель за 1500 Elo на LMArena. 1М токенов контекст, 64K на выход. Цена: $2-4/млн на вход, $12-18/млн на выход. Flash-версии пока нет. Очень мощный релиз.

    — OpenAI представили GPT-5.1-Codex-Max для кодинга с динамическим архивированием истории — агент может работать над одной задачей 24+ часа.

    — Google запустили Antigravity — конкурента Cursor на своих топовых моделях. Из фишек планирование через артифакты и быстрый браузер-тул через хром расширение. Пока бесплатно.

    Cursor 2.1 добавил интерактивные планы с возможностью отвечать на вопросы ИИ, плюс AI Code Reviews и Find Issues -поиск и фикс багов и кодревью по одной кнопке.

    — Warp выкатили апдейт, стали первыми в Terminal-Bench 2.0 с Full Terminal Use — агент теперь работает с интерактивными CLI-приложениями (дебаггеры, REPL), плюс функция /plan для согласования подхода и интеграции со Slack, Linear, GitHub Actions.

    — Сэм Альтман с Льюисом Андре основали Episteme — R&D-организацию для долгосрочных исследований на стыке физики, биологии, вычислений и энергии.

    — ElevenLabs выпустили платформу Image & Video (Beta) — агрегатор моделей генераций медиа с озвучкой и липсинком в одном месте.

    — OpenAI раскатили групповые чаты в ChatGPT — приглашаете людей, общаетесь, по мере надобности вызываете модель в диалог. Удобно для проектных обсуждений.

    — Alibaba делает ИИ-суперапп на Qwen 3 — Deep Research, кодинг, компвижн, голосовые вызовы, генерация отчетов с автоматическими презентациями за секунды. Интеграция со всей экосистемой: карты, доставка, коммерция. Пока только Китай.

    — Google обновили Nano Banana — теперь с Gemini 3 Pro под капотом, веб-поиском и 4K. Завезли в NotebookLM — он теперь генерит наборы слайдов, графики, диаграммы и видео-презентации из документов.

    — Meta выпустила новый SAM3 и SAM 3D — создание 3D-моделей объектов и людей из обычных фото. SAM 3D Objects восстанавливает форму и текстуру, SAM 3D Body реконструирует тело с позой и конечностями. Код открыт.

    — xAI выпустили Grok 4.1 — лучше понимает эмоции и выдает меньше неточностей. Но лидером LMArena не продержался и дня — его сразу сместил Gemini 3.

    — Perplexity добавили возможность создавать и редактировать слайды, таблицы и документы во всех режимах поиска. Доступно на веб-версии для Pro и Max подписчиков.

    — Еврокомиссия анонсировала масштабный пересмотр GDPR и AI Act — упрощение cookie-баннеров, разрешение использовать персональные данные для обучения моделей, отложенное введение правил для высокорисковых AI-систем.

    — Исследователи выпустили Heretic — софт для автоматического снятия цензуры с LLM. Вычисляет «направления отказа» и удаляет их из весов. Работает автоматически на большинстве архитектур, включая Llama, Qwen, Gemma.

    — Cloudflare пережили крупнейший сбой с 2019 года — изменение прав в ClickHouse удвоило размер конфига Bot Management, что положило X, ChatGPT, Discord, криптобиржи на несколько часов. Полное восстановление заняло почти 6 часов.

    — Manus AI выпустили агента для браузера в виде расширения — активируете, и ИИ берет окно под контроль и выполняет задачу. Работает в любом браузере.

    — OpenAI опубликовали большую статью с научными кейсами, где GPT-5 помог сделать открытия.

    — Gamma сделали гайд промптов для создания презентаций по отраслям — маркетинг, сейлз, консалтинг. Плюс примеры API-интеграций c n8n, notion и т.д.

  • Пока все пишут про релиз Gemini 3 и новую Antigravity IDE от Google, я решил написать про NotebookLM

    Пока все пишут про релиз Gemini 3 и новую Antigravity IDE от Google, я решил написать про NotebookLM, которым периодически пользуюсь уже довольно давно. Триггером для новой волны интереса стал пост Игоря про новые фичи в NotebookLM: deep research и генерация видео.

    NotebookLM — это AI сервис от Google, который на основе загруженных вами документов и видео помогает быстро получать ответы, конспекты и объяснения по вашим материалам. Мой самый популярный use case — это краткий пересказ Youtube видео. Еще я пытался генерировать подкасты по статьям (на русском тоже работает), но в итоге не зашло.

    Сейчас я работаю над статьей про метрики внедрения AI ассистентов, пишу по-старинке “из головы”. Решил попробовать потестировать NotebookLM на задачи анализа уже опубликованных материалов. Если коротко, то ничего нового я к сожалению не узнал, но по менее профильной теме было бы точно интересно. Уровень качества материалов — студенческая курсовая. Много теории, неплохая работа с источниками и их суммаризация, но отсутствует новизна и небольшая глубина анализа. Для погружения в абсолютно новую тему — точно рекомендую, может быстро ускорить процесс обучения.

    Приложил полностью автоматически сгенерированное видео по теме метрик внедрения AI. Весь промпт был в одно предложение.

    Еще хочу порекомендовать канал Игоря Tips AI | IT & AI. Сам давно его читаю и постоянно узнаю оттуда новые прикольные штуки.

    Подписаться

  • Gemini 3 Pro. Самый умный ИИ от Google уже здесь! 

Google представил Gemini 3 Pro  свою самую мощну

    Gemini 3 Pro. Самый умный ИИ от Google уже здесь! Google представил Gemini 3 Pro свою самую мощну

    🔥 Gemini 3 Pro. Самый умный ИИ от Google уже здесь!

    Google представил Gemini 3 Pro – свою самую мощную ИИ-модель на сегодня. Он создан для тех, кто превращает идеи в реальность с помощью кода, планирования и креатива

    Лучший в агентном программировании: автоматически решает многошаговые задачи, вызывает инструменты, пишет и тестирует код как настоящий разработчик
    Vibe coding нового уровня: по описанию или наброску создаёт красивые и адаптивные интерфейсы
    Мультимодальность на максимуме: понимает текст, изображения, видео, аудио и даже PDF
    1 миллион токенов на вход: идеален для сложных автоматизаций и анализа больших документов.
    ✦ Бьёт GPT-5.1 и Claude Sonnet 4.5 почти по всем бенчмаркам, от математики до агентных задач и понимания экранов

    Если вы строите ботов, автоматизации или сложные workflow в n8n, то это ваш новый союзник!

    💡 Уже доступен в:
    Gemini AI
    Google AI Studio
    ✦ Vertex AI и Gemini API
    ✦ Новой платформе Google Antigravity для агентной разработки (IDE, аналог Cursor AI)

    ⚠️ Сервисы Google могут быть недоступны через Jumble Connect, но мы уже работаем над решением. А пока протестировать Gemini 3 Pro можно на LLM Arena

    🧩 ChatConnectYouTube

  • Интеграция ИИ в бизнес не даст прибыли на долгосроке Странновато конечно это писать, будучи разрабо

    Интеграция ИИ в бизнес не даст прибыли на долгосроке

    Странновато конечно это писать, будучи разработчиком кастомных ИИ интеграций

    Но реально, давайте представим, что все пойдет по техно-оптимистичному раскладу и через пару лет условного бухгалтера Елену Андреевну заменит хороший набор запросов к LLM API

    Что будут делать бухгалтерские фирмы с кратно возросшей маржой?

    Спойлер: демпинговать

    Уже сейчас видна коммодизация технологий – начиная от открытых моделек, заканчивая всякими n8n, на которых некоторые особо инициативные Елены Андреевны уже костылят себе рабочие инструменты.

    Разработчики тоже в массе освоят разработку с ЛЛМ под капотом, как сейчас все умеют в разработку с базой данных под капотом.

    Так что, как и на любом рынке, где не работает winner-takes-all, маржа будет стремится к нулю

    А выводы?

    1. Пока этого не случилось, есть возможность получать сверхприбыли для тех компаний, кто первыми сделают успешные стабильные автоматизации (вот это мне уже не странно писать, хаха)

    2. Есть некоторые отрасли, где уже монополия. Там чуть проще – у них нет серьёзных конкурентов, кто демпингом съест маржу. Но их главный конкурент – Елены Андреевны, которые вместо покупки их решения, накостыляют себе сами под свою узкую задачу.

    3. Некоторые компании из пункта 1 смогут так быстро вырасти, что съедят всех конкурентов и превратят свой рынок в winner-takes-all. Или превратятся из сервисных компаний в продуктовые и просто будут продавать свое решение вчерашним конкурентам

    4. Те, кто будет откладывать «ИИизацию» – в какой-то момент обнаружат себя с нулевой маржой, чтобы просто поддерживать конкурентные цены (не касается ребят с нечестными конкурентными преимуществами, вроде подвязок на госконтракты)

    Мб есть еще варианты, которых не вижу?

    by AI и грабли

  • Ребят, кто в Мск, тут мои приятели проводят оффлайн митап, кому-то точно будет интересно Почему я б

    Ребят, кто в Мск, тут мои приятели проводят оффлайн митап, кому-то точно будет интересно

    Почему я бы пошел, если бы был в Москве

    1. Там будет Валера (@neuraldeep), а Валера классный. У него есть какой-то талант собирать вокруг энтузиастов (можно понять по комментам у него в канале) и делать всратые эксперименты, которые выстреливают.

    Один из них недавно вырос в полноценного deep-research агента поверх концепции SGR, который работает даже на очень маленьких модельках. Имхо, это очень конкурентный даже на мировой арене уровень, так что интересно посмотреть и послушать про развитие эксперимента

    2. Я раньше не слышал про Ксению, но прежде чем рекомендовать ивент, чекнул ее канал – мне он показался очень базированным, я как раз искал каналы про генерацию медиа и хороший дизайн. Отдельный персональный лайк за преподавательский опыт. Короче, я бы пришел чисто послушать выжимку ее опыта и познакомиться

    3. Ну и самое главное, оффлайн ивенты – отличная возможность пообщаться вживую и обменяться деталями из опыта, про которые люди обычно не пишут публично. Я стараюсь выцеплять интересных людей и уходить общаться 1 на 1 подальше из общей тусы. Имхо, лучше пообщаться несколько часов с одним очень релевантным человеком, чем по 10 минут со всеми подряд.

    Но часто нужно сначала пообщаться с несколькими, чтобы найти этого человека. Тут ребята будут проводить нетворкинг активность, это может неплохо сработать как предварительный фильтр. Главное держать в голове, что это только подготовка, а реальный нетворкинг обычно идет дальше (если вы не расходитесь по домам)

    Ссылка на мероприятие

    #дружеский_пиар

  • Как Эд Ширан связан с ЛЛМ промптами Читаю я перед сном статью Джулиана Шапиро как генерировать ид

    Как Эд Ширан связан с ЛЛМ промптами?

    Читаю я перед сном статью Джулиана Шапиро – как генерировать идеи для текстов.

    И вижу очень знакомый подход – дать себе выписать все идеи, которые есть, дав полную индульгенцию даже на очень плохие идеи.

    Важно разрешить себе вытащить из головы весь мусор, потому что только смотря на него, наше сознание вычленяет, чего избегать, чтобы было хорошо.

    Посмотреть на плохое и понять что исправить – легче, чем сделать хорошее с нуля.

    И всем же знакома вот эта ситуация, когда просишь ЛЛМку нагенерить идей, а там прям ну очень плохо?

    Это на самом деле очень хорошо! Потому что это крутой материал, чтобы точнее объяснить то, что не получилось сформулировать с нуля

    Так еще и сразу с примерами. Такой отрицательный few-shot learning, получается

    В креативных задачах меня только этот подход с первым «мусорным» ответом и спасает. Такое ощущение, что пока не выдаст всю банальщину и клише, она просто не может думать оригинально

    Что в целом даже очевидно – ее учили выдавать наиболее вероятный текст, а наиболее вероятный – почти всегда банальный.

    Короче, не отступаем после первого плохого ответа. Контринтуитивно, но часто это необходимый этап на пути к хорошему результату

    ———

    Кстати, этот подход к креативности Джулиан почерпнул у Нила Геймана и Эда Ширана

  • Claude Code всё

Ну что, друзья, Open Source LLMs для кодинга стремительно догоняют своих закрытых б

    Claude Code всё Ну что, друзья, Open Source LLMs для кодинга стремительно догоняют своих закрытых б

    Claude Code всё?

    Ну что, друзья, Open Source LLMs для кодинга стремительно догоняют своих закрытых братьев сестер. Недавно вышли аж 3 значимых модели от китайцев — это Minimax M2, GLM 4.6 и Kimi K2 Thinking, очень мощные модели, догоняющие Sonnet 4.5 и GPT-5.

    Я думаю, для многих не секрет, что китайцы сейчас, во-первых, начали предоставлять подписки на свои LLM (GLM, MiniMax), во-вторых, дают возможность юзать их из Claude Code.
    Но, по мне, так ключевая проблема китайских подписок в Privacy — субъективно, вероятность того, что данные будут использованы для обучения (как минимум) существенно выше. И вот тут на сцене появляется сервис Synthetic

    1. Synthetic подписка — Claude Code x3
    Суть сервиса в том, что они предоставляют дешевый доступ к множеству современных LLM — но главное, умеют это делать по подписке. Так вот, даже в подписке за 20$ они пишут, что лимиты на лучшие модели x3 от тех, что Claude дают за те же деньги. Minimax M2, GLM 4.6 и Kimi K2 Thinking там есть. Важно, что они заверяют, что дата центры с их GPUшками находятся в US и EU, что компания у них американская и что данные юзеров для дообучения они никогда не используют.
    С Claude Code (CC) они тоже умеют интегрироваться нативно и даже дают готовый конфиг, который позволяет легко и просто запускать их Claude Code с их подпиской одной командой:

    # Add to  ~/.zshrc
    synclaude() {
      ANTHROPIC_BASE_URL=https://api.synthetic.new/anthropic 
      ANTHROPIC_AUTH_TOKEN=${SYNTHETIC_API_KEY} 
      ANTHROPIC_DEFAULT_OPUS_MODEL=hf:moonshotai/Kimi-K2-Thinking 
      ANTHROPIC_DEFAULT_SONNET_MODEL=hf:MiniMaxAI/MiniMax-M2 
      ANTHROPIC_DEFAULT_HAIKU_MODEL=hf:MiniMaxAI/MiniMax-M2 
      CLAUDE_CODE_SUBAGENT_MODEL=hf:zai-org/GLM-4.6 
      CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 
      claude "$@"
    }

    После этого просто пишем в терминале synclaude и радуемся специальному клоду (не забудьте задать ключи SYNTHETIC_API_KEY у себя в env). Я успел проверить — работает довольно бодро и стабильно.

    Еще, люди в чатах жаловались, что подписки от китайцев на китайские модели работают довольно медленно. Мои быстрые эксперименты с Synthetic показали, что их модели прям шустренько отвечают.

    Отмечу, что в таком варианте подписке есть еще один неочевидный плюс, в отличие от китайских — новые LLM выходят стремительно и неизвестно какая опенсорс LLM будет лучшей для кодинга завтра. Здесь же выглядит так, что ребята добавляют поддержку хороших моделей очень быстро (на реддите писали, что K2 Thinking они первые в US развернули).

    2. API по подписке
    Интересно, что любую из доступных always-on моделей можно так же использовать и через API по подписке.

    3. Деплой своих моделей
    Неочевидный приятный бонус — этот сервис так же умеет разворачивать почти любую LLM с HugginFace (on demand) и это прямо находка для тех, кто деплоит локальные ллмки в организациях — есть возможность очень быстро и дешево протестировать LLMку или ее кванты. Мною проверено — работает.

    Приятная рефералка
    Пользуясь случаем, поделюсь своей реф ссылкой на этой сервис https://synthetic.new/?referral=eWEfhLA6nZXwE1D — в случае подписки, +10$ на баланс прилетит и мне и вам.

    @ai_driven

  • Cursor AI разочарование века Решил проверить подписку Cursor Pro ради эксперимента. Думаю, потести

    Cursor AI — разочарование века

    Решил проверить подписку Cursor Pro ради эксперимента. Думаю, потестирую пару часов, посмотрю, стоит ли своих денег. И что вы думаете? За полчаса использования баланс -5$ из 20$!

    То есть 25% баланса просто сгорело за 30 минут работы!

    Для сравнения, в Windsurf при тех же задачах я бы потратил всего 10–15 кредитов из 500, это примерно 2–3% лимита. Подписка у них 15$, а основная модель – GPT-5 Low Reasoning или GPT-5 Codex, которые очень хорошо пишут код.

    В Kiro расход ещё меньше: за те же полчаса я бы потратил менее 1% баланса, а стоит подписка 20$. Там используется Claude 4.5 как основная модель, она выдаёт результат быстро, чётко и без лишних затрат.

    ⚙️ Задача у меня была максимально стандартная: проанализировать документацию и написать небольшое приложение.
    И вот тут разница особенно чувствуется. В Cursor AI токены улетают просто с космической скоростью…

    💭 Вывод:
    Cursor AI, возможно, подойдёт для небольших правок вашего проекта, когда уже всё написано и нужно слегка подредактировать. Но если вы планируете писать код с нуля, делать полноценные приложения, тестировать, анализировать – это не ваш вариант!

    🧩 ChatConnectYouTube

  • Вайб-кодинг и AI инструменты все еще относительно плохо (прирост производительности измеряется в про

    Вайб-кодинг и AI инструменты все еще относительно плохо (прирост производительности измеряется в процентах, а не в разах) работают в крупных компаниях. Решил немного структурировать причины этого.

    1⃣ В энтерпрайзе повышенные требования к качеству кода, стабильности приложений, безопасности и приватности данных.

    2⃣ В крупных компаниях часто встречаются гигантские кодовые базы, которые не влезают в контекст и на которых инструменты не обучены. Ситуация осложняется частым наличием legacy стека технологий.

    3⃣ Существующие AI coding ассистенты заточены под прототипирование и MVP.

    4⃣ Написание кода в крупных компаниях редко бывает bottleneck: чаще все упирается в сбор требований, согласование изменений с другими командами и верификации изменений.

    5⃣ Административно-бюрократический, компании не хотят рисковать, потому что тяжело объективно померить эффект от внедрения AI. Существующие процессы не адаптированы под увеличение числа изменений в разы.

    6⃣ Человеческий фактор — люди в энтерпрайзе меньше привыкли рисковать и часто предпочитают уже устоявшиеся в компании технологии.

    Причины 1-3 могут и, вероятно, будут решены AI компаниями, разрабатывающими новые версии IDE, CLI и сервисов. Уже сейчас видно смещение фокуса крупных игроков (Microsoft, Anthropic, Devin & Windsurf, Cursor) на enterprise-ready решения.

    Причины 4-6 каждой компании придется решать самостоятельно и от того как успешно она с этим справиться будет зависеть ее будущее.

    Подписаться

  • Рубрика: Полезное воскресенье Многие из вас приходят на канал после роликов про n8n и я понимаю эт

    💭 Рубрика: Полезное воскресенье

    Многие из вас приходят на канал после роликов про n8n – и я понимаю этот путь. Сначала кажется, что сейчас быстро соберу идеальный сценарий, а потом начинаются вечные ошибки, настройки, бесконечные «failed» и непонятные зависимости.

    Я сам через всё это прошёл. И в итоге понял: если хочешь действительно гибкие и стабильные автоматизации – проще писать их на Python, а не пытаться склеивать ноды.

    🌊 Самое удобное место для меня оказалось Windsurf – и именно с моделью GPT-5 Low Reasoning, а не Codex или Sonnet. Объясню почему. Она реально пишет код почти без ошибок, прямо как будто понимает, что тебе нужно. У меня она срабатывает с первого раза в 90% случаев.

    GPT-5 LR в Windsurf действительно лучше всех пишет код: чисто, по делу, почти без ошибок
    ✦ На бесплатном тарифе дают 25 кредитов, а запрос к GPT-5 LR стоит 0.5 кредита → получается 50 запросов в месяц. Этого хватает даже на довольно сложные автоматизации
    ✦ Обычный ChatGPT (на сайте) отлично подходит для общих вопросов и изучения темы. А Windsurfтолько когда нужно написать или доработать код. Так запросы не тратятся впустую

    ⚡️ Ещё один лайфхак, который сильно сократил количество багов: прогоняю документацию нужного API или сервиса через MCP Context7. Модель тогда лучше понимает контекст и генерирует почти идеальный код с первого раза. Например, если вы хотите создать бота в Telegram, который будет отвечать через OpenRouter, вот вам промт:

    Изучи лучшие практики aiogram и openrouter используя mcp context7 и напиши код Telegram-бота, который будет отвечать на вопросы пользователей с помощью DeepSeek V3.1 (free)

    🛡 И да, Windsurf привередлив и в 90% случаев пишет «недоступно в вашей стране» – помогает JumbleConnect

    Это не реклама и не единственно верный путь – просто мой опыт и то, что лично мне сэкономило кучу времени и нервов. Если вы тоже устали от костылей в no-code, то можете попробовать.

    🙌 Хорошего воскресенья и удачных автоматизаций!
    А если будут вопросы – с радостью отвечу.

    🧩 ChatConnectYouTube

  • Jumble Connect: Мощное обновление! Мы полностью завершили переезд на новое оборудование! Теперь:

    🛡 Jumble Connect: Мощное обновление!
    ☄️ Мы полностью завершили переезд на новое оборудование!

    Теперь:
    🇳🇱 Сервер Швеция заменён на Нидерланды — он стал основным!
    ✦ Быстрый и стабильный доступ к AI! Подойдет большинству!

    🇺🇸 Сервер США был обновлён вчера и работает быстрее, чем когда-либо
    ✦ Для специализированных сервисов, доступных только в США

    🇩🇪 Германия — без изменений и по-прежнему стабильна
    ✦ Запасной вариант, низкие задержки как и у Нидерландов

    🎁 Всем пользователям серверов 🇺🇸 и 🇳🇱 добавлено +7 дней к подписке в знак благодарности!
    ‼️ Не забудьте нажать /start в боте, чтобы получить новый ключ и обновить его в приложении!

    Попробовать JumbleConnect

    🎁 Пробуйте бесплатно!
    Всем новым пользователям — бесплатный триал! Приглашайте друзей: и вам и другу +5 бонусных дней!

    🧩 JumbleChatConnectYouTube

  • Протестировал AI браузеры Comet (от Perplexity) и Atlas (от OpenAI)

Есть два режима:
  Обычный брау

    Протестировал AI браузеры Comet (от Perplexity) и Atlas (от OpenAI) Есть два режима: Обычный брау

    Протестировал AI браузеры Comet (от Perplexity) и Atlas (от OpenAI)

    Есть два режима:
    ⁃ Обычный браузер с чатбот функционалом. Как будто у тебя всегда открытка вкладка справа с Perplexity / ChatGPT.
    ⁃ Агентский режим (на фото снизу), имитирующий работу пользователя (может заполнять формы, искать информацию, переходить по ссылкам и кликать на кнопки, отдельно можно разрешить или запретить авторизоваться на сайтах)

    Краткое сравнение:
    ⁃ Движок: у обоих Chromium.
    ⁃ Платформы: у Comet — Windows & macOS, Atlas — только macOS
    ⁃ Цена: чатбот функционал — бесплатно, агентский режим входит в платную подписку Perplexity Pro или ChatGPT Plus соответственно.

    У AI браузеров выявлены уязвимости к промпт-инъекциям, поэтому делиться платежными данными или авторизоваться в основных аккаунтах я бы не стал.

    Результаты моих экспериментов:
    Оказалось, у меня не так много сценариев использования браузера, которые можно автоматизировать. Из самого очевидного я придумал протестировать на поиске отелей и билетов, поиске интересных твитов или статей про AI. Ни в одном из сценариев использование AI браузера не дало ускорения, но это определенно было весело. Из этих двух браузеров мне показалось, что Comet справляется с задачами чуть-чуть лучше, но это субъективно.

    Выводы: браузерами по умолчанию я их точно не сделаю, но буду экспериментировать дальше.

    Подписаться

  • Хорошая новость для тех, кто пользуется Codex CLICloud — для него теперь можно докупать кредиты, что

    Хорошая новость для тех, кто пользуется Codex CLICloud — для него теперь можно докупать кредиты, что

    Хорошая новость для тех, кто пользуется Codex CLI/Cloud — для него теперь можно докупать кредиты, чтобы продолжить работу после того, как уперлись в лимиты плана (Plus или Pro).

    $40 за 1000 кредитов

    Сообщество давно просило у OpenAI сделать план между $20 и $200 в месяц, и кто-то покупал несколько аккаунтов для переключения между ними, но вот теперь есть официальный способ.

    И сегодня всем скинули лимиты в честь этого события 🙂

    Экономику еще нужно будет проверить на практике, но это уже намного лучше, чем блокировка после 2 дней работы на плане за $20 или платить $200 в месяц за заведомо недостижимые лимиты и ненужный набор фич в подписке.

    Кстати, свои лимиты и баланс кредитов можно смотреть тут: https://chatgpt.com/codex/settings/usage

    Страница в хелпе с подробностями: https://help.openai.com/en/articles/12642688-using-credits-for-flexible-usage-in-chatgpt-pluspro

    #codex

    Хорошая новость для тех, кто пользуется Codex CLI/Cloud — для него теперь можно докупать кредиты, чтобы продолжить работу после того, как уперлись в лимиты плана (Plus или Pro).

    $40 за 1000 кредитов

    Сообщество давно просило у OpenAI сделать план между $20 и $200 в месяц, и кто-то покупал несколько аккаунтов для переключения между ними, но вот теперь есть официальный способ.

    И сегодня всем скинули лимиты в честь этого события 🙂

    Экономику еще нужно будет проверить на практике, но это уже намного лучше, чем блокировка после 2 дней работы на плане за $20 или платить $200 в месяц за заведомо недостижимые лимиты и ненужный набор фич в подписке.

    Кстати, свои лимиты и баланс кредитов можно смотреть тут: https://chatgpt.com/codex/settings/usage

    Страница в хелпе с подробностями: https://help.openai.com/en/articles/12642688-using-credits-for-flexible-usage-in-chatgpt-pluspro

    #codex

  • Эрик Шлунц (которого нужно слушать) недавно дал небольшое интервью о разном вокруг Claude Code и аге

    Эрик Шлунц (которого нужно слушать) недавно дал небольшое интервью о разном вокруг Claude Code и агентов.

    А слушать его стоит хотя бы потому, что он занимается исследованиями мультиагентных систем в Anthropic и влияет на их разработку, ну и за правильные взгляды — вспомнить те же стволы, ветки и листья 🙂

    Claude Code как агент общего назначения
    Благодаря появлению Agent SDK Claude Code теперь можно использовать не только для программирования.

    Если раньше для построения агента нам приходилось самим создавать agent loop, запросы к API, инструменты, реализовывать их выполнение, работу с файлами и MCP, то сейчас для этой задачи можно использовать SDK, который даёт готовый каркас для создания агентов.

    Claude Skills ложатся в ту же канву — это возможность расширения навыков Claude как агента общего назначения.

    Эволюция архитектуры агентов
    workflows — по-прежнему хороши там, где нужна низкая задержка, но вытесняются агентами там, где важнее абсолютное качество

    agent loops — модель самостоятельно выбирает нужные инструменты в цикле и исправляет ошибки, что в итоге значительно повышает качество в сравнении с workflows

    workflows of agents — каждый шаг в workflow представляет собой отдельного агента

    мультиагентные системы — несколько (суб)агентов работают одновременно над одной задачей или её подзадачами

    🔴 Проблемы мультиагентных систем
    Cообщество, кстати, про них прекрасно знает, и хорошо, что про них знают и в Anthropic.
    Плохо то, что они о них заранее не рассказывают, когда выпускают инструменты

    Наблюдаемость (observability) — несмотря на то, что модели стали гораздо более способными, простота всё ещё остаётся важной.
    И хотя можно построить большой workflow из агентов, лучше всё-таки начинать с самого простого и двигаться к более сложному решению, добавляя слои сложности только по необходимости, потому что это сильно затрудняет наблюдаемость.

    Кто бы мог подумать, а некоторые люди мучаются, между прочим!

    ● Как и люди, мультиагентные системы могут страдать от излишней бюрократии и коммуникационных издержек, когда агенты тратят больше времени на общение друг с другом, чем на выполнение задачи.

    Тут я почти сорвался и чуть не написал портянку с базой из теории информации в её приложении к коммуникациям в организациях, но об этом как-нить потом 🙂

    ● Claude совершает те же ошибки, что и неопытные менеджеры: он дает неполные или нечеткие инструкции субагенту и иногда ожидает, что у субагента будет правильный контекст, хотя на самом деле это не так.

    Часть исследований Эрика — это обучение Claude быть лучшим менеджером и знать, как давать четкие инструкции субагентам и убеждаться, что он получает от них то, что нужно.

    Забавно наблюдать, как антропоморфизм постепенно становится всё более и более явным и даже полезным в работе с моделями

    🟢 Советы разработчикам при работе с агентами
    начинайте с простого и добавляйте сложность только по мере необходимости

    думайте с позиции ваших агентов
    Поставьте себя на место модели и убедитесь, что вы дали достаточно информации, чтобы вы сами могли решить проблему. Стоит помнить, что модель видит только то, что мы ей показали.
    Также имеет смысл смотреть в сырые запросы и логи, чтобы понимать, что пересылается на самом деле

    не делайте MCP один к одному с вашими API
    Инструменты для модели или MCP должны быть 1:1 с вашим UI, а не с вашим API.
    Модель не работает как традиционная программа — она скорее ведёт себя как пользователь всех этих инструментов

    Про эту ошибку в создании MCP-серверов я тоже постоянно рассказываю, но аналогия с UI довольно полезная

    Будущее агентов
    Это, наряду с мультиагентностью, стоит читать как направления развития самих Anthropic

    Самостоятельная верификация: нужно научить агентов самостоятельно проверять свою работу. Например, агент, который написал веб-приложение, должен уметь открыть его в браузере, протестировать и исправить найденные баги

    Computer Use: возможность агентов взаимодействовать с GUI откроет огромные возможности для автоматизации задач в любых приложениях, с которыми работают люди

    #video #reaction #interview

  • SDD на максималках и Lovable для бекендов: новинки YC из мира AI dev tools С некоторых пор я полюби

    SDD на максималках и Lovable для бекендов: новинки YC из мира AI dev tools

    С некоторых пор я полюбил отсматривать стартапы, прошедшие отбор в Y Combinator (на минуточку, топовейший акселератор). Во многом потому, что YC — один из немногих акселей, который смело вкладывается в Dev Tools продукты (из примеров: GitLab, Amplitude, Algolia, OneSignal и т.д.).

    В сумме AI dev tools в этом батче там штук 10, но вот эти мне показались наиболее интересными:

    Specific — позволяет генерить бекенд (эндпоинты) на естественном языке — вроде, полезная штука для каких-нибудь Lovable приложений (хоть, лавабл уже и сам поддерживает создание бекендов). Этот я успел немного потыкать — с задачей написать эндпоинт для перевода текста через ллмки OpenAI оно так справится и не смогло.

    Deeptrace — штуковина, которая коннектится к вашим логам, кодбазе и алертам и на каждый алерт провод расследование, (пытаясь) выявить корень проблемы. Пока что доступна только демка, но сама идея интересна — мб кто-то из нас что-то подобное тоже пилит, тогда присмотритесь к их лендосу. Лендосы YC стартапов — это всегда отдельная интересная история — я уверен, что их там активно натаскивают на хорошие, понятные (продающие) лендинги.

    Compyle — лозунг «Lovable for Software Engineers». А по сути, это тот же Codex Cloud, только умеющий задавать вопросы перед тем, как приступить к кодогенерации. Это как раз пример SDD (Spec-Driven Development) — фактически, они помогают из вайб-промпта создать спеку. Получился эдакий Plan Mode на максималках. Вообще, забавно, что они так и пишут прямо у себя на сайте, что эта штука под капотом юзает Claude Code. Из интересного — как и наш CodeAlive, поддерживает работу с мультирепозиториями. Пока что работает бесплатно.
    Ну, и интереса ради с помощью этой тулы я за ван шот законтрибьютил нужную нам фичу в опенсорный проект Fluid на .NET (это шаблонизатор, который классно подходит для промптов). Вот PR, с виду выглядит все четко и тесты проходят, ждем что скажут ревьюеры). Мне, в целом, понравился опыт.

    Fastshot — Lovable для мобильных приложений.

    Полный список по ссылке.

    Что нам с этого, спросите вы?
    Ну, во-первых, не исключено, что кто-то мог искать подобные продукты. Во-вторых, факт прохождение стартапа в YC сам по себе весьма ценен и означает, что идея очень даже имеет право на жизнь, а значит, кто-то из вас может вдохновиться, как и мы когда-то, попробовать сделать свой стартап, ну или просто успешный пет-проект (главное только, чтоб не B2B).

    А какой продукт или идея из осеннего батча YC вам приглянулась больше всего?

    Кстати, неочевидное открытие, которые я сделал пока готовил этот пост — это то, что в компания SST тоже резидент YC, причем аж в 2021 они проходили программу и получали от них деньги. Для тех, кто не в курсе SST — авторы одного из наиболее успешного open source кодагента OpenCode.

    @ai_driven

  • Знакомьтесь: ChatGPT Atlas  браузер будущего от OpenAI!

Теперь ChatGPT живёт прямо внутри браузера.

    Знакомьтесь: ChatGPT Atlas браузер будущего от OpenAI! Теперь ChatGPT живёт прямо внутри браузера.

    🔥 Знакомьтесь: «ChatGPT Atlas» — браузер будущего от OpenAI!

    Теперь ChatGPT живёт прямо внутри браузера. Можно читать сайт и тут же спрашивать ИИ о любом тексте — без копирования, без вкладок, всё на месте.

    💡 Atlas умеет:
    ✦ Анализировать сайты и писать резюме
    ✦ Запоминать контекст и помогать с учётом прошлых запросов
    ✦ В режиме Agent сам бронировать, заполнять формы, искать нужное
    ✦ Редактировать тексты и код прямо на странице

    ⚡️ Уже доступен на macOS, версии для Windows и мобильных — скоро
    ➡️ Скачать для macOS можно тут: chatgpt.com/atlas/get-started

    🎁 И приятный бонус! При первом обращении к ChatGPT в Atlas получите месяц бесплатной подписки!

    🧩 ChatConnectYouTube

  • Влияние AI инструментов на рынок разработки Существует множество различных сценариев как AI coding

    Влияние AI инструментов на рынок разработки

    Существует множество различных сценариев как AI coding ассистенты изменят рынок разработки через 5 лет, но я бы выделил следующие:
    1️⃣ Ничего не изменится. AI инструменты не окажут значительного влияния на рынок разработки.
    2️⃣ AI — всего лишь новый инструмент разработчика, как IDE или новый язык программирования. Эффективность труда повысится, но рынок разработки существенно не изменится.
    3️⃣ AI совершит революцию и рынку больше не нужно будет столько разработчиков.
    4️⃣ AI совершит революцию, но рынку может понадобится еще больше разработчиков, потому что ранее нерентабельные проекты станут рентабельными. Роль разработчика и скиллсет существенно изменятся.

    Изменения будут не однородными и зависят как минимум от следующих факторов:
    — Опыт разработчика
    — Корпорация vs стартап
    — Frontend vs Backend vs Mobile vs DS & ML vs Management
    — Регион и зарплата
    — Готовность адаптироваться к новым инструментам и процессам

    Я не умею предсказывать будущее и текущих данных недостаточно, чтобы однозначно сказать по какому сценарию будет развиваться рынок разработки, но я пристально слежу за количеством сокращений, активностью найма, трудозатратами на поиск новой работы и изменениями в зарплатах.

    PS: На недавней онлайн-конференции мы обсудили тему детальнее. Вчера выложили записи, бесплатный доступ можно получить на сайте ai-dev.live.

    Подписаться

  • Ускоряем AI-агентов Вы никогда не начинали скучать, пока Claude Code или, тем более, Codex тихонько

    Ускоряем AI-агентов

    Вы никогда не начинали скучать, пока Claude Code или, тем более, Codex тихонько лопатит какую-либо задачу? У меня такое возникает регулярно, и у многих разработчиков, с которыми я общаюсь, тоже.
    Хорошая новость в том, что есть пара решений этой проблемы.

    Haiku 4.5
    Anthropic на днях выпустили новую модельку Haiku 4.5 — я уже успел ее потестить, и, по моим ощущениям, всякие простые правки и легкие багфиксы она действительно делает в разы быстрее, чем Sonnet 4.5. Больше того, я даже успел потестить эту модельку в UI тестах через playwright MCP — и, опять же, несложные тесты она довольно бодро прокликивает и выполняет. Что касается более сложных тестов — например, проверка всевозможных тест кейсов на активацию подписки Хайку не далась.

    Кстати, запустить Claude полностью в режиме Haiku можно вот так:

    claude --model haiku

    А для тех, кто работает с CC через AWS вот так:

    ANTHROPIC_MODEL='global.anthropic.claude-haiku-4-5-20251001-v1:0' 
    claude

    CodeAlive MCP — универсальное ускорение
    И, как я уже рассказывал на недавней конференции, есть и более универсальный способ ускорить ваших AI-агентов, а именно, подключить обогащение контекста из CodeAlive через MCP, в этом случае AI-агент (Cursor, Codex, Cursor, OpenCode) и т. д. получат возможность задавать CodeAlive вопросы на естественном языке (пример: «как работает регистрация?») и очень быстро получать от CodeAlive список релевантных функций и классов, экономя тем самым агенту десятки шагов. Кстати, на проектах с большой кодовой базой, CodeAlive помимо ускорения, еще и точность и качество работы агента повысит. Чтобы не быть голословным, мы прогнали бенчмарк SWE bench Verified на обычном Claude Code и Claude Code с CodeAlive. Результат: среднее ускорение в задачах на 30%, а на больших задачах получили ускорение до 83%. Если вам интересно узнать больше о CodeAlive — напишите мне и я лично проведу вам онбординг.

    А как вам новая Haiku? И насколько важный фактор для вас скорость работы агента?

    NB. Я готовлю большой пост про использование AI в реализации больших фич в сложных проектах с описанием всех этапов — от проектирования до UI-тестирования. Если у вас есть интересные кейсы с UI тестированием через AI агентов — поделитесь в комментах к этому посту или мне в ЛС.
    А ещё мы готовим два новых практических воркшопа:
    — с Максимом @etechlead про Claude Code и субагентов;
    — и с Костей Дорониным @kdoronin_blog про практику GraphRAG.
    Совсем скоро будет анонс, так что следите за обновлениями в канале.

    Кстати, очень рад приветствовать новых подписчиков на своем канале! Чуть позже я расскажу о себе подробнее, а вы о себе. Спасибо, что читаете.

    @ai_driven

  • Доступ ко всем серверам восстановлен! Друзья, мы всю ночь не спали настраивали, тестировали И с

    🔥 Доступ ко всем серверам восстановлен!

    Друзья, мы всю ночь не спали — настраивали, тестировали… И сделали это! Доступ к нейросетям через Jumble Connect снова полностью работает!

    Что нужно сделать вам:

    Зайдите в нашего бота @JumbleVPN_bot
    Нажмите «🔑 Мои ключи»
    Скопируйте новый ключ
    Вставьте его в приложение

    🗑 Старые ключи больше не работают — их можно смело удалять.

    Благодарим за терпение и поддержку! Вы — лучшие, и ради вас мы готовы решать задачи любой сложности 💪

    ☄️ Скорости и стабильности вам!
    — Команда Jumble Connect 🛡

    🧩 JumbleChatConnectYouTube

  • Друзья! В сервисе Jumble Connect снова произошла блокировка американского сервера для доступа к н

    📌 Друзья!

    🛡 В сервисе Jumble Connect снова произошла блокировка 🇺🇸 американского сервера для доступа к нейросетям в России

    От нас это не зависело, но мы уже делаем всё возможное, чтобы вернуть стабильный доступ к ИИ ✔️

    🆓 В знак поддержки всем пользователям добавлено +10 дней бесплатного использования сервера 🇸🇪 Швеция — можно спокойно продолжать работать, учиться, развиваться и всячески внедрять ИИ в вашу жизнь!

    Спасибо всем за понимание и доверие 💙
    Команда Jumble Connect 🛡

    🧩 ChatConnectYouTube

  • Уровни внедрения ИИ в разработку v2 Так, ну что, настало время обновить классификацию, уже 7 месяце

    Уровни внедрения ИИ в разработку v2

    Так, ну что, настало время обновить классификацию, уже 7 месяцев прошло с первой версии.

    Disclaimer: уровни довольно условные и скорее нужно их воспринимать как то, насколько далеко мы от ручной работы с кодом.

    0. Изоляция
    Ну, кажется, не осталось программистов, которые ничего не слышали про использование ИИ в разработке.

    Но если встретите таких — не спугните, это же как йети, с ними крайне интересно познакомиться 🙂

    1. Сниппетинг
    Использование сайтов ChatGPT/DeepSeek для написания мелких скриптов/функций от случая к случаю

    2. Копипастинг
    Систематическая разработка при помощи ИИ через копипастинг кода между каким-то UI к LLM и своей IDE.

    Ускоряется в несколько раз износ Ctrl/C/V (ну или Ctrl/Shift/Insert, у членов древнего секретного ордена).

    Кстати, сюда же попадает использование Repomix / Prompt Tower для склейки файлов проекта в один и отправки в AI Studio, к примеру, где у Gemini есть хороший 1м контекст.

    3. Автодополнение
    Использование одного лишь ИИ-автодополнения в процессе написания кода руками в своей IDE — собственно с этого всё и началось, когда вышел GitHub Copilot аж 300 лет тому назад (ну, ~3.5 года, если быть точнее, я был там, Гендальф).

    4. AI IDE
    Когда в IDE используется чат с LLM и/или агент: Cursor / Windsurf / RooCode / Cline.

    В них можно интерактивно общаться с LLM и давать ей небольшие задачи для автономного выполнения, а LLM как часть агента уже сама найдёт нужный код в проекте, сама его поправит, сама выловит ошибки, и потом покажет diff, который можно поревьюить.
    А ещё с этого уровня у нас появляются MCP, правила для агентов, простенькая память и проблематика контекста (если что, см. воркшоп, там про контекст много).

    5. CLI-агенты
    Отказываемся от GUI, переходим в консоль и кастомизируем агента под свои нужды и процессы: Claude Code, Codex CLI, Gemini CLI, etc, со своими плюсами и минусами в сравнении с IDE.

    Здесь же появляются кастомные команды, субагенты и разнообразные workflows, в которых агент, пишущий код — лишь часть общего процесса.

    6. Фоновые агенты и агенты полного цикла
    Тут у нас Codex Cloud, Google Jules, GitHub Copilot coding agent и даже Cursor Background Agent как фоновые агенты в облаках, и работающие в основном с GitHub.
    А также Devin / OpenHands — они способны в условном Slack принять от вас задачу, зададут вопросы, сходят в Git, залезут в базу знаний проекта, напишут код, потестят его, запушат и передадут на ревью, получат зарплату.

    Между этими изначально двумя разными видами систем идёт конвергенция и, думаю, какой-то их гибрид сильно повлияет на будущее разработки.

    7. (Secret Level)
    Встречаются специальные маньяки, которые пишут свои мультиагентные системы под задачи разработки целых проектов.
    Задачи у них тоже довольно специальные, но, как правило, интересные и весьма нетривиальные.

    Здесь постепенно зарождается свой набор инструментария для высокоуровневой работы, который в перспективе может заменить привычные нам интерфейсы и позволит оркестрировать множество разнородных агентов.

    У меня сейчас такое распределение получается в задачах разработки:
    ● 80% — №5, CLI-агенты с кастомными workflows
    ● 10% — №6, фоновые агенты для задач, которые случается делать не за рабочим местом
    ● 10% — №7, исследования по оркестрации мультиагентных систем

    А как у вас обстоят дела (см. голосование дальше)?

    Напоминаю про нашу конфу по AI-разработке во вторник, 14го!
    🔜 ai-dev.live 🔙

    #ai #development

  • AI Dev 2025 Ну что ж, к осени 2025го уже всем стало понятно, что тренд на автоматизацию разработки

    AI Dev 2025

    Ну что ж, к осени 2025го уже всем стало понятно, что тренд на автоматизацию разработки наметился довольно чётко.

    А вот динамика очень сильно разнится.

    Сейчас в индустрии одновременно присутствуют как инструменты, на добрый порядок различающиеся по своему качеству и степени автоматизации, так и те, кто использует эти инструменты так же на порядок (не)эффективнее.

    И тут ничего удивительного — сейчас почти каждый день появляется что-то новое, улучшается старое, и стало очень сложно выбрать между тем, что реально приносит пользу, а что на самом деле просто маркетинговый мусор.

    Соответственно, наибольшую ценность представляет мнение и опыт тех, кто является реальными практиками, сами успешно строят продукты с помощью ИИ, и понимают, что является ценным, а что нет.

    Именно такие люди собрались и решили провести конференцию, где расскажут о современных, рабочих подходах и инструментах для автоматизации и ускорения процесса разработки.

    В программе: создатели собственных продуктов для ИИ-разработки, фаундеры компаний, эксперты по внедрению ИИ в enterprise, прожжённые технари, талантливые организаторы, умеющие пасти котов, дизайнеры модной одежды для разрабов, веломаньяки и даже перспективный ютубер!

    Ожидается легкий флёр упоротости людей, увлечённых своим делом, куча полезной инфы и горячая дискуссия о будущем рынка разработки.

    Итак, 14 октября, онлайн, 14:00-19:30 МСК.
    (есть возможность участвовать бесплатно)

    Все подробности и регистрация тут:

    🔜 ai-dev.live 🔙

    P.S. я и сам в некотором роде спикер — расскажу, как вижу роль архитектуры и накопленного за 20 лет опыта в этом новом мире вайба 🙂

    #aidev2025 #анонс #нереклама

  • Конференция по использованию AI в разработке

Знакомые ребята позвали поучаствовать в конференции пр

    Конференция по использованию AI в разработке Знакомые ребята позвали поучаствовать в конференции пр

    Конференция по использованию AI в разработке

    Знакомые ребята позвали поучаствовать в конференции про AI-разработку. Без воды и булшита. Только личный опыт от техлидов, фаудеров AI Dev Tools и CTO. Уверен, многих из спикеров вы как и я читаете в Телеграм.

    В программе 6 докладов про эффективное использование AI инструментов в разработке для разного уровня подготовки от начинающих инженеров до авторов собственных тулов, от индивидуальных контрибьюторов до руководителей команд и департаментов.

    Я буду рассказывать про Context Engineering и использование AI кодинга в энтерпрайзе.

    Дата: 14 октября, 14:00 (МСК), 16:00 (Алматы), 13:00 (CET)

    Пересылайте этот пост коллегам и друзьям, которым это было бы интересно и увидимся 14 октября!

    Посмотреть детали и зарегистрироваться

  • Конференция по использованию AI в разработке

Знакомые ребята позвали выступить на конференции про A

    Конференция по использованию AI в разработке Знакомые ребята позвали выступить на конференции про A

    Конференция по использованию AI в разработке

    Знакомые ребята позвали выступить на конференции про AI-разработку. Без воды и булшита. Только личный опыт от техлидов, руководителей разработки и CTO. Уверен, многих из спикеров вы как и я читаете в Телеграм.

    В программе 6 докладов про эффективное использование AI инструментов в разработке для разного уровня подготовки от начинающих инженеров до авторов собственных тулов, от индивидуальных контрибьюторов до руководителей команд и департаментов. Сам планирую послушать все выступления — хорошо, что будет запись.

    Дата: 14 октября, 14:00 (мск)

    Посмотреть детали и зарегистрироваться

  • Меморандум CodeAlive <> холдинг Байтерек

Кто следит за моим каналом — знают, что я являюсь ко

    Меморандум CodeAlive <> холдинг Байтерек Кто следит за моим каналом — знают, что я являюсь ко

    Меморандум CodeAlive <> холдинг Байтерек

    Кто следит за моим каналом — знают, что я являюсь кофаундером CodeAlive — это Context-Engine-as-a-Service, который обогащает кодагентов релевантным контекстом, тем самым существенно повышая качество конечного результата и ускоряя их. Продукт актуален для больших и средних команд разработки, у которых накопилось достаточное количество кода, в котором Cursor, Claude Code, Codex и т. д. начинают «плавать» из-за масштаба и сложности.
    Так вот, в эту пятницу случился большой день для CodeAlive — мы подписали меморандум о сотрудничестве с холдингом Байтерек (в холдинг входят: Отбасы Банк, «ДАМУ», Аграрная кредитная корпорация (ACC) и еще ряд организаций). Новость на zakon.kz.
    Благодарю руководство Байтерек за оказанное доверие, а также свою команду за терпение и невероятную усидчивость в решении самых сложных задач. Несмотря на то, что мы работаем над продуктом уже полтора года, для нас все самое интересное только начинается!

    А если вы тоже хотите усилить своих кодагентов, то самое время попробовать CodeAlive с обновленным MCP модулем. А по вопросу Enterprise лицензии с on-prem опцией можно написать мне лично: @rodion_m_tg

    NB. Отдельное спасибо подписчикам моего канала за поддержку и детальный фидбек по CodeAlive, без вас продвинуться вперед было бы невозможно.

    Меморандум CodeAlive <> холдинг Байтерек

    Кто следит за моим каналом — знают, что я являюсь кофаундером CodeAlive — это Context-Engine-as-a-Service, который обогащает кодагентов релевантным контекстом, тем самым существенно повышая качество конечного результата и ускоряя их. Продукт актуален для больших и средних команд разработки, у которых накопилось достаточное количество кода, в котором Cursor, Claude Code, Codex и т. д. начинают «плавать» из-за масштаба и сложности.
    Так вот, в эту пятницу случился большой день для CodeAlive — мы подписали меморандум о сотрудничестве с холдингом Байтерек (в холдинг входят: Отбасы Банк, «ДАМУ», Аграрная кредитная корпорация (ACC) и еще ряд организаций). Новость на zakon.kz.
    Благодарю руководство Байтерек за оказанное доверие, а также свою команду за терпение и невероятную усидчивость в решении самых сложных задач. Несмотря на то, что мы работаем над продуктом уже полтора года, для нас все самое интересное только начинается!

    А если вы тоже хотите усилить своих кодагентов, то самое время попробовать CodeAlive с обновленным MCP модулем. А по вопросу Enterprise лицензии с on-prem опцией можно написать мне лично: @rodion_m_tg

    NB. Отдельное спасибо подписчикам моего канала за поддержку и детальный фидбек по CodeAlive, без вас продвинуться вперед было бы невозможно.

  • Anthropic выкатили новую модель  Claude Sonnet 4.5!

Компания заявляет, что это лучшая модель для ко

    Anthropic выкатили новую модель Claude Sonnet 4.5! Компания заявляет, что это лучшая модель для ко

    🔥 Anthropic выкатили новую модель — Claude Sonnet 4.5!

    Компания заявляет, что это лучшая модель для кодинга в мире на сегодня!

    Что нового:
    ✦ Программирование – Бьет рекорды на бенчмарке SWE-bench, обходя всех конкурентов
    Логика и математика – Значительный прирост в решении сложных задач
    Инструменты для разработчиков – Выпустили Claude Agent SDK, чтобы каждый мог создавать своих агентов!
    Цена – Осталась прежней, как у Sonnet 4!

    Модель уже доступна:
    ✦ По API на офф сайте и OpenRouter
    ✦ В Cursor AI и других IDE

    ➡️ Потестить бесплатно можно на LMArena

    🧩 ChatConnectYouTube

  • Sonnet 4.5, Claude Code 2.0 и Claude Agent SDK

Целый пучок релизов от Anthropic :)
Самые интересные

    Sonnet 4.5, Claude Code 2.0 и Claude Agent SDK Целый пучок релизов от Anthropic 🙂 Самые интересные

    Sonnet 4.5, Claude Code 2.0 и Claude Agent SDK

    Целый пучок релизов от Anthropic 🙂
    Самые интересные, на мой взгляд, вещи из анонсов:

    Sonnet 4.5

    ● «лучшая модель для кодинга в мире» — ну это мы ещё проверим в течение пары дней 🙂
    ● очень хорошие приросты по агентским задачам, приросты по кодингу не такие впечатляющие, но тоже неплохие
    ● контекст всё ещё 200к в базе, и 1м для небольшого количества избранных

    Claude Code 2.0

    Внешние изменения:

    ● поддержка чекпойнтов (наконец-то!) — /rewind
    ● просмотр оставшихся лимитов (ещё раз наконец-то!) — /usage
    ● сделали нативное расширение для VS Code
    ● Ctrl-R теперь отвечает за поиск по прошлым промптам
    ● Tab переключает thinking / non-thinking режимы (правда, непонятно, какого уровня thinking)
    ● ну и небольшой редизайн 🙂

    Внутренние изменения:
    возможность редактирования контекста «на ходу» (выдана самому Claude Code и доступна по API, чтобы можно было активно из контекста выкусывать ставшие ненужными куски, такие как вызовы тулов, к примеру)
    ● Claude Code теперь сам знает, сколько у него осталось контекста и использует эту информацию, чтобы активно его редактировать, даже без компактизации
    новый инструмент Memory — для того, чтобы агент мог некоторые сведения хранить в папке /memories проекта — по сути, это небольшие записки, которые агент посчитал важными для того, чтобы сохранить и использовать позже. Возможности по работе с этой памятью так же доступны в API

    Claude Agent SDK

    ● переименовали из Claude Code SDK
    ● по сути, это всё тот же движок Claude Code, но который теперь позволяет строить агентов не только для кодинга, но и агентов общего назначения
    ● теперь системный промпт не завязан чисто на код и агент не вычитывает CLAUDE.md, slash-команды и прочее на старте — это всё можно переопределить
    ● поддерживает добавление кастомных тулов с использованием встроенных MCP-серверов (которые прям внутри процесса Claude Code запускаются)
    ● словом, если вы хотите сделать что-то типа Claude Code, но для финансов, персонального ассистента, саппорта — это теперь можно сделать, используя Claude Agent SDK

    Не выглядит революцией, но апдейты годные, будем пробовать 🙂

    #news #model

    Sonnet 4.5, Claude Code 2.0 и Claude Agent SDK

    Целый пучок релизов от Anthropic 🙂
    Самые интересные, на мой взгляд, вещи из анонсов:

    Sonnet 4.5

    ● «лучшая модель для кодинга в мире» — ну это мы ещё проверим в течение пары дней 🙂
    ● очень хорошие приросты по агентским задачам, приросты по кодингу не такие впечатляющие, но тоже неплохие
    ● контекст всё ещё 200к в базе, и 1м для небольшого количества избранных

    Claude Code 2.0

    Внешние изменения:

    ● поддержка чекпойнтов (наконец-то!) — /rewind
    ● просмотр оставшихся лимитов (ещё раз наконец-то!) — /usage
    ● сделали нативное расширение для VS Code
    ● Ctrl-R теперь отвечает за поиск по прошлым промптам
    ● Tab переключает thinking / non-thinking режимы (правда, непонятно, какого уровня thinking)
    ● ну и небольшой редизайн 🙂

    Внутренние изменения:
    возможность редактирования контекста «на ходу» (выдана самому Claude Code и доступна по API, чтобы можно было активно из контекста выкусывать ставшие ненужными куски, такие как вызовы тулов, к примеру)
    ● Claude Code теперь сам знает, сколько у него осталось контекста и использует эту информацию, чтобы активно его редактировать, даже без компактизации
    новый инструмент Memory — для того, чтобы агент мог некоторые сведения хранить в папке /memories проекта — по сути, это небольшие записки, которые агент посчитал важными для того, чтобы сохранить и использовать позже. Возможности по работе с этой памятью так же доступны в API

    Claude Agent SDK

    ● переименовали из Claude Code SDK
    ● по сути, это всё тот же движок Claude Code, но который теперь позволяет строить агентов не только для кодинга, но и агентов общего назначения
    ● теперь системный промпт не завязан чисто на код и агент не вычитывает CLAUDE.md, slash-команды и прочее на старте — это всё можно переопределить
    ● поддерживает добавление кастомных тулов с использованием встроенных MCP-серверов (которые прям внутри процесса Claude Code запускаются)
    ● словом, если вы хотите сделать что-то типа Claude Code, но для финансов, персонального ассистента, саппорта — это теперь можно сделать, используя Claude Agent SDK

    Не выглядит революцией, но апдейты годные, будем пробовать 🙂

    #news #model

  • Запись митапа по Claude Code Ура, митап состоялся, и в этот раз у нас есть-таки запись: https:youtu

    Запись митапа по Claude Code

    Ура, митап состоялся, и в этот раз у нас есть-таки запись: https://youtu.be/gte_yH6Eue4

    Спасибо Максиму @etechlead за шикарное выступление!

    Затронутые темы:
    [00:01:08 — Что такое кодовый агент?](https://youtu.be/gte_yH6Eue4?t=68)
    [00:05:02 — Почему популярны консольные (CLI) агенты?](https://youtu.be/gte_yH6Eue4?t=302)
    [00:12:01 — Анатомия кодового агента](https://youtu.be/gte_yH6Eue4?t=721)
    [00:18:46 — Context Engines](https://youtu.be/gte_yH6Eue4?t=1126)
    [00:20:59 — CodeAlive: context-as-a-service](https://youtu.be/gte_yH6Eue4?t=1259)
    [00:35:44 — Цикл работы агента (Agent Loop)](https://youtu.be/gte_yH6Eue4?t=2144)
    [00:38:53 — Погружение в работу контекста](https://youtu.be/gte_yH6Eue4?t=2333)
    [00:48:16 — Техники управления контекстом](https://youtu.be/gte_yH6Eue4?t=2896)
    [01:06:54 — Субагенты: ключевая особенность Claude Code](https://youtu.be/gte_yH6Eue4?t=4014)
    [01:29:17 — Кастомные субагенты](https://youtu.be/gte_yH6Eue4?t=5357)
    [01:37:45 — Сравнение Claude Code и Codex](https://youtu.be/gte_yH6Eue4?t=5865)
    [01:56:07 — Codex Cloud и фоновые агенты](https://youtu.be/gte_yH6Eue4?t=6967)
    [02:01:31 — Будущее AI-разработки и решение проблемы сложности](https://youtu.be/gte_yH6Eue4?t=7291)

    Ссылки, которые были упомянуты на звонке:
    ● Канал Максима, Этихлид
    ● Канал Родиона, AI-Driven Development
    CodeAlive — тот самый context-(engine)-as-a-service, о котором говорили в рамках темы предоставления контекста агентам
    Context Arena — бенчмарки качества удержания контекста моделями, там и OpenAI MRCR с иголками, и ссылка на Fiction.LiveBench

    Небольшой тизер: предварительно в октябре планируется онлайн-конференция, где я буду читать доклад о проблемах AI-кодинга в Enterprise разработке и их решении. Полезного контента на конфе будет море, так что следите за новостями.

    Ну и напомню, что 11 октября я выступаю с докладом про Context Engineering в эпоху AI на Kolesa Conf’25.

    #claudecode #cc #live #stream #meeup #agents #codealive

  • Общие принципы работы кодовых агентов и Claude Code Codex Ура, воркшоп состоялся, и в этот раз у н

    Общие принципы работы кодовых агентов и Claude Code / Codex

    Ура, воркшоп состоялся, и в этот раз у нас есть-таки запись 🙂

    Спасибо Родиону за приглашение и всем тем, кто пришёл и задавал вопросы!

    Затронутые темы:
    00:01:08 — Что такое кодовый агент?
    00:05:02 — Почему популярны консольные (CLI) агенты?
    00:12:01 — Анатомия кодового агента
    00:18:46 — Context Engines
    00:20:59 — CodeAlive: context-as-a-service
    00:35:44 — Цикл работы агента (Agent Loop)
    00:38:53 — Погружение в работу контекста
    00:48:16 — Техники управления контекстом
    01:06:54 — Субагенты: ключевая особенность Claude Code
    01:29:17 — Кастомные субагенты
    01:37:45 — Сравнение Claude Code и Codex
    01:56:07 — Codex Cloud и фоновые агенты
    02:01:31 — Будущее AI-разработки и решение проблемы сложности

    Ссылки, которые были упомянуты на звонке:
    ● Канал Родиона, AI-Driven Development
    CodeAlive — тот самый context-(engine)-as-a-service, о котором говорили в рамках темы предоставления контекста агентам
    Context Arena — бенчмарки качества удержания контекста моделями, там и OpenAI MRCR с иголками, и ссылка на Fiction.LiveBench

    На некоторые неотвеченные вопросы ответил в комменте к этому посту (чтобы не пропускать такие штуки, можно вступить в чат канала).

    Небольшой тизер: предварительно в октябре планируется онлайн-конференция, где буду читать доклад о роли архитектуры и классического процесса разработки в мире вайбкодинга и как это можно совмещать.

    Полезного контента на конфе будет море, так что следите за новостями 🙂

    #stream #workshop #agents

  • Давно ничего не писал, сначала был в отпуске, а в сентябре было много профессиональных и личных собы

    Давно ничего не писал, сначала был в отпуске, а в сентябре было много профессиональных и личных событий:
    ушел из домена, в котором работал 9 лет, и возглавил новую команду AI for Tech,
    выступил на AIAI Berlin Chief of AI Conference с темой «The future of Software Engineering». Главный личный инсайт: на аудиторию из 200+ руководителей нашелся только один, кто не заметил положительных изменений в разработке с внедрением AI-инструментов,
    сегодня дедлайн по подаче научных статей на ревью на конференцию ICLR — первые публичные результаты нашей небольшой AI лабы, которую я стартовал год назад,
    завтра выступаю на TechEx AI & Big Data Expo, если вы тоже на конференции — пишите, пересечемся,
    в октябре планируются другие конференции с моим участием, про которые напишу отдельно.

    Скоро вернусь к регулярному ритму постов.

  • Grok 4 Fast меняет правила игры!

Друзья, xAI выкатили то, что может серьезно встряхнуть рынок  моде

    Grok 4 Fast меняет правила игры! Друзья, xAI выкатили то, что может серьезно встряхнуть рынок моде

    🔥 Grok 4 Fast меняет правила игры!

    Друзья, xAI выкатили то, что может серьезно встряхнуть рынок — модель Grok 4 Fast

    Если коротко: это мощь флагманского Grok 4, но с ошеломляющим снижением стоимости на 98%. Это делает топовый ИИ доступным как никогда раньше!

    ☄️ Мощь и скорость: Производительность на уровне лучших моделей, но в разы быстрее и дешевле.

    ➡️ Модель уже доступна на Grok.com, X.com, и по API в OpenRouter

    💬 @JumbleGPT_bot обновлён: Grok 4 Fast заменил Grok Coder. Ждите более быстрых и умных ответов!

    ⚠️ ВАЖНО: О будущем проекта @JumbleGPT_bot
    Доступ к таким моделям дорогой. Если проект не станет самоокупаемым — придется закрыть.

    Пишите в комментариях:
    ✦ Что добавить/улучшить в боте?
    ✦ Какая цена подписки для вас актуальна?

    📊 [Проголосовать оставлять или закрывать]

    🧩 ChatConnectGPTYouTube

  • Как ИИ меняет требования к навыкам разработчика Большие языковые модели и кодовые агенты автоматизи

    Как ИИ меняет требования к навыкам разработчика

    Большие языковые модели и кодовые агенты автоматизируют рутину, меняя то, как мы разрабатываем. Традиционные навыки становятся базовым ожиданием, а не тем, за что нанимают инженеров

    Взамен, фокус смещается на высокоуровневые задачи, где нужен человеческий интеллект:
    — Выработка стратегического видения и понимание бизнес-целей
    — Проектирование и планирование поступательного развития системы
    — Следование избранному дизайну и архитектуре и ее своевременная адаптация
    — Управление сложностью и качеством системы

    Другими словами, все разработчики теперь должны быть немножко (а в скоре и множко) техлидами

    Только что посмотрел подкаст с Кент Беком (старый дед, который программирует 52 года, отец Agile-манифеста, Экстремального Программирование и Test Driven Development)

    Спасибо Максу, автору канала Этихлид, за кайфовый подгон в комментариях)

    П.С. С удовольствием посмотрел, чего и вам советую. Очень полезно послушать любому уровня миддл+ и выше

  • Смотрю, некоторые путаются в том, что такое Codex.
Но тут всё на самом деле очень просто:

 Codex CL

    Смотрю, некоторые путаются в том, что такое Codex. Но тут всё на самом деле очень просто: Codex CL

    Смотрю, некоторые путаются в том, что такое Codex.
    Но тут всё на самом деле очень просто:

    Codex CLI — это консольный агент для кодинга

    Codex cloud (но иногда — Codex web) — это то, что доступно на сайте ChatGPT. Является веб-приложением вокруг облачного фонового агента

    Codex IDE extension — ну тут понятно, расширение VSCode (которое, кстати, построено вокруг Codex CLI)

    GPT‑5‑Codex — модель для… Codex, тюн GPT-5 под задачи кодинга

    codex‑1 — модель, которая работала где вы думаете? В Codex! В сloud — в том, который ещё web.
    Это был тюн o3 для кодинга, недавно её заменили на GPT-5-Codex (но это не точно)

    codex-mini-latest — модель, тюн o4-mini, которая была создана для самого первого Codex CLI в далёком апреле 2025го

    OpenAI Codex — модель, использовавшаяся для GitHub Copilot в 2021-2023гг

    ● А, ну и по мелочи — существовали «старые» Codex CLI и Codex IDE extension, которые к выходу GPT-5 были заменены новыми реализациями с потерей обратной совместимости и переводом на Rust вместо TypeScript, и некоторое время сосуществовали с «новыми»

    Видите, всё максимально понятно.
    Ждём больше Codex’ов!

    (фото из секретных архивов OpenAI с тем самым человеком, который каждый следующий продукт предлагает назвать Codex)

    #sarcastaball

  • Митап по Claude Code, Codex и их контекст v2

Суббота 27 сентября 17:00 МСК, 16:00 CEST и 19:00 Алма

    Митап по Claude Code, Codex и их контекст v2 Суббота 27 сентября 17:00 МСК, 16:00 CEST и 19:00 Алма

    Митап по Claude Code, Codex и их контекст v2

    Суббота 27 сентября 17:00 МСК, 16:00 CEST и 19:00 Алматы.
    Вы просили, мы сделали! Уж очень хорошая получилась встреча с @etechlead — Максиму удается подавать материал очень просто и структурированно, поэтому % удержания аудитории на встрече был близок к 100 от начала до конца. Мы вам обещали запись, но мы не осилили Zoom по техническим причинам нормально записать встречу не получилось, поэтому мы решили ещё лучше подготовиться во всех смыслах и повторить митап с хорошей записью для YouTube.

    Вообще, я бы очень рекомендовал эту встречу не только программистам, но и руководителям для лучшего понимания того, что сейчас происходит в области AI- assisted разработки и как это все работает.

    В программе:
    ● Анатомия кодингового агента
    ● Контекст и внимание
    ● Цикл работы агента
    ● Возможности Claude Code (команды, субагенты, модели, режимы работы, контекст)
    ● Codex и его сравнение с Claude Code

    Ссылка на встречу: https://calendar.app.google/gtcTeQAeUxiVmtF5A

    #workshop #agents #второй_блин

  • Так, дубль два — будет!

В следующую субботу, 27го сентября, в 17:00 по МСК повторим воркшоп по Clau

    Так, дубль два — будет! В следующую субботу, 27го сентября, в 17:00 по МСК повторим воркшоп по Clau

    Так, дубль два — будет!

    В следующую субботу, 27го сентября, в 17:00 по МСК повторим воркшоп по Claude Code с учётом фидбека, и теперь точно с записью (записями, чтобы уж надёжно :))

    В программе:
    ● Анатомия кодингового агента
    ● Контекст и внимание
    ● Цикл работы агента
    ● Возможности Claude Code (команды, субагенты, модели, режимы работы, контекст)
    ● Codex и его сравнение с Claude Code

    Ссылка на встречу: https://calendar.app.google/gtcTeQAeUxiVmtF5A

    Хостом будет Родион с канала AI-Driven Development, спасибо ему за мотивацию 🙂

    #workshop #agents #второй_блин

  • Онлайн: Разбираемся с Gemini CLI, Claude Code и Codex CLI на продвинутом уровне вместе с экспертами

    Онлайн: Разбираемся с Gemini CLI, Claude Code и Codex CLI на продвинутом уровне вместе с экспертами

    Сегодня, в среду, в 17:00 по МСК, 16:00 по CEST и в 19:00 по Алматы встречаемся с Александром Колотовым, чтобы разобраться в том, как эффективно использовать Gemini CLI в повседневных задачах программиста. Помимо разных фишек Gemini CLI так же увидим как CodeAlive MCP может усилить Gemini CLI. Александр — разработчик с 20-ти летним стажем, сейчас кодит преимущественно на Elixir в компании Blockscout.

    Добавляйте в календарь встречу «Раскрываем потенциал Gemini CLI + MCPs», чтобы не пропустить: (встреча прошла)

    А в этот четверг, 16:00 МСК, 15:00 CEST и 18:00 по Алматы пройдет встреча с Максимом, автором замечательного Telegram-канала Этихлид. Из всех моих знакомых Максим наиболее глубоко и широко погружен в тему кодовых агентов — регулярно пробует и обозревает разные решения и (что важно) не зацикливается на каком-то одном агенте. Цель встречи — на реальной задаче посмотреть как эффективно использовать Claude Code со всякими продвинутыми фишками типа субагентов, а также разберемся в каких случаях может пригодится Codex CLI. Помимо глубокой погруженности в тему, у Максима так же опыт разработки почти 20 лет.

    Добавляйте встречу «Claude Code vs Codex. А не пора ли нам обновить воркфлоу?» в календарь, чтобы не пропустить: (встреча прошла)

    Обе встречи будут записаны, но у тех, кто подключится Live будет возможность задать свои вопросы экспертам.

  • Мой доклад на Kolesa Conf25 + конкурс Друзья, 11 октября в Алматы я буду выступать с докладом про C

    Мой доклад на Kolesa Conf’25 + конкурс

    Друзья, 11 октября в Алматы я буду выступать с докладом про Context Engineering на Kolesa Conf. Расскажу про Spec-Driven Development и о том, как сейчас устроена работа с контекстом в современных кодагентах и в CodeAlive — будет жарко!
    Ссылка на сайт конференции (билеты пока доступны): https://kolesa-conf.kz/?utm_source=tg&utm_medium=aidriven#up

    И хорошая новость только для подписчиков моего канала — совместно с организаторами мы проводим конкурс: в комментариях к этому посту расскажите о самой необычной задаче, которую вам помог решить кодовый агент и победителю с наиболее интересным кейсом достанется билет на Kolesa Conf’25 и месяц подписки на CodeAlive. Победителя выберу я через неделю в четверг 18-го сентября.

    P. S. Почти год прошел с момента моего предыдущего доклада про LLM для разработки на DotNext и вот организаторы выложили выступление в общий доступ — надо признать, что за год столько всего изменилось, что доклад интересен разве что с целью погрузиться в картину и инструменты годовалой давности и еще раз осознать насколько все быстро развивается в нашей сфере, либо если вы только вкатываетесь в тему AI для разработки. То ли дело доклады моего приятеля Жени Пешкова, вот они-то остаются актуальны годами! Вот, кстати, его доклад про async/await c того же Дотнекста.
    А для тех, кто дочитал до конца бонус — мой недавний и очень актуальный доклад про подход к решению сложных задач с LLM, а также про AI Code Review. (совершенно не выспался и дико устал в тот день, поэтому надеюсь вы мне простите мои бесконечные междометия))

  • SGR + AI Test-Driven Development + Metaprompting

Уровень 1: AI-TDD
Когда разрабатываешь тот или ино

    SGR + AI Test-Driven Development + Metaprompting Уровень 1: AI-TDD Когда разрабатываешь тот или ино

    SGR + AI Test-Driven Development + Metaprompting

    Уровень 1: AI-TDD
    Когда разрабатываешь тот или иной функционал с ллмками, очень круто работает подход, когда сначала пишешь хорошие тесты (часто можно нагенерить прямо через какую-нибудь мощную ллмку типа GPT-5 high), потом просто просишь кодагента итеративно запускать тесты и улучшать код в соответствии с фидбеком до тех пор, пока тесты не пройдут. Давайте назовем этот подход AI-TDD. Это довольно рисковый подход, я бы сказал на гране, т. к. некоторые ллмки и агенты могут начать просто подгонять код под тесты, тупо вставляя заглушки — Sonnet модельки таким грешат, а вот GPT-5 ведет себя честнее. Еще, может показаться, что такой подход слегка противоречит популярными нынче Spec-Driven Development (о котором мы поговорим позже). Но на самом деле нет, т. к. AI-TDD — это скорее про подход к решению более сложных и запутанных задач, в которых как ты спеку ни пиши, ллмки все равно ошибутся в итоговом коде, ну либо спеку можно вывести только из итогового кода (в случае с CodeAlive мы такой финт ушами делали, например, в задаче на парсинг кода).

    Уровень 2: AI-TDD + Metaprompting
    Так вот, если вдруг у вас есть продукты с LLM под капотом или вы что-то такое планируете, то возьмите на заметку еще один паттерн — AI-TDD + метапромтинг. Что это за зверь? В целом метапроптинг — довольно простая техника, когда промпт для LLM генерирует другая LLM (обычно более мощная), мы регулярно такое практикуем. Ну а соединив метапромтинг с AI-TDD, мы получим кейс, в котором кодагент итеративно улучшает промпт. Здесь важно отметить, что промтингом обязательно должна заниматься рассуждающая модель — я использую GPT-5 high через Codex CLI (codex --config model_reasoning_effort="high"). Давайте для простоты назовем такого агента-метапромптера супервайзером.
    Кстати, про сам этот термин «метапромптинг» я узнал еще в прошлом году из давнего курса OpenAI про использование модели o1, там они использовали o1 для улучшения политик (это часть промпта) для 4o-mini. Тогда меня очень впечатлил этот подход и, кажется, что тогда он как-то остался незамеченным.

    Уровень 3: AI-TDD + Metaprompting + SGR (SO + CoT)
    Хорошо, погружаемся еще глубже. То, что описано выше уже может неплохо работать, но отлаживать такое (а значит, и улучшать) может быть проблематично, т. к. все, что происходит внутри LLM — черный ящик. Было бы неплохо прикрутить к ответу LLM какую-нибудь «отладочную» информацию — тогда супервайзеру будет легче понять причину проблемы и внести более точные правки в промпт. И здесь можно взять старый добрый CoT (Chain Of Thoughts) — это когда мы просим модельку подумать «шаг за шагом» перед тем, как ответить. Но CoT не всегда подходит, т. к. чаще всего в продуктах с LLM под капотом мы получаем от нейронки ответы в структурированном виде (Structured Output) и вот здесь к нам на помощь приходит подход SO + CoT или, как его нынче называют, SGR — Scheme Guided Reasoning (за термин спасибо Ринату из канала LLM под капотом). Базово, идея в том, чтобы каждый шаг, каждое свое решение LLMка сопровождала рассуждениями и свидетельствами. Если совсем упрощенно, то если раньше мы получали ответ в формате { "result": 42 }, то теперь мы получаем ответ в формате { "reasoning_steps": "...тут шаги с 'мыслями' LLM о том, как именно она пришла к ответу...", "result": 42 }. В итоге, мы, во-первых, получаем ту самую «отладочную информацию», а во вторых, еще сразу повышаем точность ответов, т. к. добавление рассуждений в output non-reasoning модели обычно уже само по себе делает модельку умнее. Ну вот и все, теперь запускаем наш пайплайн метапромтинга по TDD на новом уровне. А кому интересно еще глубже нырнуть в SGR, добро пожаловать в канал Рината: https://t.me/llm_under_hood/625
    И вот отличный пример Deep Research + SGR от Валеры Ковальского: https://github.com/vamplabAI/sgr-deep-research

    У нас в CodeAlive много всего интересного используется — и GraphRAG и агенты, интересно ли больше контента на эту тему? Или лучше что-то более прикладное про LLM/агентов в кейсах разработки?

  • Новое ВИДЕО уже на канале! #YouTube
УСТАНОВКА N8N в 1 КЛИК! Мой скрипт сделает ВСЁ за вас!


Друзья,

    Новое ВИДЕО уже на канале! #YouTube УСТАНОВКА N8N в 1 КЛИК! Мой скрипт сделает ВСЁ за вас! Друзья,

    🔥 Новое ВИДЕО уже на канале! #YouTube

    УСТАНОВКА N8N в 1 КЛИК! Мой скрипт сделает ВСЁ за вас!

    Друзья, помните всю ту головную боль с установкой n8n? ЗАБУДЬТЕ! 🤯

    В новом видео показываю свой собственный скрипт. Он установит и настроит полнофункциональный, безлимитный n8n на ваш сервер АВТОМАТИЧЕСКИ и всего за пару минут!

    ▶️ Смотреть гайд здесь: [YouTube]

    📌 [Скрипт из видео и инструкция здесь!]
    Полезные ссылки и сервисы из видео:

    🛡 Jumble Connect — Мой сервис для стабильного доступа к ИИ!
    ➡️ [Готовый Workflow Telegram-бота]

    VPS Хостинги (брать не в РФ):
    HIP-HOSTING – самый дешевый
    4VPS – хороший и надежный (скидка по этой ссылке)

    Домены и DNS:
    REG.RU — Купить доменное имя
    DNSchecker.org — Проверить привязку домена к IP-адресу сервера

    🧩 ChatConnectGPTYouTube

  • Большие апдейты в мире ИИ! Две топовые модели уже здесь!

Kimi K2-Instruct-0905

 Улучшения:
 Усилен

    Большие апдейты в мире ИИ! Две топовые модели уже здесь! Kimi K2-Instruct-0905 Улучшения: Усилен

    🔥 Большие апдейты в мире ИИ! Две топовые модели уже здесь!

    Kimi K2-Instruct-0905

    🔑 Улучшения:
    ✦ Усиленные возможности кодинга (фронтенд + tool-calling)
    ✦ Контекст расширен до 256k токенов
    ✦ Лучшая интеграция с агентными фреймворками (Claude Code, Roo Code и др.)
    ✦ Бенчмарки: SWE-Bench 69.2%, SWE-Dev 66.6%, Terminal-Bench 44.5%
    ✦ Архитектура MoE, 1T параметров

    Пробовать здесь:
    ➡️ Офф чат: kimi.com
    ⚙️ HuggingFace

    Qwen3-Max

    🔑 Улучшения:
    Логика, математика, кодинг, наука — точность выше
    ✦ Более надёжное следование сложным инструкциям (EN & 中文)
    ✦ Поддержка 100+ языков + сильный апгрейд перевода и здравого смысла
    ✦ Лучше работает с RAG и tool-calling
    ✦ Нет отдельного “thinking”-режима, но reasoning ощутимо прокачан

    Пробовать здесь:
    ➡️ Офф чат: qwen.ai

    Так же модели платно доступны на OpenRouter

    🧩 ChatConnectGPTYouTube

  • Онлайн митап: AI Coding Talk в этот четверг Приходите в четверг на онлайн встречу, на которой мы с

    Онлайн митап: AI Coding Talk в этот четверг Приходите в четверг на онлайн встречу, на которой мы с AI-buddies из соседних каналов про AI-кодинг будем обсуждать то, как сегодня выглядит эффективная AI-driven разработка. Ребята, как и я, глубоко погружены в…Напоминаю, наш скромный митапчик уже через 9 минут.

    Добавляться через бота https://t.me/group_sub_check_bot?start=68b04c36e5b9f465c329b7e6

    По-умолчанию ютуб, но потом еще выложим на другие платформы.

  • НОВАЯ ПУШКА ДЛЯ ВАЙБКОДЕРОВ: Grok Code Fast 1

Только что затестил новую модель от xAI  и это просто

    НОВАЯ ПУШКА ДЛЯ ВАЙБКОДЕРОВ: Grok Code Fast 1 Только что затестил новую модель от xAI и это просто

    💥 НОВАЯ ПУШКА ДЛЯ ВАЙБКОДЕРОВ: Grok Code Fast 1

    Только что затестил новую модель от xAI — и это просто разрыв.

    ⚡️ На полном серьёзе, это самая быстрая модель, что я когда-либо пробовал! Отклик мгновенный, думает, пишет код, редактирует просто мгновенно!
    ✔️ И что самое крутое — на первый взгляд, пишет код на уровне топовых моделей типа GPT-5 и Sonnet 4!

    🔥 Модель УЖЕ доступна в Cursor и будет БЕСПЛАТНА для всех до 2 сентября 2025!

    Просто заходите в Cursor, выбираете её в списке моделей и кайфуете. Время пошло! 🚀
    Если модели нет в списке, заходите в Setting > Beta > Update access > Early Access

    ➡️Так же модель уже доступна в @JumbleGPT_bot
    🛡 Если Cursor пишет «Недоступно в вашей стране» – Используем Jumble Connect

    UPD: Grok Coder так же бесплатно доступен в RooCode!

    🧩 ChatConnectGPTYouTube

  • Релиз DeepSeek-V3.1: врываемся в эру ИИ-агентов!

Команда DeepSeek выкатила крупное обновление. Глав

    Релиз DeepSeek-V3.1: врываемся в эру ИИ-агентов! Команда DeepSeek выкатила крупное обновление. Глав

    🔥 Релиз DeepSeek-V3.1: врываемся в эру ИИ-агентов!

    Команда DeepSeek выкатила крупное обновление. Главная фишка — гибридный режим работы, который кардинально меняет подход к решению задач!

    ⚙️ Два режима одной модели: Think & Non-Think
    Think-режим (deepseek-reasoner): для сложных задач, где нужно планировать, рассуждать и использовать инструменты
    Non-Think-режим (deepseek-chat): для быстрых и точных ответов на обычные запросы

    📈 Что по цифрам?
    Новая модель V3.1 показывает колоссальный прирост в агентных задачах по сравнению с прошлой топовой моделью R1, но немного уступает конкурентам:

    🔹SWE-bench (кодинг): 66.0 против 44.6 у R1
    🔹Terminal-Bench (терминал): 31.3 против 5.7 у R1
    🔹xbench-DeepSearch (поиск): 71.2 против 55.0 у R1

    💡 Думает быстрее и эффективнее
    DeepSeek V3.1 в режиме Think решает задачи, используя значительно меньше токенов и времени, чем R1.

    🔗 Веса V3.1-Base и V3.1 в открытом доступе на Hugging Face!

    ➡️ Где попробовать?
    На официальном сайте DeepSeek
    В нашем боте @JumbleGPT_bot

    🧩 ChatConnectGPTYouTube

  • Про релиз Genie-3 Genie-3 — новая модель для симуляции физического мира. Модель по промпту генериру

    Про релиз Genie-3

    Genie-3 — новая модель для симуляции физического мира. Модель по промпту генерирует видеопоток вплоть до нескольких минут в разрешении 720p и дает возможность управлять и взаимодействовать с ним. Это похоже на игровой движок, где пользователь не только описывает видео (как в Veo3), но также может взаимодействовать с созданным по описанию “миром”. Если в игровых движках объекты и физика “захардкожены”, то здесь они описываются нейросетью. Это означает что результаты работы имеют стохастическую природу и могут появляться различные “артефакты”. Больше примеров на сайте Гугла.

    Помимо улучшения качества и детализации графики, у Genie-3 появилась способность запоминать результаты взаимодействия пользователя.

    Релиз представляет интерес сразу по трем причинам:
    1️⃣Семейство Genie моделей может быть следующим уровнем в индустрии игр и развлечений, дающем безграничные возможности для фантазии пользователей.
    2️⃣Genie модели могут вдохнуть новую жизнь в медленно развивающиеся VR технологии.
    3️⃣Самое интересное для меня: данный тип моделей, по моему личному мнению, может потенциально повлиять на исследования и развитие как существующих, так и новых теорий в космологии. Если экстраполировать прогресс на много поколений моделей вперед — космология может перейти из теоретической физики в экспериментальную.

    Для обычных пользователей доступа к модели пока нет.

    Подписаться

  • Годовая подписка на 10+ AI тулов для разработки, дизайна, коммуникации и эффективности за 200$ Ленн

    Годовая подписка на 10+ AI тулов для разработки, дизайна, коммуникации и эффективности за 200$

    Ленни Ракитски, автор популярной англоязычной рассылки Lenny’s Newsletter, сделал новый AI Bundle из 10+ тулов (единая годовая подписка на все тулы):

    1. Инструменты для быстрого прототипирования и разработки с AI: Replit, Lovable, Bolt, n8n, Warp, Magic Patterns, ChatPRD
    2. Инструменты для коммуникации: Linear, Superhuman, Granola
    3. Видео генерация, AI дизайн, презентации: Descript, Gamma, Mobbin
    4. Повышение эффективности и AI ассистент: Wispr Flow, Raycast, Perplexity

    Важно: прочтите правила на сайте, не забудьте сразу запросить и использовать коды со скидками, Ленни не гарантирует, что все подписчики смогут воспользоваться всеми сервисами из предложения. Прямо сейчас все коды еще доступны (сам только что проверил).

    По моему мнению, это отличное предложение, хотя дешевым его не назвать. В прошлый раз, я долго размышлял и купоны на все самые интересные сервисы успели разобрать раньше, чем я решился на подписку. В этот раз я не стал тормозить и подписался в течение первого часа после анонса, а затем два дня ждал пока сайт восстановят после наплыва пользователей, сегодня ночью сайт наконец восстановили.

    @max_about_ai

  • DevOps и AI

Удивительно как много людей в IT индустрии забывают, что цикл разработки не ограничивае

    DevOps и AI Удивительно как много людей в IT индустрии забывают, что цикл разработки не ограничивае

    DevOps и AI

    Удивительно как много людей в IT индустрии забывают, что цикл разработки не ограничивается программированием.

    В одном из своих выступлений Андрей Карпатый (со-основатель Open AI и ex-Director of AI в Tesla) поделился как он завайбкодил мини-приложение за несколько часов и потом неделю настраивал и релизил его.

    Можно ли зарелизиться быстро? Можно если у вас нет зависимостей от внешних сервисов, если вам не нужен провайдер авторизации, прием платежей, релиз в AppStore, тщательное тестирование или настройка. Всё это до сих пор занимает много времени и требует ручного труда. По крайней мере пока.

    Из этого следуют два вывода:
    — если вы не знаете в какую сторону растить свою карьеру, вероятно, DevOps и особенно MLOps в моменте могут быть интересной опцией,
    — если вы не знаете какой запилить стартап в сфере AI и разработки, то, возможно, автоматизация DevOps — это один из следующих рубежей.

    Подписаться

  • Про диаграммы и их AI генерацию Я потратил неоправданно много времени на самостоятельное рисование

    Про диаграммы и их AI генерацию

    Я потратил неоправданно много времени на самостоятельное рисование в draw.io пирамидальной диаграммы из предыдущего поста. Решил поизучать какие есть актуальные AI возможности для оптимизации этого процесса. Вспомнив про пост Рефата про AI генерацию диаграмм, я решил попробовать связку Mermaid и Claude на практике.

    Мне очень понравился мой непродолжительный опыт с Mermaid. Оказалось его можно генерировать и визуализировать как в специализированном Mermaid.live, так и в моем любимом Excalidraw. В отличие от PlantUML формата, Mermaid легко читаем и интуитивно понятен, но не дает той же гибкости в выборе визуальных эффектов (цвета, размеры и т.д.). На мой взгляд, отделение содержания диаграммы от её визуализации — это фича, а не баг. Благодаря минимализму, Mermaid диаграммы можно добавлять прямо текстом в md документацию и тем самым повышать качество работы AI coding инструментов без потери человеко-читаемости. Кажется, что с развитием AI инструментов для программирования, данный формат будет внедряться все больше.

    Что же касается генерации пирамидальной диаграммы, то я потерпел фиаско и с Mermaid и с PlantUML, потому что это фактически не техническая диаграмма, а инфографика и для ее визуализации нужны другие инструменты. Например, ее можно эффективно сгенерировать в Gamma.app — инструменте для создания презентаций.

    Подписаться

  • Небольшой ликбез по устройству AI продуктов

Почти для любого решения, можно выделить как минимум 5

    Небольшой ликбез по устройству AI продуктов Почти для любого решения, можно выделить как минимум 5

    Небольшой ликбез по устройству AI продуктов

    Почти для любого решения, можно выделить как минимум 5 слоев (layers):
    Infrastructure: дата-центры, оборудование и вычислительные мощности (GPU, TPU и т.д.)
    Foundation models (LLM): большие языковые модели: GPT, Claude, Gemini, LLaMA и другие.
    AI Platforms: облачные сервисы, которые позволяют подключать и масштабировать ресурсы, оркестрировать модели, приложения и данные: AWS Bedrock, GCP Vertex AI и т.д.
    AI Tech Stack: инструменты для интеграции, мониторинга, оркестрации, хранения данных, файн-тюнинга и пр.: Langchain, Chroma, Langfuse, CrewAI, и многие другие
    Applications: конечные продукты для пользователей: MS Copilot, Cursor, Perplexity, Gamma App, и т.д.

    Чем ближе к основанию пирамиды, тем более специфические знания и скиллы требуются для работы на этом уровне и тем больше затраты на разработку. Например, стоимость обучения топовых LLM в 2025 году исчисляется миллиардами долларов, а инвестиции в инфраструктуру — сотнями миллиардов.

    Большинство компаний занимаются разработкой приложений для конечных пользователей или инструментов (баз данных, фреймворков, сервисов) для разработки конечных приложений.

    Подписаться