Блог

  • Физик из Twitter подсчитал, что Кевина из Один дома практически не могли забыть случайно

По его рас

    Физик из Twitter подсчитал, что Кевина из Один дома практически не могли забыть случайно По его рас

    😁 Физик из Twitter подсчитал, что Кевина из «Один дома» практически не могли забыть случайно

    По его расчётам, вероятность, что такое кол-во людей пойдут спать в 23:00 и не смогут проснуться без будильника в 8:00 перед важным вылетом, — 0,13%.

    Даже если бы это событие зависело от одного человека, вероятность была бы 30%. Так что, возможно, Кевина забыли намеренно. 😏

    👋 Lama AI #лама_news

  • В последний месяц я подсел на вайб кодинг с телефона. Ничего серьезного так не разработать, но если

    В последний месяц я подсел на вайб кодинг с телефона. Ничего серьезного так не разработать, но если сидишь в кафе или на очередном созвоне и скучаешь, то вполне можно развлечься и сделать, например, сайт визитку или простую обучающую мобильную игру для ребенка.

    Для вайб-кодинга с телефона я использую:
    — для простеньких сайтов — Replit (pro тариф из Lenny pass)
    — для локальных мобильных аппок — Rork (бесплатный тариф)
    — для чего-то посерьезнее — Codex в мобильном ChatGPT (Plus тариф)

    Я рассматриваю это не как замену IDE и самостоятельной разработки, а как замену чтению новостей, соц сетям или другим тайм киллерам.

    PS: Впереди праздники. Если давно откладывали сделать свою аппку, то считайте этот пост знаком, что пора начать.

    Подписаться

  • similarweb выкатили традиционную ежегодную статистику по ИИ-трафику

Gemini растёт семимильными шага

    similarweb выкатили традиционную ежегодную статистику по ИИ-трафику Gemini растёт семимильными шага

    ✴️ similarweb выкатили традиционную ежегодную статистику по ИИ-трафику

    Gemini растёт семимильными шагами. Через пару лет OpenAI ждут большие проблемы.

    👋 Lama AI #лама_news

  • Для большинства задач при работе с AI-видео достаточно инструментов от трёх вендоров:

1. Google с V

    Для большинства задач при работе с AI-видео достаточно инструментов от трёх вендоров: 1. Google с V

    Для большинства задач при работе с AI-видео достаточно инструментов от трёх вендоров:

    1. Google с Veo3.1.

    2. Kling с их выводком моделей и инструментов.

    3. OpenAI с Sora 2.

    Мне очень нравятся перемены, которые происходят в AI-видеогенерации последние полгода.

    Что изменилось?

    Был у меня пост в конце июля. Там я писал о сложностях в работе с новыми AI-video-моделями, потому что на тот момент они умели генерировать очень красивые видео по текстовому описанию. На этом возможности заканчивались.

    Нужны были более сложные инструменты, чтобы обеспечить лучший контроль результата.

    К концу года Kling и Google выпустили множество инструментов, которые позволяют:

    1. Делать lipsync по изображению+аудио и получать результат лучше, чем у HeyGen (Kling).

    2. Продлевать существующее видео (Veo3.1 и только на 7 секунд).

    3. Генерация по первому и последнему кадру (Veo и Kling).

    4. Использование нескольких изображений-референсов для генерации видео (Veo3.1 и Kling).

    5. Использование видео-референса для генерации (Kling).

    Всё это внушает надежду, что в 2026-м году появятся более специализированные инструменты, которые позволят при помощи AI создавать достаточно сложные сцены с максимальным контролем.

    Недавно вышел Wan Move, который позволяет задавать движение для изображения, указывая точки для перемещения. Это пример того, что хотелось бы видеть среди инструментов от Google и Kling.

    Кстати, заметили, что OpenAI опять забил на развитие AI-видеогенераций? И до сих пор предлагает хоть и качественную, но достаточно сырую по инструментам (и дорогую при этом!) Sora2.

  • Тучи вокруг Higgsfield начали сгущаться Коротко: видимо, подписочная система оказалась невыгодной,

    ✴️ Тучи вокруг Higgsfield начали сгущаться

    Коротко: видимо, подписочная система оказалась невыгодной, и казахи начали вытворять странную дичь.

    Что известно на данный момент:

    — Примерно с 20 декабря сервис начал массово банить юзеров по надуманным причинам. Официальная версия: 99% банов выдают мошенникам с «серыми/чёрными методами оплаты».
    — Но @generatio_ai провел расследование, и оказалось, что банят даже людей с личными картами, а большая часть посредников по оплате не является «мошенниками».
    — Безлимитный тариф оказалася вовсе не безлимитным и особо активных пользователей заставляют доплачивать.
    — Последние 3-4 месяца при попытке оплатить месячную подписку людям втихую оформляли годовую.
    — В поддержке ИИ-ассистент через три сообщения теряет контекст, обещает перевести на человека и не переводит. Квитанции об оплате не приходят, при этом их требуют как пруф.
    — Некоторым вернули возможность зайти в аккаунт, но генерация всё ещё недоступна.

    В общем, лучше пока не связывайтесь с данным сервисом (если он сам не закроется в ближайшее время).

    Возникла такая мысль: а как долго OpenAI сможет оставаться убыточной, прежде чем её настигнет та же участь?

    👋 Lama AI #лама_news

  • Запись моего доклада про Context Engineering на Kolesa Conf + Анонсы встреч В октябре я выступил с

    Запись моего доклада про Context Engineering на Kolesa Conf + Анонсы встреч

    В октябре я выступил с докладом на самой масштабной конференции в Казахстане Kolesa Conf — спасибо ребятам из Kolesa Group за максимально проработанную подготовку и отличную организацию!

    В докладе я рассказывал в основном про грамотную работу с контекстом, а также о том, как готовят контекст AI агенты и специализированные инструменты на примере CodeAlive.
    Ссылка на запись: https://youtu.be/LKxGwFiSQD0?si=fCiOBhjWiGjksene

    Анонсы
    В понедельник 29 декабря на этом канале в прямом эфире проведем интервью с одним из создателей Zenflow в 16:00 по Алматы, 14:00 МСК, 12:00 по CET.

    Также ближайшее время ожидайте:
    1. Интервью с CTO об опыте успешного внедрения AI в разработку
    2. Интервью с одним из создателей SWE Rebench (популярный AI кодинг бенчмарк)
    3. Интервью с одним из победителей ERC чемпионата про создание AI агентов для энтерпрайз задач.
    4. Прожарка UX AI-generated интерфейсов профессиональным UX дизайнером (кстати, можете уже присылать мне в ЛС @rodion_m_tg интерфейсы своих аппок, мы выберем 5 лучших).

    Так что следите за каналом — будет интересно.

    @ai_driven

  • Кто ты, звёздный магнат Отзовись в комментариях хоть

    Кто ты, звёздный магнат? Отзовись в комментариях хоть

  • Сегодня я отменил свою подписку на Cursor.

Думаю, что я буду ещё не раз активировать её для каких-т

    Сегодня я отменил свою подписку на Cursor. Думаю, что я буду ещё не раз активировать её для каких-т

    Сегодня я отменил свою подписку на Cursor.

    Думаю, что я буду ещё не раз активировать её для каких-то разовых тестов или подготовки готовых проектов под задачу «нужно, чтобы в Cursor работало». Я такие делаю с помощью .cursorrules и Agent Skills.

    Примерно с августа-сентября Cursor окончательно перестал быть для меня даже дополнительным инструментом.

    Основной сейчас – Claude Code. Думаю, это и так понятно по количеству постов, выходящих про него.

    Иногда пользуюсь Codex CLI от OpenAI. Совсем редко – Gemini CLI.

    Маршрут миграции между AI-Coding-инструментами сейчас у меня такой:

    1. ChatGPT в веб-интерфейсе.

    2. Cursor. Почти с релиза я им пользовался, проходя через все его «детские болячки».

    3. Windsurf. Честно переходил на него на две недели.

    4. Cursor. Потому что Windsurf не зашёл.

    5. Roo Code. С помпой перешёл на него, а потом понял, что шалость не удалась (сожрать все лимиты Anthropic из-за проблем с контекстом – это нехорошо).

    6. Claude Code. И уже на нём я окончательно обосновался и работаю по сей день, получая удовольствие от его обновлений.

    Я точно знаю, что среди подписчиков есть пользователи очень разных AI IDE. В том числе тех, которые я никогда даже не пробовал.

    Расскажите про свой путь в инструментах для AI-Coding. И почему остановились на том, который используете сейчас?

  • Пятничный эксперимент: тестовое задание пятилетней давности vs ChatGPT, Claude и Gemini. А так же не

    Пятничный эксперимент: тестовое задание пятилетней давности vs ChatGPT, Claude и Gemini. А так же немного про промптинг.

    Откопал наше тестовое задание для фронтендеров 2020 года — симулятор лифта на 5 этажей с анимациями, очередью вызовов и всей логикой. Тогда это считалось сложным заданием на джуниора: из 10 кандидатов дай бог один сдавал что-то рабочее. Сейчас тестовые не даем, процесс собеседования сильно поменялся, но задание попалось на глаза и я подумал — а что если скормить его AI-тулам как есть?

    Как есть — это прям аттач PDF-ки и «Разработай веб-приложение по этому заданию».

    Закинул в ChatGPT, Claude и Gemini. Как-то справились все три, но с разным качеством. На всех — платные подписки, максимально доступная мне модель.

    — ChatGPT выдал симпатичный лифт в канвасе, но он не едет. Но надо сказать что у меня подписка Plus, их Pro модель там недоступна.

    — Gemini выдал уже работающий лифт в канвасе, но со странной анимацией и дизайном и учел не все требования. AI Studio как ни странно оказался не лучше, лифт не поехал.

    Claude выдал единственный результат где реально работало: лифт едет, двери открывались и закрывались логично, очередь вызовов обрабатывалась правильно. Выглядит симпатично. Правда, зачем-то снижал скорость между этажами.

    Все примеры выше — one-shot. Плюс, я осознанно не стал использовать Claude Code, Codex или Cursor — во-первых пятница — хотелось легкости эксперимента: закинул ТЗ как есть и смотрю что получится. Понятно что агенты с нужным тулингом справились бы куда лучше.

    Зато теперь у меня есть личный бенчмарк для проверки новых кодинг-моделей — буду давать им эту задачку и смотреть что выйдет))

    Само ТЗ тут, если нужно для экспериментов. Вообще, надо сказать — задача не такая тривиальная как может показаться — если начать тестить там будет очень много багов, но джуны и с этим не справлялись)

    Кстати, уже после написания черновика попался на глаза свежий промптинг-гайд от Vercel: How to prompt v0, решил применить его (вот финальный промпт), и знаете что? Справились заметно лучше: ChatGPT, Gemini, Claude.

    Что тут сказать? Тестовые задания практически не имеют смысла, промтинг решат, а Opus тащит в кодинге)

  • Конец года и #новости #однойстрокой в стиле Google. В конце года вышли для меня две интересные раб

    Конец года и #новости #однойстрокой в стиле Google. 🔍

    В конце года вышли для меня две интересные работы. Сегодня расскажу про одну, а далее выйдет второй обзор.

    Начнём с T5Gemma 2, хотя должно быть gemma3 🧠

    Почему? Да ибо ребята элайнят энкодер к Gemma3 декодеру, как преинициализация T5 декодер части. А я напомню, что Т5 это полный трансформер с энкодер-декодер архитектурой.
    Помимо этого, ещё интересное, что убрали механизм cross-attention – это когда у вас вложения декодерв после self-attention идут ещё раз в кросс-внимание с контекстом энкодера. Теперь все это зовётся merged attention и, по факту, просто энкодер эмбы закинули в общий блок внимания, НО сохранили у энкодера self-attention с двусторонним механизмом, а у декодер с казуальным. Т.е. после кодирования контекста в энкодере, его эмбы идут напрямую в декодер внимание с казуальной маской, как контекст. Чтобы это все дружно работало ещё сделали tied embedding, т.е. обобщенные / связанные матрицы эмбеддингов для энкодера и декодера, что облегчает вес и увеличивает скорость, а ещё делает нативный обмен информацией между блоками.

    Ввиду таких артефактов, легко ложится туда мультимодальная часть в fromage стиле, поэтому моделька ещё и жуёт картинки на равне с текстом. В качестве энкодера для image embs юзают Siglip. До кучи long context 128k и конечно мультияз.

    Вижу, что Google продолжает диверсификацию исследований и не кладёт яйца в одну корзину. 🧠 Разрабатывает и декодеры, и полные трансформеры, и диффузии. Про энкодеры вообще молчу. 😎

  • The State of AI Coding 2025 — наглядный и компактный отчет от Greptile (YC-baked AI code-ревьювер),

    The State of AI Coding 2025 — наглядный и компактный отчет от Greptile (YC-baked AI code-ревьювер), в котором собрали кучу любопытной статистики по AI-инфраструктуре на основе открытых данных — я давно хотел сделать нечто подобное: сопоставить публичные данные npm и PyPI по ключевым AI SDK, но ребята сделали это за меня, что там есть например:

    — Vector DB: pgvector неожиданно обошел Qdrant по скачиваниям.

    — AI SDK провайдеров: Anthropic SDK c огромным отрывом лидируют по скачиваниям. Еще высокие позиции у Vercel AI SDK, что показывает насколько бурно растет TypeScript-экосистема в AI-разработке.

    — AI Rules Files: CLAUDE.md как .cursorrules лидируют по adoption — то есть разработчики активнее всего кастомизируют поведение AI именно под Claude.

    — Observability платформы: LangSmith лидирует (довольно странно, ведь у них нет OSS версии), но LangFuse и другие игроки тоже показывают неплохие цифры.

    — Любопытный график OpenAI-to-Anthropic ratio — gap сокращается. Если в январе 2024 разрыв был 47:1, то к ноябрю 2025 упал до 4.2:1.

    В отчете есть и сравнения моделей, но это можно глянуть и на artificialanalysis.ai — там постоянно актуальные цифры.

    —-

    Еще несколько любопытных отчетов, которые попали в мое поле зрения — возможно будет интересно полистать на праздниках:

    McKinsey State of AI 2025 — обновленный отчет про adoption в enterprise, ключевой инсайт: 88% компаний используют AI, но только треть масштабирует его, большинство все еще в pilot-фазе.

    a16z Big Ideas in Tech 2025 — 50 партнеров a16z делятся прогнозами на год, от nuclear resurgence до AI agents и robotics. + прогноз на 2026 от них.

    Lumenova State of AI 2025 — отчет про governance и adoption, ключевой инсайт: AI превращается в «enterprise infrastructure», что порождает новые требования к governance.

    Xenoss AI Year in Review — обзор года с фокусом на open-source модели, ключевой инсайт: DeepSeek R1 и другие open-source модели пересекли точку невозврата и все чаще становятся дефолтным выбором.

    Frontier 2025 — дашборд с 202 научными результатами за год с оценками вероятности репликации и потенциального импакта, красивенько оформлен, ключевой инсайт: structured подход к оценке научного прогресса с количественными метриками.

    Menlo VC State of GenAI in Enterprise — данные по enterprise spending на AI, ключевой инсайт: enterprise AI расходы утроились до $37B, причем больше половины пошло на приложени, а не инфру — самая быстрорастущая категория софта в истории.

    🔥🔁

  • Лимиты Codex сброшены до 1 января и удвоены! (они и так были огромными) Для всех пользователей Code

    Лимиты Codex сброшены до 1 января и удвоены! (они и так были огромными)

    Для всех пользователей Codex: в благодарность за те приятные моменты, которые мы разделили за последние месяцы, наш первый подарок — мы сбросили ограничения по запросам и увеличили лимиты использования в 2 раза до 1 января. Желаем вам весёлых праздников и много увлекательного кодинга!

    Самая щедрая компания 2025 💯💯

  • Итоги опроса Главное событие в AI Coding На прошлой неделе мы с авторами других тг-каналов про AI п

    Итоги опроса Главное событие в AI Coding

    На прошлой неделе мы с авторами других тг-каналов про AI проводили опросы по итогам года в AI, и сегодня мы делимся с вами результатами.

    1️⃣ Вы выбрали, что главным событием года было Появление Vibe Coding! (249 человек проголосовали за этот вариант)

    2️⃣ На втором месте — Релиз Claude Code (164 чел)

    3️⃣ На третьем — Релизы Claude моделей Sonnet, Opus, Haiku (89 чел)

    Всего в опросе приняло участие 747 человек.

    Я проголосовал за релиз Claude моделей в этом году и объясню, почему так.

    В октябре 2024 вышла модель Claude Sonnet 3.6, которая дала ощутимый буст AI кодингу и уже тогда можно было использовать эту модель для написания кода хорошего качества.

    В конце января 2025 Андрей Карпаты опубликовал тот самый твит, где впервые сформулировал термин vibe coding, в феврале Anthropic зарелизили Claude Sonnet 3.7 и сразу же выпустили Claude Code в закрытый бета-тест, только для владельцев подписок по $100+

    Борис Черный, Head of Claude Code, в одном из своих интервью рассказывал, что когда у них (Anthropic) появилась модель Sonnet 3.6 и они поняли, на что она способна, то решили сделать coding agent для внутреннего пользования, а в феврале, к релизу новой модельки 3.7, они выпустили этого агента под именем Claude Code.

    И дальнейший успех компании Anthropic обусловлен симбиозом потрясающих моделей и инструмента для использования этих моделей, но я решил всё же, что модель играет более важную роль, поэтому проголосовал за этот вариант.

    А вы что думаете по поводу результатов? Справедливо?

    Вот результаты других авторов, которые вместе со мной проводили опросы
    Если одна подписка, то какая?🔗Поляков считает: AI, код и кейсы
    Код вместе с ИИ в 2025. Чем пользоваться?🔗Глеб Кудрявцев про AI кодинг
    AI-headliner🔗Константин Доронин
    ИИ-компаньон года🔗Бунак и Цифра: chatGPT / AI в бизнесе

    #ai_coding@the_ai_architect
    ✔️ Тимур Хахалев про AI Coding, подписывайтесь!

  • Тут у ребят: @neuralprosecco, @snimshchikov, @neuraldeep
вышел прикольный враппер для итогов года, р

    Тут у ребят: @neuralprosecco, @snimshchikov, @neuraldeep вышел прикольный враппер для итогов года, р

    Тут у ребят: @neural_prosecco, @snimshchikov, @neuraldeep
    вышел прикольный враппер для итогов года, решил тоже собрать статку и получить весёлую карточку.

    Получилось жОско 📦, пробуйте и Вы. 💅

    Не, ну, а че? Не tgstat ж грустный юзать.

  • GPT-5.2 и Gemini 3 Pro  всего лишь промежуточные чекпоинты

The Information пишет, что GPT-5.2  это

    GPT-5.2 и Gemini 3 Pro всего лишь промежуточные чекпоинты The Information пишет, что GPT-5.2 это

    ⚡️ GPT-5.2 и Gemini 3 Pro — всего лишь промежуточные чекпоинты

    The Information пишет, что GPT-5.2 — это ранний, недообученный чекпоинт будущей модели Garlic, а не финальная версия. То есть ожидается ещё один прирост качества по мере выхода следующего чекпоинта/дообучения.

    Со стороны Google звучит схожий месседж: Gemini 3 тоже идёт «чекпоинтами», и следующее обновление или даже GA должно подтянуть качество. Об этом публично написал Cristian Garcia (Google). Не забываем в конце концов, что нынешний 3 Про это лишь превью версия

    🤑 ForgetMe | Boosty

    Приобрести подписку на любые сервисы
    @forgetshop_bot

    #новости #нейросети #chatgpt #gemini

  • Навайбкодил rust приложение С недавнего времени я уже часто работаю и на маке и на ПК и захотелось

    Навайбкодил rust приложение

    С недавнего времени я уже часто работаю и на маке и на ПК и захотелось иметь возможность быстро переключаться.

    Появилась проблема — нужно программно переключать инпут монитора между ПК (винда) и маком.

    Они у меня подключены через Display Port и USB-C.

    Поспрашивал ChatGPT решения — он предлагал kvm устройство (у меня в мониторе это уже есть, переключается из меню, но это долго), предлагал софт ClickMonitorDDC (для винды) – запустилось и работало ок) и разный софт для мака (не запустился). Решил попробовать написать что то своё.

    Открыл codex cli, объяснил задачу. Мы с ним обсудили требования (аппка в tray, переключение по клику), выбрали стэк (сразу предложил Rust), начали делать. Сделали proof of concept чтобы проверить идею и на винде и на маке — работает!

    Приложение готово!

    Опыт прикольный. Я ни разу не писал десктопные приложения, ни разу не писал на Rust, знаю только мемы про Rust и то что недавно он положил половину интернета у cloudflare.

    Но работающее приложение навайбкодить удалось!

    Вот репо, может кому-нибудь будет интересно посмотреть (я лично в код не заглядывал))

    Какой вывод?

    В наше время, иногда проще написать софт самому, чем искать готовое решение!

    А вы уже пробовали писать инструменты для своих задач? Расскажите об этом в комментах!

    #ai_coding@the_ai_architect
    ✔️ Тимур Хахалев про AI Coding, подписывайтесь!

  • MiniMax M2.1 в MiniMax Agent: прокачанный кодинг, длинные цепочки действий и digital employee

MiniM

    MiniMax M2.1 в MiniMax Agent: прокачанный кодинг, длинные цепочки действий и digital employee MiniM

    👀 MiniMax M2.1 в MiniMax Agent: прокачанный кодинг, длинные цепочки действий и «digital employee»

    MiniMax запустили M2.1 в составе MiniMax Agent — обновлённую модель для реальной «агентной» работы: от разработки и ревью кода до автономного выполнения многошаговых задач в браузере и офисных процессах. Попробовать можно прямо в веб-клиенте. MiniMax Agent

    Что нового
    🟡 Мультиязычный кодинг. Экспертный уровень в нескольких ЯП: генерация тестов, оптимизация и ревью кода.
    🟡 Агентное tool-use. Надёжное выполнение длинных цепочек инструментов и браузерных задач с сильным автономным планированием.
    🟡 «Digital Employee». Исполнение многошаговых инструкций и рассуждений для сложных офисных воркфлоу.

    Документация API

    🤑 ForgetMe | Boosty

    Приобрести подписку на любые сервисы
    @forgetshop_bot

    #новости #нейросети

  • Manus запустил Design View Manus представил новый режим Design View на вебе и мобиле это продолжен

    📛 Manus запустил Design View

    Manus представил новый режим Design View на вебе и мобиле — это продолжение агента Manus, которое позволяет заказывать, создавать и доводить визуальные ассеты в одном, бесшовном дизайновом воркфлоу.

    Теперь не нужно прыгать между инструментами: бриф → варианты → правки → итог происходят в одном месте.

    Подробнее: Manus — официальный сайт

    🤑 ForgetMe | Boosty

    Приобрести подписку на любые сервисы
    @forgetshop_bot

    #новости #нейросети #manus

  • GLM-4.7: новый флагман Zhipu AI для кода, планирования и агентных сценариев

Zhipu AI представила GL

    GLM-4.7: новый флагман Zhipu AI для кода, планирования и агентных сценариев Zhipu AI представила GL

    ⚡️ GLM-4.7: новый флагман Zhipu AI для кода, планирования и агентных сценариев

    Zhipu AI представила GLM-4.7 — модель, заточенную под сложный кодинг, многошаговое планирование и работу как автономный агент. В архитектуре появился Interleaved Thinking (модель размышляет перед каждым действием) и Preserved Thinking (сохраняет «мысли» между шагами), что критично для длинных задач по рефакторингу, миграциям и интеграциям.

    Прокачали и генерацию UI/веб-страниц, так что сборка интерфейсов и правки в макетах стали стабильнее. В сравнении с прошлой версией — резкий прыжок в reasoning-задачах: по их данным, на HLE прирост +38%, результат близок к GPT-5.1 (с инструментами). Протестировать можно в чат-клиенте и через API/документацию.

    Ключевые метрики (по данным Zhipu AI):
    🟡 SWE-bench Verified: 73.8%
    🟡 LiveCodeBench: 84.9%
    🟡 HLE (с инструментами): 42%+38% к прошлой версии

    🤑 ForgetMe | Boosty

    Приобрести подписку на любые сервисы
    @forgetshop_bot

    #новости #нейросети

  • Мои итоги года Профессиональные инсайты: — Cursor + ai.studio Claude Code + Codex (+ ai.studio) —

    Мои итоги года

    Профессиональные инсайты:

    — Cursor + ai.studio → Claude Code + Codex (+ ai.studio)
    — Claude Code – лучший кодинговый агент фреймворк создания агентов
    — Gemini – лучший pdf→markdown converter
    — Google sheets – лучший фронтенд для евалов (ладно, не всегда)
    — Granola – лучший транскрибатор звонков и намного больше
    — Эмбеддинги сосут (кст, самый зарепосченный мой пост)
    — MCP тоже, skills – база
    — Просто дайте агенту запускать код

    Личное:

    — Снова начал выступать и преподавать. Уф, какой же это кайф
    — Маме на юбилей оживил кучу старых фоток из физических альбомов (привет, альбомы из Гарри Поттера)
    — Поучаствовал в арт-объекте про грань между человеком и ИИ
    — Вырастил канал с пары сотен подписчиков до 7к
    — Нашел классную онлайн-тусовку людей, близких по вайбу
    — Провел с ними две масштабные ИИ конфы

    Кстати, сегодня одна из них: тоже итоги года, но от других 7 топовых ребят. С 14:00 до 18:30, либо в записи (да, оно стоит даже того, чтобы не забыть посмотреть запись)

    ———

    Вообще, тоже итог года – понял, что организовывать конференции в таком формате – сомнительное занятие с точки зрения выгод на единицу геморроя

    Плюшек – как у спикеров, но вся грязная работа на тебе, а самой приятной части не достается (собственно, побыть спикером). Вроде и получается хорошо, но не знаю, буду ли я что-то такое еще делать.

    Короче, присоединяйтесь, пока аттракцион еще точно работает (такая вот искренняя манипуляция дефицитом)

    entropy.talk/iitogi25

  • Смотрим итоги года в ChatGPT! 

1) Включаем VPN одной из этих стран: США, Великобритания, Австралия

    Смотрим итоги года в ChatGPT! 1) Включаем VPN одной из этих стран: США, Великобритания, Австралия

    🎄 Смотрим итоги года в ChatGPT!

    1) Включаем VPN одной из этих стран: США, Великобритания, Австралия
    2) В чат с ChatGPT пишем «покажи мои итоги года»
    3) Нам выдается карточка с итогами года!

    Я за весь год сменил очень много аккаунтов из-за абузов, поэтому это статистика с аккаунта, которым пользуюсь пару месяцев. Но ChatGPT в этом году я использовал точно чаще всего, шпашиба ему 💋

  • У китайцев вышла новая модель! z.ai GLM-4.7

https:docs.z.aiguidesllmglm-4.7

В доках пишут, что нов

    У китайцев вышла новая модель! z.ai GLM-4.7 https:docs.z.aiguidesllmglm-4.7 В доках пишут, что нов

    У китайцев вышла новая модель! z.ai GLM-4.7

    https://docs.z.ai/guides/llm/glm-4.7

    В доках пишут, что новая модель теперь фокусируется на выполнении задач, а не просто на написании кода!

    Так же там писалось, что новая модель обходит sonnet 4.5 и GPT-5.1 в некоторых бенчах, но теперь доку отредачили и убрали упоминание моделей.

    attained an open-source SOTA score of 84.8 on LiveCodeBench V6, surpassing Claude Sonnet 4.5.

    achieved open-source SOTA in the AIME 2025 math competition, outperforming Claude Sonnet 4.5 and GPT-5.1; scored 42% on the HLE (“Human Last Exam”) benchmark, representing a 38% improvement over GLM-4.6 and approaching GPT-5.1 performance.

    Я уже успел протестировать модель

    ◾️ у меня был план от gpt 5.2 по имплементации задачи: обновление бэкенда с миграциями + фронтенда.
    Модель на удивление справилась очень хорошо! Потрачено всего лишь 70к токенов за 18 минут. Прошлая версия (4.6) на подобных задачах где-нибудь застревала и сдавалась раньше времени – чтобы всё работало, приходилось разжевывать инструкции

    ◾️ запряг модельку (в упряжке claude code + chrome dev tools mcp) пройти мне e2e тесты — те же самые о которых я уже писал тут и тут.
    К моему удивлению, модель справилась офигенно! Точно лучше Gemini Flash 3.
    Ни где не тупила и спокойно завершила тест.

    И это при том, что модель не поддерживает картинки!!

    Опытным путем было выяснено, что для того чтобы прочитать контент на картинке, модель в CC как-то вызывает вот такой тул (как он попал мне в CC, при условии что я не подключал такие mcp — другой вопрос) и отправляет туда картинку, а тул в ответ читает ей по картинке.

    🌐 Z.ai Built-in Tool: analyze_image

    Input:
    {«imageSource»:»https://maas-log-prod.cn-wlcb.ufileos.com/anthropic/c86a1d8b-….png?UCloudPublicKey=TOKEN_e15ba47a-d098-4fbd-9….&Expires=17664…&Signature=6uRZH8ppbDvh…..=«,»prompt»:»Describe what text and content is shown in this image»}

    Executing on server…

    Output:
    analyze_image_result_summary: [{«text»: «The image displays a chat conversation with two participants …

    upd: это работает только при отправке скриншотов, в chrome dev tools судя по всему в модельку отдается DOM дерево

    Короче, первое впечатление – офигенно, мне понравилось!

    У меня уже была подписка zai на квартал (платил $50 за средний тариф). Гоняю в claude code (у меня есть bash скрипт который позволяет переключать подписки вот тут. вам только нужно обновить номер модели и добавить свой api key)

    Напоминаю, что подписка у z.ai очень дешевая! Доступна от $3/месяц.

    У меня есть ещё рефералка, на случай, если вы захотите брать подписку более чем на 1 месяц — zai’цы пишут, что по моей ссылке можно сэкономить ещё $10 (я проверил — такой же тариф стоит $40/mo)

    Рефералка

    #ai_coding@the_ai_architect
    ✔️ Тимур Хахалев про AI Coding, подписывайтесь!

  • Вышла китайская модель GLM 4.7

Это, пожалуй, самая интересная китайская нейронка на данный момент.

    Вышла китайская модель GLM 4.7 Это, пожалуй, самая интересная китайская нейронка на данный момент.

    🥺 Вышла китайская модель GLM 4.7

    Это, пожалуй, самая интересная китайская нейронка на данный момент. Она по бенчмаркам соревнуется с флагманами крупных компаний (OpenAI, Anthropic) полугодовалой давности, но гораздо дешевле их. Модель крута в агентности, что сейчас является одним из главных показателей у LLM, и в этом GLM’ке проигрывает та же G*mini 3 Pro

    Да и в целом, сейчас благодаря китайцам и Grok’у своих агентов стало делать ну очень дёшево, хотя раньше для этого годились только дорогие модельки Claude

    Годно! Если бы я честно платил за API, а не использовал всякие абузы, то для своих агентов выбрал бы точно GLM 4.7: из аналогов есть только Grok 4.1 Fast, но он всё же тупее.

  • Friendly reminder: завтра выступаю на онлайн-конференции ИИтоги 2025. Есть бесплатная опция участия,

    Friendly reminder: завтра выступаю на онлайн-конференции ИИтоги 2025. Есть бесплатная опция участия,

    Friendly reminder: завтра выступаю на онлайн-конференции ИИтоги 2025. Есть бесплатная опция участия, приходите — будет интересно! Уже 1600+ участников и количество растет!

    Вот уточненное расписание и о чем доклады (список раскрывается ↓):

    14:00 🎬 @How2AI Даниил Гаврилов
    ИИ-инструменты для не разработчиков перестали быть демками. Топ-5 ИИ-инструментов «для всех» к началу 2026-го

    14:45 📦 @dealerAI Александр Абрамов
    DeepSeek moment и проблемы с RL; Модели научились «учиться» без изменения весов

    15:30 @nobilix Рефат Аметов + 🤩 @neuraldeep Валерий Ковальский
    Год агентов – вы больше не выбираете модель. Про RAG и file-first. Мощь проприетарных систем, и наоборот – как сделать опенсорс фреймворк, который будут использовать крупные компании

    16:15 😎 @elkornacio Данила Симонов
    От «вау, Composer в Курсоре» до «господи, 100 ИИ-агентов для кодинга, что выбрать» за один год. Куда движется ИИ-кодинг?

    17:00 📊 @llm_under_hood Ринат Абдуллин
    Три технических отличия успешных внедрений ИИ в бизнес. Какие подходы к разработке используют успешные команды?

    17:45 🤗 @aioftheday Александр Горный
    Взгляд со стороны бизнеса: почему внедрение буксует даже если технология работает. Сдвиги в мировоззрении топ-менеджмента и как это влияет на всех остальных

    Есть платная и бесплатная опции участия. Запись будет для тех кто зарегистрируется.

    Детали и регистрация

    Или прямая ссылка на бот.

  • Если бы меня попросили назвать главный итог в AI в 2025 году, то это было бы начало повсеместного вн

    Если бы меня попросили назвать главный итог в AI в 2025 году, то это было бы начало повсеместного вн

    Если бы меня попросили назвать главный итог в AI в 2025 году, то это было бы начало повсеместного внедрения AI в реальные задачи и процессы. За последний год ИИ ассистенты превратились из игрушек для гиков и нишевых конкурентов Википедии в полноценные продукты. В качестве иллюстрации прикладываю количество моих сообщений к ChatGPT по годам. А ведь я еще регулярно пользуюсь дюжиной других сервисов.

    Чтобы сгенерировать диаграмму использования, надо экспортировать данные из ChatGPT. У меня получился json на 70Mb+. И NotebookLM и ChatGPT отказались его обрабатывать как есть и пришлось генерировать Python скрипты в Warp.

    Разумеется, адаптация ИИ не единственное, что произошло в AI за год. О всех важных изменениях и новых возможностях расскажут спикеры на нашей конференции ИИтоги 25 уже завтра. У нас уже 1600+ участников и мы только что закончили тестовые прогоны презентаций. Если еще не успели — по-прежнему можно зарегистрироваться бесплатно (за подписку на спикеров).

    @max_about_ai

  • Сколько бы хайпа gemini cli не уделялось, но до сих пор всё работает так, будто этот продукт разраба

    Сколько бы хайпа gemini cli не уделялось, но до сих пор всё работает так, будто этот продукт разраба

    Сколько бы хайпа gemini cli не уделялось, но до сих пор всё работает так, будто этот продукт разрабатывает маленький стартапчик на 3 чувака и они вот месяц назад зарелизились.

    Чуваки просто добавили костыль, который замечает «луп» модели, когда она сходит с ума и пытается повторить свои действия 🙈

    #ai_coding@the_ai_architect
    ✔️ Тимур Хахалев про AI Coding, подписывайтесь!

  • Вчера наткнулся на этот видос в рекомендациях ютуба какая же база!

Постоянно вижу русскоязычных, кт

    Вчера наткнулся на этот видос в рекомендациях ютуба какая же база! Постоянно вижу русскоязычных, кт

    Вчера наткнулся на этот видос в рекомендациях ютуба… какая же база!

    Постоянно вижу русскоязычных, кто промптит ИИ на английском. Смотрится очень нелепо и профита не даёт: модельки давным-давно на русском отвечают так же хорошо, как и на английском, а иногда даже лучше. Профит есть только на локальных модельках типа Gemma 3 270m, которые весят по 400 мегабайт… но я не думаю, что англопромптеры таким пользуются.
    Общайтесь с ИИ на русском, если вы русскоязычные! 👍

  • Многие из вас пришли в этот канал после ai-dev.live Возможно, вам интересно, как это проект появлял

    Многие из вас пришли в этот канал после ai-dev.live

    Возможно, вам интересно, как это проект появлялся. Вышел небольшой текстовый бэкстейдж на 10 минут, как оно выглядело от моего лица.

    Там много внутрянки: скрины сообщений, наши сомнения, факапы. Хорошо для почитать на выходных, а не то что я обычно пишу)

    https://habr.com/ru/articles/978830/

    У кого есть аккаунт на хабре, если поставите лайк – это вроде как поможет подольше подержать статью в топе

  • Итоги года!

Прошло пару дней с опросов в канале про ИИ в этом году, собрали всего 1356 голосов. И в

    Итоги года! Прошло пару дней с опросов в канале про ИИ в этом году, собрали всего 1356 голосов. И в

    👏 Итоги года!

    Прошло пару дней с опросов в канале про ИИ в этом году, собрали всего 1356 голосов. И вот, что вышло:

    1. Открытие года
    С большим отрывом (42%) победил Gemini 3 Pro — модель видимо реально зацепила многих и вызвала кучу эмоций. На втором месте (26%) Nano Banana Pro, которая стала настоящей революцией генерации картинок в этом году! Третье место у Sora 2, и я полностью понимаю проголосовавших — после релиза я днями и ночами генерировал там видео, это было невероятно. По-моему, это лучший релиз 2025

    2. Провал года
    В топе GPT 5. Её ждали полтора года, но не все получили то, что хотели. На втором месте Grok — было много обещаний в этом году, но то что вышло в итоге не всем зашло

    3. Open-source
    Побеждают Qwen и DeepSeek (29% и 28%). Qwen весь год был очень активным, а DeepSeek в начале года разгромил весь рынок — неудивительно, что они в топе

    4. Кому отдали больше всего денег
    Лидирует OpenAI с 41% — логично, они реально очень много чего предлагают в подписке, и нынче не платить за неё не вижу смысла

    5. Кто сжёг больше всего нервов
    Половина голосов (50%) у ChatGPT, на втором месте Gemini с 22% 💪

    6. Худшая ИИ-компания
    OpenAI забрала 47% голосов 😐
    На втором месте xAI (Grok) с 35%

    7. Лучшая ИИ-компания
    Победил Google с Gemini — 60% голосов с большим отрывом 😵

    С результатами почти всех опросов я кардинально не согласен: для меня открытие года это Sora 2, провал — очевидно Gemini 3 Pro, опенсорс Qwen (тут совпало), нервов сжёг больше всего точно Gemini, худшая компания — однозначно Google, лучшая — OpenAI.

    От Google были реально классные релизы в виде Veo 3 и Nano Banana Pro, в остальном весь год они пинали ху-и. От OpenAI топовые релизы круглый год, они — мой главный источник дофамина в 2025. Но почему-то народ больше любит Google 🙂‍↕️ и я видимо этого не пойму никогда…

  • Пару недель назад я выложил видео про свой текущий подход к работе и увидел что людям это зашло — дл

    Пару недель назад я выложил видео про свой текущий подход к работе и увидел что людям это зашло — для первого полноценного видео на ютубе собрал 1.6к просмотров, 68 лайков, 25 комментов и несколько проведённых консультаций, где я в деталях показал как у меня это всё работает.

    Так же, за несколько месяцев консультаций у меня появились парочка проверенных лекций: про Claude Code и Plan&Act подход.

    Я решил провести воркшоп-сессии, где хочу поделиться своим опытом и знаниями с вами.

    У меня есть 1 практический воркшоп и 3 теоретические лекции, которые я хотел бы вам предложить:

    Теоретические лекции:
    ▪️ Вводная лекция в Claude Code — что это такое и с чем едят. Все фишки CC: skills, subagents, hooks, custom commands, выбор моделей и воркфлоу
    — продолжительность 1.5 — 2 часа
    — подойдёт тем, кто с Claude Code ещё не знаком, но уже работал в AI Coding инструментах

    ▪️ Вводная лекция в Codex CLI
    Что это такое и с чем едят. Все фишки codex (их немного)
    — продолжительность ~1 — 1.5 часа
    — подойдёт тем, кто с Claude Code ещё не знаком, но уже работал в каких-нибудь AI Coding инструментах

    ▪️ Plan&Act в деталях
    Подробнее расскажу, как делаю планирование в codex-cli, имплементацию в Claude Code, поделюсь промптами и инструкциями
    — продолжительность ~1.5 — 2 часа
    — подойдет тем, кто уже знаком с Claude Code

    Практический воркшоп:

    ▪️ Practical Workshop — собираемся на звонок и я в прямом эфире буду делать 1-2 фичи в какой-нибудь open source проекте! Покажу в деталях, как я работаю. Отвечу на все вопросы. В конце, бонусом, отдам все промпты.
    — продолжительность — ~2-3 часа
    — подойдёт тем, кто +- знаком со всеми темами перечисленными выше

    Это будут групповые воркшопы, планирую по 5-8 чел максимум.

    Когда?

    Что делаете на новогодних праздниках? Если делать вам нечего, то гоу на воркшопы 🙂
    Я предлагаю провести это 6, 8, или 9 января. Пока не знаю, в какой из дней что именно будет.

    Больше деталей можно узнать здесь

    Там же можно заполнить анкету на участие в воркшопе.
    Вопросы можно задать мне в телеграм @yatimur или здесь в комментах.

    #ai_coding@the_ai_architect
    ✔️ Тимур Хахалев про AI Coding, подписывайтесь!

  • Активно потестил GPT 5.2 Codex (Extra High) в Codex CLI и вот что заметил по сравнению с обычной 5.2

    👍 Активно потестил GPT 5.2 Codex (Extra High) в Codex CLI и вот что заметил по сравнению с обычной 5.2 (Extra High)

    — Моделька быстрее. 5.2 над чем-то простым могла работать 10 минут, Codex-версия над этим же работает 4-5 минут, а результат сопоставим
    — Сохраняются «приколы» прошлых Codex версий: предшественники ну ОЧЕНЬ любили всё делать по командам, тут также. Обычная 5.2 использует встроенный тул для прочтения файла (что логично), Codex же предпочитает читать его через команду.
    Это может быть не так удобно для визуального понимания, что делает моделька… Но возможно, как-то и улучшает качество работы, ибо постоянно прибегает к решению задач через команды. А 5.2 не всегда додумывается сделать что-то через команду, хотя через неё было бы рациональнее.
    — Лимиты на Codex CLI в Plus/Team всё такие же щедрые в том числе на 5.2 Codex Extra High (по моим подсчётам, 20млн токенов в неделю и 5млн каждые 5 часов)

    Короче, получился просто приятный минорный апдейт для тех, кому нравилась 5.2 в кодинге (думаю нет таких, кому не нравилась))). Моделька стала побыстрее и совсем чуть-чуть поумнее 😇

  • Небольшой отзыв по Antigravity В последнее время чаще использую Antigravity. Мне очень нравится там

    Небольшой отзыв по Antigravity

    В последнее время чаще использую Antigravity. Мне очень нравится там две особенности:
    — Opus 4.5 почти бесконечный
    — Классная работа с браузером из коробки

    На днях я много работал с Opus 4.5 – делал фронтенд и только спустя часа 4 закончились лимиты. Нужно было ждать ещё где-то 5 часов. Далее можно было пользоваться только Gemini 3 Pro.

    Попробовал ещё и Gemini 3 Flash – модель неплохая, очень быстрая, по бенчам рвёт чуть ли не всех, но в E2E тесте не смогла разобраться с кастомным селектором поля и тупила. На простые задачки её можно натравить.

    Но больше всего мне понравился новый процесс у себя – E2E тесты под управлением агента.
    Это тот же самый процесс, который я прохожу руками, но теперь за меня это делают агенты. Flash не справился чутка, но Opus 4.5 и Pro-шка вполне хороши в этом.

    Я описал несколько user journeys (т. е. пути юзера по приложению) в .md файлах и сохранил. Теперь, после того как добавляю новые фичи, я открываю Antigravity и прошу его пройтись по моим user journeys и составить отчёт – что работает, а что нет. В конце, на основе этого отчёта фиксим проблемы.

    Да, Antigravity сейчас работает очень посредственно и с костылями (кнопка Retry failed request отправляет слово «Continue» в чат), но фичи классные.

    Не уверен, доступно ли это на бесплатном тарифе, но на тарифе за $20 у меня это всё работает.

    Если у вас есть Google AI Pro тариф и вы ещё не попробовали Antigravity, то советую побыстрее это сделать!

    Часто вижу запросы на поиск решений открытия сервисом гугла из РФ. Побродил по коммьюнити и составил вот такую памятку.

    #ai_coding@the_ai_architect
    ✔️ Тимур Хахалев про AI Coding, подписывайтесь!

  • Помните хейт в комментах после моего поста про итоги года от Granola Они выкатили целую статью (ссы

    Помните хейт в комментах после моего поста про итоги года от Granola?

    Они выкатили целую статью (ссылка внизу), где рассказывают как они их готовили. На мой вкус, очень интересно почитать – понятно, почему их итоги года ощущаются иначе чем то, что делают остальные компании

    Записал другу войс с мыслями пока читал. Вот причесанная версия:

    → Ооо, вот все говорят, что промпт инжиниринг умер, а похоже все-таки нет – это по-прежнему серьезная часть создания ИИ фичей (и это мэтчится с моим непопулярным мнением). Просто, это не совсем техническая часть, а скорее продуктовая – тут важно не то, как системе выполнять задачу, а скорее – понять какой результат хотим видеть и почему. Часто это прям совсем в мелочах проявляется: нужен не «ироничный твист» а «слегка ироничный твист»

    → Behavioral vs. Psychological. Мысль вроде очевидная, но я ни разу не формулировал это так в своих запросах к LLM. А надо бы:

    Ребята просят не делать выводы о психологии и причинности («ты просишь валидации, потому что чувствуешь неувернность в своей экспертизе»). Вместо этого, важны обобщения реальных фактов («часто, после фразы собеседника, ты коротко перефразируешь сказанное»). Что я делаю, а не почему. Потестил на выгрузке канала, получилось интересно (там и про вас есть, хаха). Оставлю в комментах.

    → Похожая штука про комплименты – многие юзеры хейтят лесть, особенно от ИИ. Ребята решили это тем, что упоролись в конкретику и опять же конкретные поведенческие факты. Вместо «ты крутой аналитик»«ты несколько раз находил в логах корреляцию между нагрузкой и конфигом, которую другие пропустили». Какие у меня паттерны поведения, а не кто я. Бтв, в обычном общении с людьми тоже хорошо работает

    → Ну и глобально, кажется, у некоторых тулзов уже достаточно много информации про нас для выводов, которые оказываются сюрпризом. «Модель может разглядеть что-то, что юзер сам про себя не замечает». Это забавно

    Статья

  • Получаем ChatGPT Plus бесплатно (снова) 

Ранее методы по типу зайди на сайт с акцией и введи сгенер

    Получаем ChatGPT Plus бесплатно (снова) Ранее методы по типу зайди на сайт с акцией и введи сгенер

    💋 Получаем ChatGPT Plus бесплатно (снова)

    Ранее методы по типу «зайди на сайт с акцией и введи сгенерированную карту» у меня не работали, но сейчас по приколу решил попробовать — прошло.
    Я просто зашел на старый аккаунт, на котором никогда не было подписок, и там было предложение пробного периода Plus. Ввел сгенерированную карту — активировалось 🌟

    Карта прошла такая: BIN 6258142602xxxx, генерировать на этом сайте. Если будет ошибка на стороне OpenAI — пробуйте другую карту с списка (там 10 дается), у меня с первой прошло оформление

    Если зайти под VPN’ом Южной Кореи, то еще появится вариант бесплатного Business (Team) на месяц, там есть GPT 5.2 Pro и его можно оформить также, как и методом выше

    Пробуйте, пишите — выйдет ли! У меня и ещё у пары людей по этому бину карты прошло 🤤

  • абсолютно НЕВЕРОЯТНОЕ обновление, OpenAI просто РАЗГРОМИЛИ весь рынок!!!!!!!!!!!!!! новая модель ста

    абсолютно НЕВЕРОЯТНОЕ обновление, OpenAI просто РАЗГРОМИЛИ весь рынок!!!!!!!!!!!!!! новая модель ста

    абсолютно НЕВЕРОЯТНОЕ обновление, OpenAI просто РАЗГРОМИЛИ весь рынок!!!!!!!!!!!!!! новая модель стала на 0.8% лучше чем 5.2!!!!!!! ЭТО ПРОРЫВ 🤯🤯🤯инновация от OpenAI номер два: GPT 5.2 Codex Extra High отказалась мне описывать изменения на русском, так как «не знает его» (???)

    спасибо, Сэм 🌟

  • GPT 5.2 Codex вышла!!  Краткая сводка статьи:  Главное: OpenAI выпустила GPT-5.2-Codex  свою самую п

    GPT 5.2 Codex вышла!! Краткая сводка статьи: Главное: OpenAI выпустила GPT-5.2-Codex свою самую п

    GPT 5.2 Codex вышла!! Краткая сводка статьи: Главное: OpenAI выпустила GPT-5.2-Codex — свою самую продвинутую модель для профессиональной разработки ПО и задач кибербезопасности. Ключевые улучшения: — Работа с кодом: Оптимизирована для длительных задач…абсолютно НЕВЕРОЯТНОЕ обновление, OpenAI просто РАЗГРОМИЛИ весь рынок!!!!!!!!!!!!!!
    новая модель стала на 0.8% лучше чем 5.2!!!!!!! ЭТО ПРОРЫВ 🤯🤯🤯

  • GPT 5.2 Codex вышла!! Краткая сводка статьи: Главное: OpenAI выпустила GPT-5.2-Codex свою самую

    GPT 5.2 Codex вышла!!

    Краткая сводка статьи:

    Главное:
    OpenAI выпустила GPT-5.2-Codex — свою самую продвинутую модель для профессиональной разработки ПО и задач кибербезопасности.

    Ключевые улучшения:

    Работа с кодом: Оптимизирована для длительных задач (рефакторинг, миграция кода) благодаря сжатию контекста. Улучшена работа в среде Windows и с терминалом.
    Производительность: Установила новые рекорды в бенчмарках SWE-Bench Pro (56.4%) и Terminal-Bench 2.0 (64.0%).
    Мультимодальность: Лучше понимает скриншоты, технические диаграммы и UI-макеты, превращая их в рабочие прототипы.

    Кибербезопасность:

    — Модель демонстрирует значительный скачок в возможностях защитной кибербезопасности (успехи в профессиональных CTF-челленджах).
    — Приводится пример, как предыдущая версия модели помогла исследователю найти критическую уязвимость в React.
    — Из-за риска использования злоумышленниками (dual-use) добавлены усиленные меры безопасности.

    Доступность:

    Уже доступна: Платным пользователям ChatGPT.
    Скоро: Доступ через API в ближайшие недели.
    Спецпрограмма: Запускается пилотный проект «доверенного доступа» (invite-only) для проверенных экспертов по безопасности, чтобы они могли использовать модель для защиты систем без лишних ограничений.

  • В ChatGPT появился магазин приложений

Приложение в ChatGPT  набор инструментов для ИИ, которые она

    В ChatGPT появился магазин приложений Приложение в ChatGPT набор инструментов для ИИ, которые она

    В ChatGPT появился магазин приложений

    Приложение в ChatGPT — набор инструментов для ИИ, которые она может юзать с доступом к данным с аккаунта подключенного приложения. Таким образом, уже можно подключить Apple Music и в обычном чате попросить его выполнить какие-то действия: например, создать для вас плейлист внутри Apple Music

    По факту, это стандартный функционал MCP-серверов, но в разы понятнее для простых юзеров, а еще — удобно и красиво, все можно найти в едином магазине. Можно и создавать, и выкладывать свои приложения

    Круто это потому, что можно навайбкодить себе приложение для взаимодействия с Telegram, например (такого пока нету там), подключить себе его, и у ChatGPT будет полный доступ к вашему Telegram-аккаунту (с вашим контролем). Только представьте: просто пишете в ГПТшке посмотреть вашу личку Telegram, она это делает и выдает вам краткую сводку что писали. Это безумно удобно! Круто!

  • Хочу поделиться годной штукой — Claude Island. Это маленькое опенсорс приложение для макбука, которо

    Хочу поделиться годной штукой — Claude Island. Это маленькое опенсорс приложение для макбука, которое превращает Dynamic Island в мини-дашборд для Claude Code. Видишь что агент делает прямо в нотче, без переключения окон.

    — Видишь статус в реальном времени: читает файлы, думает, или ждет твоего апрува
    — Апрувы прямо из Island — причем видишь что именно принимаешь
    — Работает даже с tmux
    — Полностью бесплатное и опенсорс

    claudeisland.com

    Вообще вокруг экосистемы CC много инструментов, вот еще несколько годных:

    Conductor — запускает несколько Claude Code агентов параллельно, каждый в своем git worktree, с UI для управления и мониторинга.

    Sculptor — параллельные агенты в Docker-контейнерах с killer-фичей Pairing Mode: синхронизация с твоим IDE в реальном времени, тестируешь изменения мгновенно.

    Happy — мобильный и веб-клиент для CC и Codex с push-уведомлениями, голосом в реальном времени и end-to-end шифрованием. Проверяй агента с телефона.

    opcode.sh (ex Claudia) — полноценный desktop GUI для CC: управляешь сессиями, создаешь кастомных агентов, трекаешь затраты и использование. Все локально.

    А какими расширениями/аппами для экосистемы CC вы пользуетесь?

  • OpenAI собираются выпустить GPT 5.2 Codex Max на днях Это будет специализированная версия GPT 5.2 д

    😍 OpenAI собираются выпустить GPT 5.2 Codex Max на днях Это будет специализированная версия GPT 5.2 для кодинга. Учитывая, что и обычная 5.2 кодит очень круто, боюсь представить что будет творить Codex, так ещё и Max, так ещё и Extra High… люблю OpenAI…Я был прав — 5.2 Codex выпускают сегодня!!! Безумно жду!
    ДА-А-А А-А-А-А-А УРА-А-А А-А-А-А-А УРА-А-А🎉🎉🎉🎉🎉

    Источник

  • Спасибо всем за голоса, и извините за спам опросами, если кому-то не нравится 🙂 В конце года интер

    😘 Спасибо всем за голоса, и извините за спам опросами, если кому-то не нравится 🙂

    В конце года интересно посмотреть общее мнение про ИИ в этом году: через опросы реальных людей это сделать удобнее всего

    Чуть позже, когда наберётся голосов, подведу итоги года!

  • Dealer.AI pinned Многохорошо, как размеры MAS не скейлят качество конечных задач линейно. Вышла инт

    Dealer.AI pinned «Много≠хорошо, как размеры MAS не скейлят качество конечных задач линейно. Вышла интересная работа в которой развенчается миф для МАС, что чем больше агентов, тем лучше решается задача. Авторы показали, что линейности нет🚬, и все зависит от ресурса, условий…»

  • А Дядя напоминает. Что год подходит к концу и это время подвести ИИтоги 2025 в хорошей компании.

    А Дядя напоминает. 📦

    Что год подходит к концу и это время подвести ИИтоги 2025 в хорошей компании.

    А чтобы это было интересно, насыщенно и интерактивно, мы решили сделать специальное мероприятие 23 декабря. Там я буду рассказывать про то, что нового подарил нам год в AI science: DeepSeek moment, Reasoning и RL, context learning, память и агенты.

    Помимо меня, ещё будет 8 крутых спикеров, многих из которых вы можете узнать на видеовставке по фото: Head of AI, руководители AI R&D, фаундеры AI-продуктов с $25m funding — короче будет 4,5 часа хорошей такой выжимки для вас — опыт, цифры и инструменты. Организаторы постарались.

    Когда?
    Дата и время: 23 декабря, 14:00.
    Есть платная и бесплатная опции участия. Запись будет для тех кто зарегистрируется.
    Где? Детали и регистрация

  • Настало время подведения итогов года! 2025-й выдался очень насыщенным на обновления в AI и в особен

    Настало время подведения итогов года!

    2025-й выдался очень насыщенным на обновления в AI и в особенности в AI Coding!

    Мы с ребятами собрались и решили провести голосования по разным темам.

    Я выбрал тему Событие 2025 года в AI Coding

    И вот кандидаты

    ◾️ Появление Vibe Coding
    Можем ли мы представить себе работу без вайб-кодинга после того самого судьбоносного твита в феврале 2025? Я — нет

    ◾️ Релизы Claude моделей — Sonnet, Opus, Haiku
    А можем ли мы представить себе вайб-кодинг без моделей Anthropic? Я — тоже нет. Кстати, за этот год сменилось 4!! поколения модели Claude — 3.7, 4, 4.1, 4.5! (Ещё есть слухи что до конца года выйдет Sonnet 4.7)

    ◾️ Релиз Claude Code
    Вместе релизом Claude Sonnet 3.7, мы увидели новый инструмент, который в последствии *перевернул индустрию* программирования — Claude Code.

    И по сей день этот инструмент остается для меня топ-1 при выборе.

    ◾️ Релизы Gemini 2.5-3 Pro моделей

    Релиз модели Gemini 2.5 Pro в начале года тоже существенно повлиял на рынок, я почти весь год пользовался этой моделью до появления следующего поколения – Gemini 3 Pro.

    ◾️ Смена прайсинга Cursor
    В конце весны Cursor поменяли прайсинг — они больше не дают 500 запросов за $20. Помимо этого, они были замечены в непонятных махинациях с контекстным окном, что вело к отуплению моделей. Это вызвало негативную реакцию как у аудитории, так и у меня лично. С тех пор я не пользуюсь курсором.

    ◾️ Релиз GPT-5.* моделей
    В начале года Сэм Альтман пообещал нам, что он избавит нас от запутанных названий модели OpenAI.

    К концу года мы имеем 20 версий GPT-5 в Cursor.

    Тем не менее, модели семейства GPT-5 получились очень хорошими, 5.2 моё почтение!

    ◾️ Релиз codex-cli
    В августе OpenAI выпустили конкурента Claude Code. У него нет столько фич, как у CC, но codex сделан очень добротно и занял свою нишу в AI Coding

    ◾️ Релиз Antigravity
    С релизом Gemini 3 Pro мы увидели новый инструмент кодинга от Google. Он пока что ещё сырой, но имеет очень крутые фичи и хороший доступ и к G3 Pro и к Claude Sonnet/Opus 4.5! Пользуйтесь, пока не прикрыли.

    ◾️ Релиз z.ai моделей
    Летом и осенью китайцы z.ai выпустили не побоюсь этого слова революционные модели — GLM-4.5 и GLM-4.6 и наконец сравнялись с SotA моделями прошлых поколений — Sonnet 3.7, 4!

    ◾️ Появление Spec Driven Development / Document Driven Development подходов
    В 2025 получил свою популярность SDD/DDD подход к AI Coding – это когда мы кладём в документацию к коду информацию, которая не очевидна из кода, что в итоге повышает качество написанного кода с помощью AI

    ◾️ Миграция пользователей Codex -> Claude Code -> Cursor -> Antigravity и обратно
    Летом-осенью мы с вами были свидетелями перебежек пользователей с одного инструмента на другой, как только вендоры выпускали новую модель или лоботимизировали старую

    Голосуйте или умом, сердцем или чем угодно! (голосовалка ниже)

    Делитесь своими мыслями в комментах!

    Через недельку мы подведём итоги голосования.

    А вот голосования от других авторов:
    Если одна подписка, то какая?🔗Поляков считает: AI, код и кейсы
    Код вместе с ИИ в 2025. Чем пользоваться?🔗Глеб Кудрявцев про AI кодинг
    AI-headliner🔗Константин Доронин
    ИИ-компаньон года🔗Бунак и Цифра: chatGPT / AI в бизнесе

    #ai_coding@the_ai_architect
    ✔️ Тимур Хахалев про AI Coding, подписывайтесь!

  • Правило Парето в кодинге с ИИ (да и вообще во всех сложных задачах с ИИ) Вы, наверное, слышали о то

    Правило Парето в кодинге с ИИ (да и вообще во всех сложных задачах с ИИ)

    Вы, наверное, слышали о том, что лучше решать задачи «в один промпт» (ваншотить), а не делать бесконечное количество мелких правок в чате с моделью, растягивая контекст.

    У этого подхода в чистом виде есть пара проблем:

    1. Он не работает. Ну правда, в реальности результат почти никогда не соответствует ожиданиям на 100%

    2. Он жрет много времени, лимитов, денег. Если полностью перезапускать запрос из-за мелкой правки, то придется ждать очередные 2-5-10 минут и тратить сотни тысяч токенов. И то без гарантии, что нет отвалится что-то другое, что до этого получилось хорошо

    Но и возник он не на пустом месте – большое количество правок отдельными сообщениями реально ухудшает работу. И проблема тут не только в длине контекста, но и в том, что модель уже пошла по какому-то пути, и ей когнитивно сложно сделать шаг назад и «забыть» неправильную дорогу. Что у нее в контексте – за то и цепляется.

    Я для себя вывел, что каждая такая правка примерно в 3-5 раз менее эффективна, чем если писать пожелание в исходном запросе. А значит, с первого запроса должно корректно выполнятся большинство работы. Если это не так, то:

    — либо декомпозирую задачу
    — либо прописываю больше деталей
    — либо спрашиваю агента, чего не хватило или что в исходном запросе помешало получить желаемое, а потом прошу обновить за меня промпт, «стираю память» и перезапускаю

    Ну и мысль про правило Парето помогает не подгорать от того, что на 20% правок уходит 80% времени – так и должно быть

  • Многохорошо, как размеры MAS не скейлят качество конечных задач линейно. Вышла интересная работа в

    Много≠хорошо, как размеры MAS не скейлят качество конечных задач линейно.

    Вышла интересная работа в которой развенчается миф для МАС, что чем больше агентов, тем лучше решается задача.

    Авторы показали, что линейности нет🚬, и все зависит от ресурса, условий задачи и размера популяции. 💪

    Прям нелинейная динамика scaling мультиагентных систем, получается. А значит системы агентов, можно рассматривать по аналогии с моделью нелинейной динамики популяций, т.е. оно может «жить» по закону популяции и приходить к коллапсу через размеры системы и прочие параметры 🧠

    Кстати, авторы вывели закон масштабирования МАС и провели хорошую абляцию с разными моделями от лидеров рынка под капотом. Уважаемо. 🦾

  • GPT-5.2 уже здесь! Что нового и почему это важно

Друзья! Если вы работаете с текстами, кодом, данны

    GPT-5.2 уже здесь! Что нового и почему это важно Друзья! Если вы работаете с текстами, кодом, данны

    🆕 GPT-5.2 уже здесь! Что нового и почему это важно?

    Друзья! Если вы работаете с текстами, кодом, данными или просто хотите сэкономить кучу времени, это обновление для вас. GPT-5.2 – это не просто очередной апдейт, а реальный скачок в производительности и точности!

    Вот кратко о главном:

    💻 Для разработчиков:
    SWE-Bench Pro: 55.6% (новый рекорд) – лучше пишет код, чинит баги, рефакторит
    ✦ Нужен сайт? Легко! Просто попросите – и он сгенерит 3D-интерфейс в одном HTML-файле
    ✦ Меньше ручной правки, больше готового продакшн-кода

    🧠 Для аналитиков и исследователей:
    ✦ Long context: почти 100% точность на документах до 256k токенов – идеально для контрактов, отчётов, исследований
    ✦ GPQA Diamond: 92.4% – отвечает на graduate-уровне по физике, химии, биологии
    ✦ FrontierMath: решает 40.3% математических задач уровня эксперт (было 31%)

    🖼 Для работы с визуалами:
    ✦ CharXiv: 88.7%, читает графики и научные изображения
    ✦ ScreenSpot-Pro: 86.3%, понимает интерфейсы по скриншотам
    ✦ Меньше ошибок, больше пользы из визуальных данных

    🧰 Для автоматизации:
    ✦ Tau2-bench: 98.7% – идеально вызывает нужные функции в многошаговых задачах
    ✦ Может заменить целые мульти-агентские системы, работает быстрее и надёжнее

    💼 Для работы и бизнеса:
    ✦ Сэкономит до 10 часов в неделю – проверено пользователями ChatGPT Enterprise
    ✦ Создаёт презентации, таблицы и модели быстрее, дешевле и чище, чем специалист-человек
    GDPval: побеждает профессионалов в 70.9% кейсов по 44 специальностям (против 38.8% у GPT-5.1)

    Вывод: GPT-5.2 не просто лучше – это новый уровень автономности и качества!

    📌 Как попробовать?
    Уже доступно в ChatGPT (Plus, Pro, Enterprise) и API:
    GPT-5.2 Thinking – для сложных задач
    GPT-5.2 Pro – когда нужен максимум качества
    GPT-5.2 Instant – для повседневных задач

    ➡️ Бесплатно потестить можно как всегда в LMArena

    🧩 ChatConnectGPTYouTube

  • Промежуточные инсайты по нашему краудсорсингу кейсов об ИИ в разработке Выписал короткими тезисами

    Промежуточные инсайты по нашему краудсорсингу кейсов об ИИ в разработке

    Выписал короткими тезисами – либо практичное, либо забавное, иногда с цитатами:

    Полезные лайфхаки:

    В инструкциях явно давать defend режим, где он должен критически относится к моим командам

    Ручной индекс проекта (тут лайк за простую реализацию)

    tree репозитория с одной строкой описания на каждый файл

    Делать conventions/*md, а в рулсах для CC/Codex/Cursor ссылаться на них – чтобы не синкать зоопарк стандартов + правила грузятся динамически под задачу, а не засоряют контекст

    Вопреки расхожему мнению, feedback loop нужен не для качества, а для скорости – убираем самый скучный human-in-the-loop (ts, lint, unit-tests, e2e, browser mcp)

    Про большие компании и кодобазы:

    На больших репо полезнее всего начинать не с написания кода, а с код ревью, поиска релевантного контекста для изменений и анализа логов со сложными паттернами

    Для больших кодобаз резать задачи не по фичам, а по файлам/модулям, где нужно сделать изменения (декомпозиция не по числу изменений, а по их «локальности»)

    Экспериментально-философское:

    Adversarial AI – сделать, чтобы модели конкурировали. Один агент делает, другой ревьюит и пытается сломать. Часто это даже разные тулы (например, Claude Code + Codex)

    Изменение подходов от поддержки и дебага кода к «удали и сгенери заново»

    PM-Разработчик — простые crud решения уже уходят к менеджерам

    Автопромптинг:

    Люблю использовать notebook ml для дистилляции промптов. На вход подал книгу по проектированию баз данных, он мне выдал промпт со ссылками… Теперь у меня есть свой агент который проектирует базы данных

    Еще пару кейсов, по которым интересно почитать прям исходный текст:

    Фаундер построил конвейер из 17 специализированных агентов, где у каждого «рабочего» агента есть агент-«дублер», проверяющий работу. Полный цикл: от архитектуры до позитивных/негативных тестов и PR.

    Тимлид использовал Cursor для расследования сложного инцидента с ребалансировкой Kafka-консьюмеров на проде: как скармливать ИИ логи «до», «во время» и «после» аварии, чтобы он нашел неочевидную корреляцию между нагрузкой и конфигом, которую люди не увидели.

    Переписать 40 сырых SQL-запросов на ORM, не сломав бизнес-логику. Пошаговый гайд: как сгруппировать запросы по сущностям через rg, сгенерировать слои репозиториев и заставить ИИ найти N+1 проблемы по ходу.

    А чтобы почитать исходные тексты, присоединяйтесь к нашему краудсорингу 🤗

    Аттракцион работает до 21 декабря (когда мы разошлем доступ к обезличенным кейсам)

    Оставить кейс и получить доступ

    А еще – альтернативные мнения: от Макса; от Тимура

  • Результаты опроса практиков AI Coding На прошлой неделе мы создали опросник по AI Coding, собрали о

    Результаты опроса практиков AI Coding

    На прошлой неделе мы создали опросник по AI Coding, собрали около 80 осознанных ответов и делимся с вами ключевыми инсайтами.

    Я покажу интересные цифры, которыми поделились участники опроса.

    Как изменилась эффективность при использовании AI Coding

    1. Full-stack разработчик

    Задача: Написание 630 тестов.
    Результат: Сделано за 6 часов (4 часа кодинга + 2 часа планирования).
    Сравнение: Оценка ручной работы составляла 110 часов.
    Выигрыш: ~18 раз.

    2. Engineering Manager / CTO

    Задача: Апгрейд фреймворка (Ruby on Rails 5 -> 8), затронуто 500 файлов.
    Результат: Сделано за 2-3 вечера.
    Сравнение: Экономия 2-4 недели работы.

    3. Founder

    Цитата: «Сейчас за 30-40 минут могу сделать то, что 2-3 года назад заняло бы неделю».
    Выигрыш: ~40-80 раз (субъективная оценка).

    4. Backend разработчик
    Задача: Реализация сложного E2E сценария с шедулером.
    Результат: Выполнено за 1 день.
    Сравнение: «Задача, на которую я бы потратил неделю».
    Выигрыш: ~5 раз.

    5. Founder:

    Задача: Миграция 40 SQL-запросов на ORM в Node.js сервисе.
    Результат: Один рабочий день.
    Сравнение: Вместо недели ручной миграции.

    6. Разработчик:

    Задача: Разработка админки.
    Результат: В 5-10 раз быстрее, чем год назад аналогичная задача вручную.

    Если вам интересно узнать, как именно эти люди добились такого результата, то успейте принять участие в опросе до 21 декабря, а после мы вам отправим анонимизированные ответы всех участников

    Но не все отзывы положительны

    Есть несколько упоминаний о том, что AI крадёт время:

    1. Backend:

    Попытки использовать «супер-крутой промптинг» занимают кратно больше времени, а результат улучшают максимум на 10%.

    2. Team Lead:

    Иногда кажется, что решение задачи с помощью ИИ и переписывание… занимает времени больше, чем если бы писал всё сам

    3. Team Lead:

    Где-то AI «убирает час-два времени», но кодинг на огромной базе провалился («играли в context engineering… проиграли»).

    Какой можно сделать вывод?

    Те, кто научился делегировать рутину (тесты, миграции, бойлерплейт) и ускорять планирование, сообщают об ускорении в 5-20 раз. Те, кто пытается заставить AI писать идеальный код «одной кнопкой» или использует его для сложных неопределенных задач без декомпозиции, часто тратят больше времени на исправление ошибок.

    Здесь можно посмотреть мнения моих коллег:
    Макс Романовский
    Коля Шейко

    ✔️ Тимур Хахалев про AI Coding, подписывайтесь!

  • Предварительные результаты опроса Спасибо всем кто принял участие! Те кто еще не принял, но хотел б

    Предварительные результаты опроса

    Спасибо всем кто принял участие! Те кто еще не принял, но хотел бы у вас есть еще неделя до 21 декабря: пройти опрос. После этого мы отправим всем принявшим участие анонимизированные результаты.

    Статистика:

    👥 Приняло участие 120+ человек

    🧑‍💻 Наиболее популярные роли: Team / Tech Lead (24%), Full-stack (19%), Backend (14%), Founder (11%).

    🛠 Топ-3 инструмента (% использующих от всего числа ответивших): Claude Code (53%), Cursor (36%), ChatGPT (20%)

    🎓 Половина ответивших имеет больше 10 лет опыта, а 70% — 5+ лет опыта.

    Я прочитал ответы и вот мои личные инсайты:

    1️⃣ Plan + Act самый эффективный метод по мнению многих: сначало нужно спланировать выполнение задачи вместе с агентом, а уже потом выполнять, и полезно вести “дневник разработки”.

    2️⃣ Не смотря на доминирование Claude Code и Cursor наблюдается очень высокое разнообразие актуальных инструментов — почти все пользуются больше чем одним тулом, а всего в опросе их несколько десятков.

    3️⃣ Самые популярные кейсы — написание тестов и генерация болерплейт кода (CRUD, DTO, конфиги, и тд).

    4️⃣ Наличие хорошего покрытия тестами и качественного CI — залог большей автономности агентов.

    5️⃣ Самый частый совет себе прошлому — не бояться и начинать пользоваться как можно раньше.

    6️⃣ Есть люди которые активно используют связку Claude Code + Obsidian за пределами кодинга для саморазвития, управления проектами и личной жизнью.

    7️⃣ Среди ответивших многие пишут собственные системы улучшения инструментов или даже собственные инструменты.

    Пост с инсайтами Тимура
    Пост с инсайтами Коли

    Подписаться

  • Если хотели попробовать Claude Code бесплатно (я тут часто о нем пишу), вот вам guest pass — бесплат

    Если хотели попробовать Claude Code бесплатно (я тут часто о нем пишу), вот вам guest pass — бесплат

    Если хотели попробовать Claude Code бесплатно (я тут часто о нем пишу), вот вам guest pass — бесплатный доступ на 7 дней, их всего 3 штуки — забирайте только если вам действительно нужно:

    ➡️ https://claude.ai/referral/WgHuLl3j2Q

    UPD: первый — всё. Вот еще один от друга https://claude.ai/referral/AA4xj5ZvYA
    и еще один https://claude.ai/referral/wUQ1JKvJsg

    Это новая фишка, выкатили сегодня, доступна только подписчикам тарифа Claude Max, подробности тут.

  • Вышла GPT-5.2!

после релиза Gemini 3 я очень ждала что же ответит OpenAI 

У Сэма Альтмана есть заб

    Вышла GPT-5.2! после релиза Gemini 3 я очень ждала что же ответит OpenAI У Сэма Альтмана есть заб

    ⚡️ Вышла GPT-5.2!

    после релиза Gemini 3 я очень ждала что же ответит OpenAI 😺

    У Сэма Альтмана есть забавный паттерн — они часто ждут пока кто-то из конкурентов выкатит крупный релиз, и только потом выпускают свое, а вот смотрите у нас ЛУЧШЕ 😁

    И вот — OpenAI начали раскатывать GPT-5.2 (у меня уже доступно)

    В релизе нет генерации изображений (которую я кстати очень жду!), это максимально прагматичный апгрейд для реальной работы, GPT-5.2 сильно прокачали именно под professional knowledge work — таблицы, презентации, документы, код, длинный контекст, многошаговые задачи end-to-end. Интересно попробовать, потому что 5.1 из моих черновиков фин модель собрать увы не смогла 😡

    По бенчмаркам выглядит сильно: на GDPval (бенчмарк Google для работы с документами) показывает 94.2% против 89.7% у Gemini 3, на CodeForces рейтинг вырос на 15%, на multi-step reasoning прирост около 20% 🧠

    кто уже попробовал, делитесь впечатлениями в комментах ⌨️

    @neural_prosecco

  • Следить за каждым релизом в AI — путь к выгоранию. Понять, что из этого работает — путь к результата

    Следить за каждым релизом в AI — путь к выгоранию. Понять, что из этого работает — путь к результатам. В 2025 году вышло сотни «революционных» моделей, тулов, AI-фреймворков. Можно было читать каждый релиз. А можно — дождаться конца года и узнать, что из этого реально заработало.

    Собственно, 23 декабря я буду рассказывать про то, что проверено практикой и деньгами: почему правильная инфраструктура важнее самой модели, когда агенты лучше RAG, как не переусложнить архитектуру и немного деталей про file-first подход.

    Еще 8 спикеров, многих из которых вы можете узнать на фото: Head of AI, руководители AI R&D, фаундеры AI-продуктов с $25m funding — короче будет 4,5 часа хорошей такой выжимки для вас — опыт, цифры и инструменты. Организаторы постарались.

    Дата и время: 23 декабря, 14:00.
    Есть платная и бесплатная опции участия. Запись будет для тех кто зарегистрируется.
    Детали и регистрация

  • Codex CLI Skills и Subagent Ну, почти Неделю назад в сети было замечено, что в codex cli добавили

    Codex CLI Skills и Subagent

    Ну, почти

    Неделю назад в сети было замечено, что в codex cli добавили Skills прямо как в Claude Code. Доступно пока что только в alpha версиях и с парочкой приседаний, но оно работает!

    Сегодня мне пришла в голову идея из подручных средств собрать субагента для codex cli))

    Суть заключается в том, что мы инструктируем codex cli как запускать самого себя же в режиме headless.

    По этому поводу записал демо видео и подготовил репо с инструкциями:
    📱 Github
    📱 YouTube

    ✔️ Timur Khakhalev про AI Coding, подписывайтесь!
    ⭐️ Консультации по AI Coding

  • Хотите обзор самого главного в ИИ за этот год

Вот прям всю мякотку: от хардкорного ML и агентов для

    Хотите обзор самого главного в ИИ за этот год Вот прям всю мякотку: от хардкорного ML и агентов для

    Хотите обзор самого главного в ИИ за этот год?

    Вот прям всю мякотку: от хардкорного ML и агентов для разработки до взгляда на ИИ от бизнеса.

    Наша AI Dev Live превзошла все мои ожидания – 3к зрителей (почти олимпийский!), куча крутых отзывов.

    И у кого-то явные проблемы с тормозами – мы не удержались и готовим предновогодний эфир обо всех ключевых изменениях в индустрии.

    И позвали еще крутых спикеров (↓)

    В программе:

    — Сдвиг парадигмы в управлении процессами, который все пропустили

    — Как в 2026 бизнесу отличить: где ИИ-хайп со сливом бюджета, а где ИИ-инструменты с реальной ценностью?

    — Почему одних разрабов ИИ бустит, а другие плюются от багов? Как укротить агентов и получать production-ready код от ИИ?

    — RAG мертв? Почему enterprise уходит от векторных баз к агентам, куда движется индустрия LLM-провайдеров и какое место у локальных AI-решений?

    — Кого и как нанимать в 2026 году? И, самое главное, что изучать, чтобы не уволили вас?

    Спикеры – спецы «изнутри» индустрии: пара Head of AI, руководитель AI R&D-института, фаундеры и ко-фаундеры AI-first компаний – топовый состав, чтобы разобрать прогресс в ИИ со разных сторон.

    А я буду в роли ведущего докапывать их неудобными вопросами

    🎄Записывайтесь на предновогодний эфир (все еще можно бесплатно!)

    и зовите знакомых, кто разбирается в ИИ

  • Ещё раз про Context Engineering и Feedback Loop Возможно, вы знаете, что при работе с моделями типа

    Ещё раз про Context Engineering и Feedback Loop

    Возможно, вы знаете, что при работе с моделями типа Sonnet, я советую держать контекстное окно в пределах 100к токенов, а ещё лучше до 80к, потому что дальше – больно. Качество ухудшается, лимиты в Claude Code тратятся заметно быстрее.

    Я тут на просторах интернета наткнулся на такое же мнение и обрадовался, что я не один это заметил.

    Тут автор пишет про тесты и советует убирать «TESTS PASSED» строки из вывода инструментов, которые запускают тесты.
    Обычно, когда мы запускаем npm run test команды, то видим несколько экранов строк, которые говорят о том, что тесты успешно пройдены. Модели же знать об этом незачем, так что можно сократить эти строки до простого «✓ Utils tests». Если же тесты зафейлятся, то появится сообщение об ошибке.

    Таким образом, мы сэкономим большое количество токенов.

    Можно использовать такую обёртку:

    run_silent() {
        local description="$1"
        local command="$2"
        local tmp_file=$(mktemp)
    
        if eval "$command" > "$tmp_file" 2>&1; then
            printf "  ✓ %sn" "$description"
            rm -f "$tmp_file"
            return 0
        else
            local exit_code=$?
            printf "  ✗ %sn" "$description"
            cat "$tmp_file"
            rm -f "$tmp_file"
            return $exit_code
        fi
    }
    
    run_silent "Simple tests" "pnpm test:run"
    

    Сделайте

    chmod +x ./run-silent.sh
    

    Результат:

    ./run-silent.sh
      ✓ Simple tests
    

    Ещё автор советует врубить fail-fast, т. е. если у вас 10 ошибок в тестах, то тесты будут показывать по 1-й ошибке за раз, до тех пор, пока не пофиксятся все 10.
    Если ошибки не тривиальные (не фиксятся one-shot исправлением по нескольким файлам), то это поможет модельке хорошо подумать над каждой ошибкой по-очереди и не распыляться разом на все ошибки, что может вести к более худшему качеству исправления этих ошибок

    #ai_coding@the_ai_architect

    ✔️ Timur Khakhalev про AI Coding, подписывайтесь!
    ⭐️ Консультации по AI Coding

  • Пост вдохновения. Когда ни одно приложение не подошло — сегодня проще собрать свое, чем ждать. Разби

    Пост вдохновения. Когда ни одно приложение не подошло — сегодня проще собрать свое, чем ждать. Разбираем реальный кейс моего приятеля.

    Мне всегда нравилось, когда нетехнические люди делают себе софт. Каждый раз прям радуюсь, когда вижу результат.
    Недавно приятель Максим скинул свое приложение для изучения греческого. Он ходит на офлайн-занятия и хотел найти что-то для практики между уроками. Искал, даже готов был заплатить. Но ни одно приложение не умело главного — тренировать рукописный ввод слов на планшете. Максимум что нашел — тренажер отдельных букв алфавита. Как для первоклассников.
    В итоге сделал свое. Первая рабочая версия — за 30 минут. То, что на видео — суммарно меньше 8 часов чистой работы.

    Что внутри:
    — Рукописный ввод: пишешь слово стилусом, Gemini распознает и проверяет
    — Озвучка через ElevenLabs
    — Умные подсказки: ошибся в карточках — приложение говорит «ты выбрал X, а это переводится как Y», чтобы закрепить правильную ассоциацию
    — Этимология каждого слова, родственные слова в русском, мнемоники (очень умно и эффективно, на самом деле)
    — Адаптивная статистика: слова с частыми ошибками показываются чаще

    Максим не программист. Но у него есть продуктовый вкус — интерфейс чистый, все на местах (я писал как важна насмотренность). И он итеративно добавлял фичи по мере использования: «хочу подсказки по буквам» — добавил, «хочу видеть этимологию» — добавил.
    Под капотом — не просто фронтенд: база данных, авторизация, AI-сервисы. Lovable подключает все сам, когда нужно. ~120 кредитов, меньше дня чистой работы — и готово приложение, которым он реально пользуется регулярно.

    А еще любопытно, что он интуитивно пришел к паттерну, который сейчас считается стандартом в AI-разработке — сначала детально обсуждал фичу в чате, убеждался что что инструмент тебя понял, и только потом просил имплементировать — то есть тот же Plan & Act.

    Самое главное — по его словам он сам кайфанул от процесса и от результата!

    Если у вас есть идея персонального инструмента, который не можете найти на рынке — попробуйте собрать сами. Lovable, Bolt, Replit — барьер входа сейчас минимальный. Главное — понимать что именно вам нужно и итерировать.

    А еще поделитесь в комментариях: делали что-то подобное для себя?

    🔥🔁

  • Claude Code Wrapped!

в версии 2.0.64 добавили команду stats, которая показывает статистику.

Криво,

    Claude Code Wrapped! в версии 2.0.64 добавили команду stats, которая показывает статистику. Криво,

    Claude Code Wrapped!

    в версии 2.0.64 добавили команду /stats, которая показывает статистику.

    Криво, косо, подсчёт неверный, но прикольно 😁

    Делитесь вашей статой в комментах

    Claude Code Wrapped!

    в версии 2.0.64 добавили команду /stats, которая показывает статистику.

    Криво, косо, подсчёт неверный, но прикольно 😁

    Делитесь вашей статой в комментах

  • На последнем воркшопе показывал руководителям, как с помощью ИИ улучшать свою позицию в переговорах

    На последнем воркшопе показывал руководителям, как с помощью ИИ улучшать свою позицию в переговорах

    На последнем воркшопе показывал руководителям, как с помощью ИИ улучшать свою позицию в переговорах и конфликтах.

    Там же дал ссылку на свой, как мне кажется, самый практичный пост – как правильно доставать информацию из тг, чтобы отправлять в LLM.

    Коротко напомню сложности:

    1. Есть только один телеграм клиент, который дает выгружать любые чаты и каналы: ссылка

    2. В выгрузке куча лишней информации, которая засоряет контекст LLM и сильно ухудшает качество

    Поэтому я тогда сделал простую конвертилку в виде html файла – кто угодно мог скачать ее из первого комментария.

    Но так как я сам пользуюсь этой штукой как минимум раз в неделю, мне надоело постоянно искать этот файл + не хватало фильтров: по времени и по конкретному треду

    Например, чтобы забрать все комменты только к одному посту из канала или только один топик в супергруппе

    Так что сделал для себя и для вас вторую версию, где это всё есть, плюс она нормально задеплоена и доступна без скачивания

    Переписки в тг часто содержат личную инфу, так что на всякий случай пишу: ваши данные не покидают браузер. Если сомневаетесь – отправьте код страницы в какую-нибудь LLM для проверки

    Так как предыдущий пост набрал 200+ репостов, думаю, апдейт будет полезным 🤗

    Ссылка на конвертилку

  • Интересно узнать самое главное в ИИ за 2025 год В октябре мы провели конференцию AI Dev Life, где с

    Интересно узнать самое главное в ИИ за 2025 год?

    В октябре мы провели конференцию AI Dev Life, где собрали 3000 разработчиков, рассказали про крутые новинки в AI coding и получили офигенные отзывы.

    Воодушевившись результатом мы решили провести новую онлайн-конфу: ИИтоги25.

    В программе:

    Данила «ElKornacio» Смирнов — про AI в разработке.

    Валера “Neural Kovalskii” и Рефат “Refat Talks: Tech & AI” Ахметов — как эффективно разрабатывать и внедрять AI приложения, использую SGR, агентный подход.

    Ринат “LLM under hood” Абдулин — три технические отличия успешных ИИ внедрений в бизнес.

    Александр “Startup / AI of the Day” Горный — про ИИ с точки зрения бизнеса — где и как его эффективно использовать и как на этом заработать.

    Даня «How2AI» Гаврилов — какие новые полезные ИИ продукты и сервисы были выпущены — How2AI.

    Александр «DealerAI» Абрамов — о том что нового в ML science в этом году.

    Участие — бесплатное (при подписке на каналы спикеров).

    Дата: 23 декабря с 14 до 18:30 (мск) или в записи.

    Посмотреть детали и зарегистрироваться

    @max_about_ai

  • Каким должен быть ИИ продукт

Не так много ИИ продуктов, которые мне действительно нравятся. Но чува

    Каким должен быть ИИ продукт Не так много ИИ продуктов, которые мне действительно нравятся. Но чува

    Каким должен быть ИИ продукт

    Не так много ИИ продуктов, которые мне действительно нравятся. Но чуваки из Granola делают что-то сумасшедшее. В плане UX, лендоса, промоушена и даже внутренних активностей. И все это на кроваво-конкурентном рынке транскрибации и саммаризации звонков.

    Если вы тоже строите продукты – очень советую внимательно разбирать всё что они делают.

    Один из примеров – их предновогодняя активность, которую я только что прошел. Она вообще ни капли не про реальную пользу, зато создает сильную эмоциональную привязку к продукту.

    Активность – что-то вроде подведения итогов года – так как у них записи всех моих рабочих звонков с начала июля, то они лучше всех знают, чем я занимался. Понятно, что там в основном просто приятные штуки, где она тебя хвалит, но есть и пара мемов, которые я уже пошерил в слэке с заказчиками, и даже небольшой «психологический» разбор (предпоследний скрин)

    Что отсюда можно забрать себе?

    — Если уже есть гранола, поучаствовать в активности – это быстро. Можно узнать что-то новое про себя или просто приятно провести 5 минут.

    — Если работаете над своим продуктом – подумать, а что в нем уже устанавливает эмоциональную связь с пользователем. А что можете сделать без особых затрат? Чем пользователь захочет поделиться? (как я сейчас)

    — Если еще не пользуетесь – скачать и пользоваться. Очень много благодарностей уже получил за эту рекомендацию.

    Каким должен быть ИИ продукт

    Не так много ИИ продуктов, которые мне действительно нравятся. Но чуваки из Granola делают что-то сумасшедшее. В плане UX, лендоса, промоушена и даже внутренних активностей. И все это на кроваво-конкурентном рынке транскрибации и саммаризации звонков.

    Если вы тоже строите продукты – очень советую внимательно разбирать всё что они делают.

    Один из примеров – их предновогодняя активность, которую я только что прошел. Она вообще ни капли не про реальную пользу, зато создает сильную эмоциональную привязку к продукту.

    Активность – что-то вроде подведения итогов года – так как у них записи всех моих рабочих звонков с начала июля, то они лучше всех знают, чем я занимался. Понятно, что там в основном просто приятные штуки, где она тебя хвалит, но есть и пара мемов, которые я уже пошерил в слэке с заказчиками, и даже небольшой «психологический» разбор (предпоследний скрин)

    Что отсюда можно забрать себе?

    — Если уже есть гранола, поучаствовать в активности – это быстро. Можно узнать что-то новое про себя или просто приятно провести 5 минут.

    — Если работаете над своим продуктом – подумать, а что в нем уже устанавливает эмоциональную связь с пользователем. А что можете сделать без особых затрат? Чем пользователь захочет поделиться? (как я сейчас)

    — Если еще не пользуетесь – скачать и пользоваться. Очень много благодарностей уже получил за эту рекомендацию.

  • Kling AI анонсировал сразу 3 пушки: видео с голосом, монтаж по чату и картинки, которые слушаются!

    🔥 Kling AI анонсировал сразу 3 пушки: видео с голосом, монтаж по чату и картинки, которые слушаются!

    1️⃣ Kling VIDEO 2.6
    ✦ Генерирует видео со звуком сразу: речь, шумы, фон, смех
    ✦ Пишешь текст – получаешь готовый ролик, как будто сняли на площадке
    ✦ Пример: девушка шепчет «Kling 2.6 уже здесь» – и это не накладывали в посте, это сгенерировали

    2️⃣ Kling ViDEO O1
    ✦ Один модуль вместо 5 инструментов: текст→видео, картинка→видео, начало+конец, стилизация, редактирование
    ✦ Пишешь в чат: «сделай ночь, убери прохожих, добавь неон» и всё готово
    ✦ Персонаж сразу с 10 ракурсов – как будто режиссёр следит за кастингом

    3️⃣ Kling Image O1
    ✦ 10 референсов – и персонаж не портится ни на пиксель
    Убери галстук, добавь крылья, смени стиль на винтаж – выполнит без Photoshop
    ✦ Побеждает Flux и Nano Banana по честному бенчмарку: 155% и 174% win-rate

    Они построили сразу целую экосистему:
    Текст → картинка → видео → звук → монтаж – всё в одном окне, всё по промпту, всё за минуты!

    ➡️ Тестируем тут: klingai.com

    🧩 ChatConnectGPTYouTube

  • Если вы читаете Колю или Тимура, то вы вероятно уже знаете что мы решили устроить опрос про использо

    Если вы читаете Колю или Тимура, то вы вероятно уже знаете что мы решили устроить опрос про использование AI в разработке наподобие внутренних опросов, которые недавно опубликовал Anthropic.

    Мы хотим узнать про подходы и инструменты которые дали наибольший прирост производительности или наоборот не оправдали ожиданий. Это краудсорсинг и всем кто примет в нем участие мы пришлем все анонимизированные ответы на опросы.

    Разумеется, своими выводами и самым интересным я поделюсь в канале, но посмотреть на сырые данные тоже очень ценно, потому что вы сможете выцепить кейсы релевантные именно вам. У нас уже больше 70 интересных ответов, пройти опрос можно здесь.

    PS: если поделитесь публично в канале с 100+ подписчиками мы добавим вас на страницу результатов.

    @max_about_ai

  • Мой воркфлоу: Opus 4.5, Gemini 3 Pro, GPT-5.1-Codex-Max Коль скоро новыйая Opus теперь доступна в п

    Мой воркфлоу: Opus 4.5, Gemini 3 Pro, GPT-5.1-Codex-Max

    Коль скоро новыйая Opus теперь доступна в подписке Claude за 20$, самое время для нового поста.
    В «свободное от работы время» я пишу Next.js фулл стэк приложение полностью нейронками. Интересно, что еще год назад, когда мы делали CodeAlive и нужно было запрогать фронтэнд, мы нанимали разработчика для этого — сейчас уже, покодив пару недель фронт, в принципе, я делаю вывод, что любой бекендщик с какой-то элементарной базой по фронтэнду (стэк, линтинг), может вполне успешно генерить красивый и функциональный фронт разной сложности. Конечно, UX в таком случае всегда будет слабым местом, но это уже совсем другая история, о которой я обязательно отдельно расскажу чуть позже.
    А теперь, к сравнению. Все, что ниже почти полностью базируется на моем опыте.

    Opus 4.5 — бизнес аналитик и архитектор.
    Горячо рекомендую Opus 4.5 для создания/дошлифовки спеки или плана (SDD) — мне понравилось как он работает в Plan Mode внутри CC — особенно актуально когда вы даете на вход не до конца проработанную фичу (а фичи вообще редко когда сразу хорошо продуманы), Claude в этом случае прежде, чем перейти к реализации, задаст вам ряд хороших уточняющих вопросов — для взрослой разработки самое то. Кстати, на создание одного такого плана у меня ушло 5$ extra usage (это было ещё до того, как Опус открыли для Pro подписки).
    Отмечу ещё, что Опус за one shot решила заковыристую задачу по фронтэнду, с которой Gemini 3 Pro не справилась даже за несколько запросов.
    Из неочевидного — бенчмарки на качество код ревью показывают очень низкие результаты для Opus 4.5. В CC перключиться на Opus можно командой /model.

    Едем дальше — по остальным моделям сейчас картина следующая:
    Gemini 3 Pro + Nano Banana Pro — дизайнер и очень скиловый frontend разработчик, который почти наверняка напишет вам куда более крутой дизайн, чем большинство студий. Проще всего использовать внутри Antigravity, там же удобно запрягать эту модельки сходить потестировать ваше приложение в браузере — уж больно хорошо субагент в Antigravity управляет браузером. В «ежедневной» агентной разработке пока не нашел места для новой Gemini.

    Sonnet 4.5 — быстрый, но иногда невнимательный джун-исполнитель, который может пропускать пункты спеки или делать их «на отвали», поэтому ей лучше не давать большие задачи и выполнение спеки. А еще, 1Сники очень хвалят эту модель как выдающуюся для BSL.

    GPT-5.1-Codex-Max (medium) — медленный, но довольно внимательный к деталям джун-исполнитель. Пока лучший вариант для выполнения больших задач по спеке (не считая комбайнов типа CodeMachine).

    GPT-5.1-Codex-Max (xhigh) — а это программист-олимпиадник, способный придумать и реализовать наиболее запутанные алгоритмы и найти причину даже самых коварных багов. Еще, вероятно, это лучшая CLI-комбинация для глубокого код ревью. Напомню, что запускается эта модель командой codex --config model_reasoning_effort="xhigh".

    Бонус: GPT 5.1 Pro — это, пожалуй, лучший выбор если вы хотите за one-shot нагенерить план реализации и архитектуру для целого сервиса или эпика по тех. заданию — буквально, скидываете ей описание сервиса или фичи, функциональные и нефункциональные требования и получаете почти готовый план реализации. Она подумает 10-20 минут и выдаст наиболее продуманный результат, который потом можно дорабатывать через ту же Opus и отдавать дальше на реализацию исполнителям. Лайфхак: просите эту модель продумать только архитектуру, схему БД, DTOшки, использовать UML/C4 и НЕ писать код. А конкретный код и финальную реализацию пусть пишут кодагенты, подстраиваясь под ваш проект. В сложном код ревью прошка тоже с большей вероятностью отработает лучше всех. Это весьма продвинутый подход к SDD (Spec-Driven Development) — напишите, если интересно подробнее почитать про этот флоу, там есть что описывать.

    Кстати, друг нашего канала Максим Этихлид тоже выпустил отличный обзор на новенькие LLMки, если еще не читали, как всегда — рекомендую.

    А какие результаты новые модельки показывают на ваших задачах? На сколько преобразился ваш воркфлоу за последний месяц?

    @ai_driven

  • Реальные кейсы про ИИ в разработке Уже много раз говорили, что основной блокер адопшена ИИ для разр

    Реальные кейсы про ИИ в разработке

    Уже много раз говорили, что основной блокер адопшена ИИ для разработки – крутая кривая входа: скачать Курсор и написать промпт – легко. А чтобы этот промпт сделал что от него реально ожидают, еще и на существующей кодовой базе – сложно.

    Инфа о работающих подходах обычно скапливается в головах у энтузиастов, у кого есть время и ресурсы на эксперименты и обмен практиками с другими энтузиастами. В итоге, к зиме 2025го приходим к ситуации, что все уже плюс минус приняли – ИИ может ускорять разработку. Но почти никто не понимает, как это сделать в реальности.

    Мы с @the_ai_architect и @max_about_ai решили устроить глобальное переопыление – собираем с сообщества реальные кейсы, а потом обезличенно делимся со всеми, кто оставил осмысленную инфу

    — Как конкретно настроили свои инструменты
    — Какие подходы успешны, и что, наоборот, не оправдало ожиданий
    — В каких задачах самый большой прирост, а что пока лучше делать руками
    — …

    Чем больше инфы соберем, тем больше ценность для каждого участника. Так что, если у вас есть чатики с людьми, чьи подходы вам любопытны или мнение которых уважаете – перешлите, пожалуйста, пост. Им, наверняка, тоже будет интересно посмотреть результаты

    А если пошерите этот пост в канале на 100+ человек, добавим ссылку на ваш канал в страницу с итогами 🤗

    Ссылка на участие

  • А вот и анонс живого доклада в следующий четверг, 11 декабря: Неделя про AI-инструменты для руковод

    А вот и анонс живого доклада в следующий четверг, 11 декабря:

    Неделя про AI-инструменты для руководителей и бизнеса от Стратоплана & со

    2025-й стал, пожалуй, первым годом, когда AI массово начали внедрять в организации и процессы и все вы наверняка можете вспомнить пару громких новостей про результаты таких внедрений.
    И это норма — сфера принципиально новая, очень горячая, но однако тут уже есть первые успешные практики, наработанные сообществом.

    Потому Стратоплан и спикеры AI Dev объединились вместе, чтобы:

    – показать AI инструменты для руководителей на практике, а также разобрать модель – GenAI Orchestrated Augmented Leader
    – показать, как организовывать работу сотрудников с нейросетями, чтобы это было эффективно
    – разобрать несколько кейсов внедрения в бизнес: что сработало, что провалилось и почему;
    – рассмотрят форматы внедрения и дадут чек-лист самых популярных проблем на пути (конечно, с решениями)

    Когда: с 8 по 12 декабря, с 16:00 до 17:00 GMT+3
    Формат — каждый день, по одному часу и инструменту для решения ваших текущих задач

    Бесплатно и без всяких скрытых оплат по ссылке здесь: https://stratoplan-school.com/marathon/etih/

    11 декабря, 16:00 MSK — буду рассказывать про особенности внедрения AI в организации «сверху» и «снизу», и о том, какие сложности возникают в каждом из случаев.

    Попробуем найти варианты того, как свести вместе инициативу и возможности.

    Приходите!

    #live #conference #announcement

  • AI в SDLC — люди, процессы и организации анонс Так, народ, я обычно тут пишу про технические штуки,

    AI в SDLC — люди, процессы и организации [анонс]

    Так, народ, я обычно тут пишу про технические штуки, но ведь все мы понимаем, что в профессии разработчика (и айтишников в целом) на самом деле очень много того самого человеческого фактора, про который всегда нужно помнить.

    По мере того, как за прошедший год рос канал, я всё больше общался с коллегами из других компаний, консультировал, выступал с докладами, читал исследования и сам получал опыт того, как проходит внедрение AI в процессы разработки.
    (шутка ли, довелось даже побыть участником круглого стола Frontend Conf 2025 по этой теме :))

    Получается, что чисто технические навыки работы с моделями — это, может, процентов 30 успеха, а остальное — это люди, процессы, организации и куча неочевидных вещей, о которых нечасто пишут в статьях про то, «как я стал 10x-разработчиком с ИИ».

    Так что попробую поделиться своими наблюдениями в этом плане, и в ближайшие недели на канале будет мини-серия про внедрение AI в разработку за пределами только лишь написания кода.

    Если вы привыкли к моим техническим постам про модели и инструменты — некоторое время это будет чутка другой формат.
    Но, как мне кажется, не менее важный.

    Примерный список тем сейчас выглядит так (рандом):

    ⚪️ Психология разработчика: страхи, эйфория и нетипичная нагрузка
    «Меня заменят», «я тупею, пока агент всё пишет за меня» и прочие бабайки.
    Переход от роли исполнителя к роли человека, который ставит задачи и проверяет их выполнение — это другая ментальность и другой уровень ответственности.
    Почему работа с ИИ превращается в вечный context switch, выгорание, и причём тут вообще сон и дофамин.

    ⚪️ AI как усилитель, а не серебряная пуля
    Текущая реальность такова, что модели усиливают те процессы, которые у вас уже есть, и если внутри всё устроено плохо, AI ответственно масштабирует этот бардак.
    Разберём, почему так получается и что с этим делать.

    ⚪️ SDLC-пайплайн и теория ограничений
    ИИ очень быстро пишет код, но ревью, QA, релизы и поддержка почему-то быстрее не становятся.
    Обсудим на пальцах, почему ускорение одной лишь разработки почти всегда приводит к росту техдолга и инцидентов, и как помогают CI/CD, тесты, платформенная инженерия и адекватные метрики.

    ⚪️ Организационные паттерны: пилоты и микростартапы внутри компании
    Как запускать маленькие команды-пилоты, где AI присутствует на всех этапах SDLC — от постановки задачи до деплоя.
    Какие задачи и куски продукта подходят для экспериментов, а какие лучше не трогать, пока вы не готовы к приключениям.
    Почему иногда лучше заняться распилом монолита и процессами, а не прикручиванием агента к Jira.

    ⚪️ Диффузия ролей: PM пишет код, QA обучает агента
    Границы ролей размываются: продакт, который сам собирает прототипы на агентах; разработчик, который больше думает про архитектуру и верификацию, чем про ручной кодинг; QA, который пишет автотесты вместе с LLM.
    Как может выглядеть команда, где каждый аугментирован ИИ, и какие навыки в таком мире становятся базовыми.

    ⚪️ Shadow AI и внедрение снизу
    «Теневой ИИ» уже есть почти в каждой компании: люди втихую пользуются моделями, даже если это не одобряется.
    Как с этим жить руководителям, как не убить инициативу энтузиастов, и почему попытки внедрить AI «сверху» нередко проваливаются.

    ⚪️ Новые метрики: от идеи до продакшена, а не от промпта до коммита
    Важнее не то, как быстро агент написал код, а то, за сколько идея доехала до пользователя и насколько часто это всё падает.
    Где AI действительно помогает, а где только создаёт иллюзию прогресса.

    Если вам это всё созвучно — оставайтесь на связи, и можно просто ждать постов 🙂

    Если по дороге хочется поделиться своими болями и кейсами про внедрение AI в разработку — скидывайте в комменты и личку, подходящие постараюсь вплести в серию.

    И если хочется, чтобы что-то было раскрыто более полно или какие-то темы я пропустил — тоже дайте знать.

    А, и one more thing — на следующей неделе будет живой доклад, затрагивающий часть из этих тем, подробности чуть позже 🙂

    #ai #sdlc #management

  • Главная преграда для внедрения ИИ сами руководители Это основной тейк из статьи, которую разбирали

    Главная преграда для внедрения ИИ – сами руководители

    Это основной тейк из статьи, которую разбирали с LLMками на моем воркшопе для руководителей 😅

    Еще понравилось: сотрудники в 3 раза чаще используют ИИ, чем предполагает руководство

    Наверное, потому что руководство судит по себе, хехе. Но не подумайте, я не виню – их можно понять: обычно и так забот полон рот, так еще и инструментов с каждым днем все больше. Как выбрать что-то работающее, а потом так настроить, чтобы хотя бы не отставать от подчиненных?

    Так что никто не готов тратить несколько часов на знакомство с новым инструментом – только чтобы понять, что он не решает задачу. И правильно делают – их час обычно слишком дорого стоит для такого.

    И это относится не только к руководству – будем честны, мало кто любит проводить время за тестированием плохих продуктов.

    Ну и дальше уже классический для моего канала call-to-action – приходите на бесплатную конфу, чтобы послушать тех, кто уже потратил время за вас и во всем разобрался. Даже если вы не руковод – должно быть полезно. Проводит Стратоплан – я про них не знаю, но ребята, с которыми делали ai-dev.live, подтвердили – они норм. А некоторые даже сами будут там спикерами (!)

    Я, кстати, буду ее открывать – у меня самый первый доклад из всех 4 дней, ух

    Я даже интерактивчик приготовил, так как не делать что-то всратое я не умею. Так что, либо приходите получить ценный опыт, либо покринжевать с меня, если все пойдет не по плану – каждый найдет себе занятие по вкусу

    Когда: с 8 по 12 декабря, с 16:00 до 17:00 GMT+3

    Бесплатно и без всяких скрытых оплат:

    Ссылка

  • DeepSeek V3.2 и V3.2 Speciale  попытка вернуться в игру!

После релиза R1 в январе DeepSeek заметно

    DeepSeek V3.2 и V3.2 Speciale попытка вернуться в игру! После релиза R1 в январе DeepSeek заметно

    🚀 DeepSeek V3.2 и V3.2 Speciale – попытка вернуться в игру!

    После релиза R1 в январе DeepSeek заметно отстал от лидеров рынка. Теперь они выпустили две новые модели, чтобы догнать конкурентов:

    🔹 DeepSeek V3.2 – основная модель уровня GPT-5, доступна в приложении, веб и API
    🔹 DeepSeek V3.2 Speciale – максимальный reasoning, конкурирует с Gemini 3 Pro

    🏆 По заявлениям DeepSeek – V3.2 Speciale показывает золотой уровень в бенчмарках IMO, CMO, ICPC World Finals и IOI 2025

    Thinking в Tool-Use – первая модель с интегрированным reasoning при работе с инструментами. Обучена на 1800+ окружениях и 85тыс+ сложных инструкциях.

    ⚠️ Speciale расходует больше токенов и пока без tool-use

    ➡️ Попробовать можно в @JumbleGPT_bot
    А так же на офф сайте и в HuggingFace

    🧩 ChatConnectGPTYouTube

  • Стандарты в промптинге: как экономить токены и получать предсказуемый output Я уже писал про то, ка

    Стандарты в промптинге: как экономить токены и получать предсказуемый output

    Я уже писал про то, как люблю стандарты — они спасают сотни часов разработки, а иногда и жизни. Сейчас хочу поделиться простой техникой, которая сильно упрощает работу со structured output.

    Суть в том, что LLM отлично понимают широко-используемые стандарты (ISO и не только) и им не нужно объяснять что это такое — достаточно просто назвать. Вместо «в этом поле укажи язык» (и потом парсить «English», «english», «eng», «английский») — просто говоришь «ISO 639-1» и получаешь чёткий «en».

    Что это дает:
    — Меньше токенов на выходе — «US» вместо «United States of America»
    — Детерминированность — никаких вариаций и неточностей
    — Проще парсить — не надо городить регулярки на все случаи жизни
    — Совместимость — стандарты работают со всеми библиотеками и API, а еще легко найти готовые маппинги/справочники типа такого

    Все стандарты запомнить невозможно, поэтому у меня такой подход: перед тем как составить схему/промпт, спрашиваю себя (и AI) — а есть ли тут стандарт? Дальше разбираюсь какие есть варианты, насколько они общеприняты, и просто ссылаюсь в промпте.

    Собрал для вас список наиболее полезных стандартов (список раскрывается)

    Языки и локализация
    — ISO 639-1 для языков: «en», «ru», «zh»
    — ISO 639-2/T (Alpha-3): «eng», «rus», «chi»
    — BCP 47 для локалей: «en-US», «zh-Hans», «pt-BR»
    — Unicode (UTF-8) для кодировки символов

    География
    — ISO 3166-1 alpha-2 для стран: «US», «DE», «JP»
    — ISO 3166-1 alpha-3 для стран: «USA», «DEU», «JPN»
    — ISO 3166-2 для регионов: «US-CA», «DE-BY»
    — IANA/Olson для таймзон: «America/New_York», «Europe/Moscow»
    — WGS 84 (EPSG:4326) для координат GPS: «55.7558, 37.6173»

    Даты и время
    — ISO 8601 для дат: «2024-03-15», «2024-03-15T14:30:00Z»
    — ISO 8601 duration для периодов: «P3Y6M», «PT2H30M»
    — Cron expression для расписаний: «0 9 * * 1-5»
    — RRULE (RFC 5545) для повторений: «FREQ=WEEKLY;BYDAY=MO,WE,FR»

    Финансы
    — ISO 4217 для валют: «USD», «EUR», «BTC»
    — IBAN / BIC / SWIFT (ISO 9362) — для счетов и банков

    Контакты
    — E.164 для телефонов: «+14155551234»
    — vCard (RFC 6350) для обмена контактами

    Прочие
    — MIME types для файлов: «application/pdf», «image/png»
    — Hex RGB для цветов: «#FF5733» (а также HSL / HSLA)
    — Транслитерация BGN/PCGN
    — конечно же база: помните про СИ из школьной физики?

    Паттерн в промпте простой: «Extract X from this text. Return ONLY in [STANDARD NAME] format (e.g., «example1», «example2″). If uncertain, return null.»

    💡 Pro-tip: Когда стандарт найден — идете на github и ищите его название — скорее всего выйдете много полезного: справочники, библиотеки и тд. Справочники можно искать прямо в gist по фильтру JSON: пример.

    Попробуйте на своих задачах. Скорее всего для вашего кейса уже есть стандарт, который LLM знает лучше вас и вам же будет проще это использовать в остальном коде.

    🔥🔁 P.S. в тг все еще нет органики, поэтому делитесь если понравилось

  • Вайб-обзор на GPT 5.1 Gemini 3 Pro Opus 4.5 (22) Gemini 3 Pro Модель перед выпуском хайпили так,

    Вайб-обзор на GPT 5.1 / Gemini 3 Pro / Opus 4.5 (2/2)

    Gemini 3 Pro

    Модель перед выпуском хайпили так, что казалось, будто у всех сотрудников Google есть KPI на то, чтобы твитнуть нечто загадочное про выход то Gemini, то про что-то с цифрой 3, то про будущие фантастические возможности.

    Конкретно у меня было много надежд на то, что у нас-таки будет модель уровня GPT 5, но c 1м контекста, с большей эрудицией (у GPT 5 с этим явно хуже) и агентностью.

    Но чуда не случилось. Для разработки так уж точно.

    Впечатление от релиза смазалось ещё и тем, что в составе продуктов, где модель стала доступной на старте, она работала довольно нестабильно (и это местами продолжается).
    Ну а после того, как в реальной работе она не показала заявленного в бенчмарках, стало совсем грустно.

    Нет, это безусловно отличная модель, очень начитанная, с мультимодальностью из коробки, но, кажется, её не создавали быть лучшей в разработке.

    Для всего остального, впрочем, она очень хороша, а такие штуки как Nano Banana Pro и NotebookLM теперь у меня входят в набор повседневных инструментов.

    Опять-таки, это Preview версия, и, возможно, тут, как и на старте GPT 5, проблема больше в тулинге, чем в самой модели, и нужно подождать месяц-другой, пока и тулинг оптимизируется, и появится новый чекпойнт модели.

    А ещё стоит посматривать за прогрессом Antigravity, там есть несколько интересных задумок:
    ● спеки/планы как first-class citizens;
    ● поддержка работы с браузером через кастомное расширение для Chrome, что делает возможным модели «смотреть» на результат свой работы для замыкания feedback loop;
    ● отдельный интерфейс для работы с агентами;
    ● генерация схем проекта, дизайнов и картинок с помощью Nano Banana Pro.

    Opus 4.5

    Честно говоря, не думал, что Anthropic что-то сможет представить достойное на фоне прошлых двух моделей, но однако ж получилось.
    Вкупе со снижением цен это делает новый Opus приемлемым как по лимитам, так и по качеству работы.

    А если добавить к этому Claude Code, который, как я уже упомянул, в принципе является лучшим CLI-агентом на текущий момент, то вообще хорошо.

    Виден рост по всем метрикам, связанным с разработкой, модель стала более аккуратной в суждениях, реже считает ваши решения гениальными и тратит меньше токенов.

    Однако это всё ещё типичная Claude — стремительно улетающий контекст, недостаток внимания к мелочам, объявление нетронутых задач выполненными и т.п.
    Да, всего этого стало меньше, но на это всё равно намного чаще натыкаешься, чем в той же GPT 5.1, и для эффективной работы всё ещё нужно построение более сложного набора костылей поддерживающего workflow.

    Зато Claude Code + Opus — отличная связка для:
    ● greenfield-проектов и не очень сложных и больших проектов в целом, как для планирования, так и написания кода;
    ● всего, что связано с красивостями в UI;
    ● для агентных в целом и devops-задач в частности, когда нужно много всяких разных тулов подёргать, и через много шагов прийти к конечному результату (пока контекст не кончился, хехе).

    Вердикт

    Ультимативного инструмента нет, и нельзя его выбрать по какой-то одной характеристике, но если брать самые их яркие особенности, то я бы распределил их так:

    ● Сложный проект, много существующего кода, нужно внесение аккуратных правок, продумывая архитектуру и обсуждая варианты решения в деталях — GPT 5.1.

    ● Более-менее универсальная рабочая лошадка, которую вполне можно использовать как единственный инструмент, но с условием того, что вам придётся её объездить — Opus 4.5.
    (прошу винить в обилии «лошадиных» аналогий модный сейчас термин harness).

    ● Если вам не так важна собственно разработка, а нужна вторая модель с хорошей эрудицией и интуицией не только в технических доменах, большим контекстом, хорошей мультимодальностью, а также для прототипов и ваншотов — Gemini 3 Pro.

    Но в целом это, конечно, отличные обновления, прогресс весьма заметен.
    И посмотрим, изменится ли что-то ещё до конца года 🙂

    #ai #model #review

  • Вайб-обзор на GPT 5.1  Gemini 3 Pro  Opus 4.5 (12)

Даа, ноябрь выдался весьма урожайным на новые мо

    Вайб-обзор на GPT 5.1 Gemini 3 Pro Opus 4.5 (12) Даа, ноябрь выдался весьма урожайным на новые мо

    Вайб-обзор на GPT 5.1 / Gemini 3 Pro / Opus 4.5 (1/2)

    Даа, ноябрь выдался весьма урожайным на новые модели.
    Перебивая один другого, ведущие вендоры выпустили по флагманской модели (некоторые даже по нескольку).

    Провел с каждой из них достаточно времени, чтобы теперь поделиться мнением 🙂

    Будем считать это вайб-обзором, т.к. формальных метрик у меня нету, и по сути это набор личных впечатлений, полученных в процессе решения реальных задач.

    Если не указано иного, то я рассматриваю модели чисто с точки зрения использования их для разработки и исключительно в «родных», вендорских инструментах и на платных подписках.

    Оценки по каждой характеристике относительны и выставлены в сравнении с лучшей моделью из трёх (т.е. 10 ≠ абсолют).

    Критерии

    Интеллект
    В данном случае — способность к решению сложных проблем.

    Работа с контекстом
    Удержание, экономность использования, галлюцинации.

    Следование инструкциям
    … плюс способность их помнить и принимать во внимание все разом, внимание к деталям.

    Планирование
    Анализ требований и их осуществимости с граундингом на существующий проект, разбивка по этапам и задачам.

    Архитектура
    Способность понимать, оперировать и следовать архитектурным концепциям, предлагать неконфликтующие изменения.

    Агентность
    Автономное выполнение задач с эффективным использованием выданных инструментов.

    Рефакторинг
    Понимание типовых рефакторингов, code smells и способность делать широкие изменения в существующей кодовой базе.

    UI/UX
    Визуальная красота и удобство UI (в отрыве от красоты/сложности кода).

    Инструментарий
    Набор IDE, CLI, Web и прочих инструментов, где работает модель.

    Стабильность
    Как бесперебойность доступа к модели со стороны вендора, так и стабильность выдаваемого результата с т.з. качества.

    GPT 5.1 High (+Codex, +Max)

    Весьма педантичное семейство моделей, которым можно доверить сложные и глубокие задачи, а так же те, которые требуют внимания к деталям.
    Ни Gemini 3 Pro, ни Opus 4.5, даже несмотря на результаты на бенчмарках, не смогли стать заменой GPT 5 там, где нужен мощный ризонинг.
    Через неё у меня проходят финальные версии планов, архитектурных решений, ревью — и всё обязательно с граундингом на существующую кодовую базу и документацию.

    Собственно именно работа в существующих больших проектах ей удаётся лучше всего — модель сама способна качественно собрать контекст, понять corner cases, адаптироваться к стилю кода и архитектурным паттернам, и в целом ведёт себя не как ковбой-кодер, который после прочтения пары файлов кидается писать код (да, Gemini?).

    И пусть иногда сбор этого самого контекста и раздумья происходят мучительно долго, по мне так лучше подождать ради качественного результата вместо того, чтобы потом переделывать несколько раз и бороться с галлюцинациями или излишней самоуверенностью, как это бывает у других моделей.

    Увы, насколько хороша модель, настолько же и плох тулинг вокруг неё.
    Несмотря на быстрый старт, команда Codex CLI спустя короткое время то ли увязла в выбранных технологиях, то ли готовит какой-то другой продукт — иначе сложно объяснить игнор нужных и очевидных фич, которые просит сообщество.

    Claude Code почти во всём лучше Codex CLI, но, видимо, нам нельзя иметь удобную оболочку (harness / упряжку) и хорошую модель в составе одного агента.

    Ну и агентность у GPT 5.1 похуже, если сравнивать с Claude, даже в случае Codex-вариантов.
    Хотя связка обычной GPT 5.1 как планировщика, а Codex-варианта как исполнителя вполне рабочая на большинстве задач.

    #ai #model #review

  • Claude Chrome Extension и use-кейсы для AI-браузеров Некоторые из вас перешли на AI-браузер, некото

    Claude Chrome Extension и use-кейсы для AI-браузеров

    Некоторые из вас перешли на AI-браузер, некоторые не могут найти им применение — для себя пока не нашел причины полностью мигрировать на Comet, Atlas и подобные. Когда они только появились, я сделал ставку на то, что скорее будет мощное развитие расширений для существующих браузеров — слишком большая аудитория у того же Chrome.

    Недавно Anthropic выкатили свой Chrome Extension и он попался мне под руку для одной задачи. Одно из самых полезных применений AI-браузеров и расширений типа этого — работа с сервисами, которые доступны только в браузере, ну или настраивать API/MCP уж очень замороченно. Вчера был ровно такой кейс: сделать SEO анализ ключевых слов для продуктового блога — данные в Ahrefs, Google Analytics и Search Console. У Ahrefs API стоит на порядок дороже самого инструмента. У гугловых сервисов API есть, но настраивать долго. А в браузере это уже есть.

    Что я сделал. По-открывал нужные сайты в группе вкладок chrome, открыл эстеншн и дал агенту задачу: проанализировать статистику, найти «низко висящие фрукты» (ключевики на второй странице, которые легко дожать), сделать отчет по ключевикам и идеям контента.

    Opus реально хорошо понимает UI — не спотыкается на кнопках и формах, в отличие от того же Comet. Работает медленно, как и все подобные системы, обычно ставлю задачу и ухожу пить кофе, наблюдать за этими медленными кликами тяжко (даже это видео я в основном записывал в фоне, а потом подрезал и ускорил). Еще из минусов: пока слабая интеграция в экосистему Claude — нельзя продолжить диалог в основном приложении, нет доступа к skills и code interpreter. Чувствуется как отдельная штука. Но слушайте, это работает — я не спец в ahrefs, а Opus сходу разобрался что делать, я его только направлял по тому что нужно мне. И далее когда я задавал уточняющие вопросы у него был весь контекст увиденного.

    В общем, я вижу пользу в подобных расширениях (и AI-браузерах) как такой контекстный помощник, когда агенту доступен только UI, и нет прямого доступа по API/MCP.

    А какие у вас кейсы для AI-браузеров?

    🔥🔁

  • Channel created

    Channel created

  • Блин, я уж думал, что пропустил прорыв Короче, оказывается, еще 3 месяца назад OpenAI очень круто п

    Блин, я уж думал, что пропустил прорыв

    Короче, оказывается, еще 3 месяца назад OpenAI очень круто прокачали structured output.

    Я знаю про сильно увеличенный размер схемы, доп ограничения вроде max/min, но оказывается, они разрешили целые грамматики с нуля прописывать. То есть сгенерировать не просто json, соответствующей pydantic/zod схеме с разными валидаторами, а вообще текст на любом языке, который описывается Context Free грамматикой.

    Теоретически, это может быть SQL или python, а может быть даже конкретный диалект SQL или вообще проприетарный DSL (domain specific language), например, игрового движка

    Когда прочитал, у меня аж глаза загорелись, но потом пыл поутих, когда я понял, что большая часть идей применения в целом реализуется и через классический structured output + какой-нибудь конвертер в нужный формат.

    Но если нужен какой-то сложный формат, который не описать json схемой, то это прям киллер фича. Если есть идеи, кидайте в комменты

    Подумал, что это может быть отличным выходом из ситуации, когда новые языки просто перестают появляться, потому что их не было в обучающей выборке и нейронки не умеют генерировать корректный код для них

    P.s sql и python не описываются целиком Context Free грамматикой. То есть не получится сделать такую грамматику, которая прям однозначно гарантировала соответствие всем фичам языка, но все равно можно заложить очень много

    Дока

  • Jumble Connect полностью обновлён и стал ещё мощнее!  

Мы провели огромную работу и написали нашего

    Jumble Connect полностью обновлён и стал ещё мощнее! Мы провели огромную работу и написали нашего

    🛡 Jumble Connect полностью обновлён и стал ещё мощнее!

    Мы провели огромную работу и написали нашего бота полностью с нуля! Некоторые функции и инструкции находятся в стадии доработки, наберитесь терпения 🙏

    ☄️ Что нового?
    Теперь подписка на Jumble Connect включает одновременный доступ из сразу 5 стран:
    🇳🇱 Нидерланды
    🇫🇮 Финляндия
    🇩🇪 Германия
    🇳🇴 Норвегия
    🇺🇸 США

    💵 При продлении подписки продлеваются все серверы – никакой возни с выбором!
    🔄 Выбирайте страну с минимальным пингом под ваше местоположение и получайте максимальную скорость!
    Особенно важное обновление: доступ к сервисам Google полностью восстановлен при подключении через Финляндию!

    📲 Рекомендуем использовать приложение HAPP для максимальной совместимости:

    iOS / macOS / Android / TV
    Windows / Linux .deb .rpm

    ⚠️ ВАЖНО! Чтобы бот заработал – обязательно нажмите /start и вставьте новую ссылку формата https://jumbleai.ru/connect/******** в приложение!

    ➡️ Перейти в Jumble Connect

    🧩 ChatConnectYouTube

  • Куда на самом деле движется индустрия LLM (спойлер: вы выбираете не модель — вы выбираете стек). По

    Куда на самом деле движется индустрия LLM (спойлер: вы выбираете не модель — вы выбираете стек).

    Пост навеян свежим релизом Opus 4.5, а именно ее доп фичами как Context Editing — нам показывают действительно впечатляющие демки… Но постойте — это же (очередная) не-фича foundation модели. Это не что-то в весах. Это инфраструктурный middleware, который живет между вами и моделью. И если вы проанализируете (особенно глазами разработчика) релизы последнего года, то вы увидите что мы все дальше от бога от LLM как модели, и тем ближе к LLM как infrastructure-as-a-service. Давайте поговорим, куда нас ведет индустрия и что из этого следует, но начнем с начала.

    Большинство людей (в том числе многие разработчики) когда говорят про условный ChatGPT не видят весь спектр между «моделью» и «продуктом» — ведь это одновременно и foundation model, и старый добрый completions API, и вполне себе агентный Responses API c Code Interpreter, File Search (RAG прямо в «модельке», ага) и т.д.

    Что на самом деле продают вендоры

    OpenAI Responses API — это целая инфра, включая NoSQL БД для истории, хранилище файлов и тд. Вы отдали им state management.

    Code Interpreter и Code Execution — это PaaS: managed sandbox — $0.03 за сессию платите за инфру, не за «умную модель».

    Claude Context Editing — middleware с настраиваемой стратегией pruning (keep last 3 tool uses, clear 5000+ tokens). Оркестрация, а не интеллект.

    Google Grounding и Maps tool — dynamic retrieval: модель решает нужен ли поиск, генерит queries, получает доступ к индексу (глубже публичного API), делает reranking, отдает с citations. Вы покупаете gateway к индексу, не модель.

    Даже Structured Outputs — это частично заслуга инфры, а не весов — constrained decoding через CFG (конвертит JSON Schema в грамматику, маскирует невалидные токены). Компилятор поверх модели.

    Большинство не осознают, как растет пропасть между проприетарными infrastructure-as-a-service от OpenAI/Google/Anthropic и голыми весами open-source моделей. Проприетарные LLM превращаются из inference провайдеров в операционки для intelligence.

    Что из этого следует и что следует иметь в виду

    1. Понимать уровни зависимости, я выделяю три:
    — State (Threads, File API, memory) — критический lock-in, вы не владеете памятью системы
    — Execution (Code Interpreter, sandboxes) — средний lock-in, нужна своя инфра для рантайма
    — Behavior (Grounding, Computer Use) — средне-высокий, модель часто обучена под «свои» инструменты

    Перед использованием любой фичи спрашивайте: «Где живут данные? Кто контролирует логику? Смогу ли я воспроизвести это сам?»

    2. Integration Tax vs Migration Tax — ключевая асимметрия. Проприетарные фичи дают быстрый старт, но стоимость выхода растет экспоненциально. Это не обязательно плохо — это trade-off, который нужно делать осознанно.

    3. Разделять Core и периферию
    Core (ваша уникальная ценность, основа продукта) — инвестируйте в независимость: свой state management, своя оркестрация и тд.
    Пример: AI-агент для support как продукт — владение историей диалогов критично, а вот Code Interpreter для внутренней аналитики — это ок.

    4. Есть обратная сторона. Чем глубже расходятся продуктовые слои провайдеров, тем сложнее делать model-agnostic продукты, которые работают так же хорошо. Manus поняли это рано — выжали максимум из Anthropic, не пытаясь быть совместимыми со всеми, и сделали продукт-звезду. Возможно, по той же причине Claude Code так хорош?

    5. Учитывайте свою стадию. 0→1 (поиск PMF) — максимально используйте проприетарные фичи, скорость важнее. Когда растете — можно строить абстракции: gateway, свой state для core функций. На стадии масштабирования — еще больше контроля и взаимозаменяемости компонентов (interoperability это дорого).

    Главное

    Проприетарные AI-платформы — это managed infrastructure, как AWS. Вы платите не только деньгами, но и зависимостью. И этот тренд будет расти. Часто это правильный trade-off, особенно на старте. Но это решение нужно принимать с открытыми глазами — понимать, какую часть системы отдаете «в управление», и делать это осознанно для каждого компонента продукта.

  • Активно ищу талантливого и энергичного фулстек founding engineer с потенциалом на кофаундера для сов

    Активно ищу талантливого и энергичного фулстек founding engineer с потенциалом на кофаундера для совместной работы над 2pr.io, AI-агентом для контента в LinkedIn.

    Текущий founding engineer вынужден уйти по личным причинам, но будет доступен для комфортной передачи продукта.

    Я не ищу простого сотрудника. Ищу второго пилота или даже кофаундера.

    Описание роли здесь

    Просьба внимательно прочесть описание и если всё нравится, присылай сразу CV и/или LinkedIn в ТГ в личку @imidov

  • Метрики внедрения AI coding инструментов в компаниях В комментах к одному из прошлых постов спросил

    Метрики внедрения AI coding инструментов в компаниях

    В комментах к одному из прошлых постов спросили про метрики внедрения AI coding инструментов. Решил написать свою точку зрения.

    Мерить эффективность работы программистов готовыми метриками — очень сложно. А эффект от внедрения AI coding инструментов — еще сложнее:

    1⃣ бизнесу важны деньги — сэкономленные или заработанные. Но связь между кодом и финансовым результатом появляется только через месяцы или годы, поэтому нужно использовать прокси-метрики.

    2⃣ нормальных метрик на уровне одного разработчика практически нет. Данные шумные, люди хачат KPI, а сами измерения меняют поведение.

    3⃣ популярные показатели вроде LoC, числа коммитов, пулл-реквестов, закрытых задач, субъективных оценок ускорения очень часто не репрезентативны. Также как и количество принятых изменений от AI coding агентов.

    4⃣ черри-пикинг отдельных удачных кейсов (например миграция с legacy на новый тех стек) может показывать крутые отдельно взятые бизнес-результаты, но не всегда масштабируется на всю организацию.

    Я считаю, что важнее мерить импакт на уровне команды или бизнеса-юнита:

    1⃣ time to market для фичей (время от попадания в бэклог до прода);

    2⃣ размер и количество заделиверенных изменений (проще если есть стори-пойнты или другой способ оценки размера ченжей);

    3⃣ change failure rate (процент релизов с откатом или инцидентом);

    4⃣ количество post release багов.

    Именно эти 4 метрики в совокупности являются взаимодополняемыми и сбалансированными. Плюс полезно мерить уровень удовлетворенности разработчиков AI тулами (NPS), но это вторичный показатель, влияющий лишь на выбор инструментов.

    Подписаться

  • Вышел Claude Opus 4.5!

Как утверждает Anthropic  это самый мощный ИИ для кода, агентов и повседневн

    Вышел Claude Opus 4.5! Как утверждает Anthropic это самый мощный ИИ для кода, агентов и повседневн

    🔥 Вышел Claude Opus 4.5!

    Как утверждает Anthropic – это самый мощный ИИ для кода, агентов и повседневной работы, который превосходит GPT-5.1 и Gemini 3 Pro!

    💡 Что нового:
    Лучший в мире ИИ для программирования: 1-е место на SWE-bench Verified и в 7 из 8 языков на Multilingual
    Умнее и эффективнее: решает сложные задачи с меньшим количеством токенов (до 76% экономии vs Sonnet 4.5)
    Работает как супер-агент: понимает неочевидные сценарии, находит креативные решения
    Идеален для Excel, Chrome и длинных чатов: автоматически сжимает контекст и не забывает начало беседы
    Самая безопасная версия на сегодня: лучшая защита от prompt injection и вредоносных атак

    Claude Opus 4.5 уже доступен в API, налажен в облаках (Azure, GCP, AWS) и в IDE типа Cursor AI

    💵 Цены стали доступнее: $5 / $25 за миллион токенов
    В Cursor AI доступен по цене Sonnet 4.5 до 5го декабря

    ➡️ Бесплатно потестировать можно в чате LM Arena

    🧩 ChatConnectYouTube

  • #ReDigest Продолжаем субботнюю рубрику, тут я кратко рассказываю про новости из мира технологий и A

    #ReDigest

    Продолжаем субботнюю рубрику, тут я кратко рассказываю про новости из мира технологий и AI, которые привлекли мое внимание.

    Дайджест недели:

    — Google выкатили Gemini 3 Pro — SOTA почти по всем бенчам, первая модель за 1500 Elo на LMArena. 1М токенов контекст, 64K на выход. Цена: $2-4/млн на вход, $12-18/млн на выход. Flash-версии пока нет. Очень мощный релиз.

    — OpenAI представили GPT-5.1-Codex-Max для кодинга с динамическим архивированием истории — агент может работать над одной задачей 24+ часа.

    — Google запустили Antigravity — конкурента Cursor на своих топовых моделях. Из фишек планирование через артифакты и быстрый браузер-тул через хром расширение. Пока бесплатно.

    Cursor 2.1 добавил интерактивные планы с возможностью отвечать на вопросы ИИ, плюс AI Code Reviews и Find Issues -поиск и фикс багов и кодревью по одной кнопке.

    — Warp выкатили апдейт, стали первыми в Terminal-Bench 2.0 с Full Terminal Use — агент теперь работает с интерактивными CLI-приложениями (дебаггеры, REPL), плюс функция /plan для согласования подхода и интеграции со Slack, Linear, GitHub Actions.

    — Сэм Альтман с Льюисом Андре основали Episteme — R&D-организацию для долгосрочных исследований на стыке физики, биологии, вычислений и энергии.

    — ElevenLabs выпустили платформу Image & Video (Beta) — агрегатор моделей генераций медиа с озвучкой и липсинком в одном месте.

    — OpenAI раскатили групповые чаты в ChatGPT — приглашаете людей, общаетесь, по мере надобности вызываете модель в диалог. Удобно для проектных обсуждений.

    — Alibaba делает ИИ-суперапп на Qwen 3 — Deep Research, кодинг, компвижн, голосовые вызовы, генерация отчетов с автоматическими презентациями за секунды. Интеграция со всей экосистемой: карты, доставка, коммерция. Пока только Китай.

    — Google обновили Nano Banana — теперь с Gemini 3 Pro под капотом, веб-поиском и 4K. Завезли в NotebookLM — он теперь генерит наборы слайдов, графики, диаграммы и видео-презентации из документов.

    — Meta выпустила новый SAM3 и SAM 3D — создание 3D-моделей объектов и людей из обычных фото. SAM 3D Objects восстанавливает форму и текстуру, SAM 3D Body реконструирует тело с позой и конечностями. Код открыт.

    — xAI выпустили Grok 4.1 — лучше понимает эмоции и выдает меньше неточностей. Но лидером LMArena не продержался и дня — его сразу сместил Gemini 3.

    — Perplexity добавили возможность создавать и редактировать слайды, таблицы и документы во всех режимах поиска. Доступно на веб-версии для Pro и Max подписчиков.

    — Еврокомиссия анонсировала масштабный пересмотр GDPR и AI Act — упрощение cookie-баннеров, разрешение использовать персональные данные для обучения моделей, отложенное введение правил для высокорисковых AI-систем.

    — Исследователи выпустили Heretic — софт для автоматического снятия цензуры с LLM. Вычисляет «направления отказа» и удаляет их из весов. Работает автоматически на большинстве архитектур, включая Llama, Qwen, Gemma.

    — Cloudflare пережили крупнейший сбой с 2019 года — изменение прав в ClickHouse удвоило размер конфига Bot Management, что положило X, ChatGPT, Discord, криптобиржи на несколько часов. Полное восстановление заняло почти 6 часов.

    — Manus AI выпустили агента для браузера в виде расширения — активируете, и ИИ берет окно под контроль и выполняет задачу. Работает в любом браузере.

    — OpenAI опубликовали большую статью с научными кейсами, где GPT-5 помог сделать открытия.

    — Gamma сделали гайд промптов для создания презентаций по отраслям — маркетинг, сейлз, консалтинг. Плюс примеры API-интеграций c n8n, notion и т.д.

  • Пока все пишут про релиз Gemini 3 и новую Antigravity IDE от Google, я решил написать про NotebookLM

    Пока все пишут про релиз Gemini 3 и новую Antigravity IDE от Google, я решил написать про NotebookLM, которым периодически пользуюсь уже довольно давно. Триггером для новой волны интереса стал пост Игоря про новые фичи в NotebookLM: deep research и генерация видео.

    NotebookLM — это AI сервис от Google, который на основе загруженных вами документов и видео помогает быстро получать ответы, конспекты и объяснения по вашим материалам. Мой самый популярный use case — это краткий пересказ Youtube видео. Еще я пытался генерировать подкасты по статьям (на русском тоже работает), но в итоге не зашло.

    Сейчас я работаю над статьей про метрики внедрения AI ассистентов, пишу по-старинке “из головы”. Решил попробовать потестировать NotebookLM на задачи анализа уже опубликованных материалов. Если коротко, то ничего нового я к сожалению не узнал, но по менее профильной теме было бы точно интересно. Уровень качества материалов — студенческая курсовая. Много теории, неплохая работа с источниками и их суммаризация, но отсутствует новизна и небольшая глубина анализа. Для погружения в абсолютно новую тему — точно рекомендую, может быстро ускорить процесс обучения.

    Приложил полностью автоматически сгенерированное видео по теме метрик внедрения AI. Весь промпт был в одно предложение.

    Еще хочу порекомендовать канал Игоря Tips AI | IT & AI. Сам давно его читаю и постоянно узнаю оттуда новые прикольные штуки.

    Подписаться

  • Gemini 3 Pro. Самый умный ИИ от Google уже здесь! 

Google представил Gemini 3 Pro  свою самую мощну

    Gemini 3 Pro. Самый умный ИИ от Google уже здесь! Google представил Gemini 3 Pro свою самую мощну

    🔥 Gemini 3 Pro. Самый умный ИИ от Google уже здесь!

    Google представил Gemini 3 Pro – свою самую мощную ИИ-модель на сегодня. Он создан для тех, кто превращает идеи в реальность с помощью кода, планирования и креатива

    Лучший в агентном программировании: автоматически решает многошаговые задачи, вызывает инструменты, пишет и тестирует код как настоящий разработчик
    Vibe coding нового уровня: по описанию или наброску создаёт красивые и адаптивные интерфейсы
    Мультимодальность на максимуме: понимает текст, изображения, видео, аудио и даже PDF
    1 миллион токенов на вход: идеален для сложных автоматизаций и анализа больших документов.
    ✦ Бьёт GPT-5.1 и Claude Sonnet 4.5 почти по всем бенчмаркам, от математики до агентных задач и понимания экранов

    Если вы строите ботов, автоматизации или сложные workflow в n8n, то это ваш новый союзник!

    💡 Уже доступен в:
    Gemini AI
    Google AI Studio
    ✦ Vertex AI и Gemini API
    ✦ Новой платформе Google Antigravity для агентной разработки (IDE, аналог Cursor AI)

    ⚠️ Сервисы Google могут быть недоступны через Jumble Connect, но мы уже работаем над решением. А пока протестировать Gemini 3 Pro можно на LLM Arena

    🧩 ChatConnectYouTube

  • Интеграция ИИ в бизнес не даст прибыли на долгосроке Странновато конечно это писать, будучи разрабо

    Интеграция ИИ в бизнес не даст прибыли на долгосроке

    Странновато конечно это писать, будучи разработчиком кастомных ИИ интеграций

    Но реально, давайте представим, что все пойдет по техно-оптимистичному раскладу и через пару лет условного бухгалтера Елену Андреевну заменит хороший набор запросов к LLM API

    Что будут делать бухгалтерские фирмы с кратно возросшей маржой?

    Спойлер: демпинговать

    Уже сейчас видна коммодизация технологий – начиная от открытых моделек, заканчивая всякими n8n, на которых некоторые особо инициативные Елены Андреевны уже костылят себе рабочие инструменты.

    Разработчики тоже в массе освоят разработку с ЛЛМ под капотом, как сейчас все умеют в разработку с базой данных под капотом.

    Так что, как и на любом рынке, где не работает winner-takes-all, маржа будет стремится к нулю

    А выводы?

    1. Пока этого не случилось, есть возможность получать сверхприбыли для тех компаний, кто первыми сделают успешные стабильные автоматизации (вот это мне уже не странно писать, хаха)

    2. Есть некоторые отрасли, где уже монополия. Там чуть проще – у них нет серьёзных конкурентов, кто демпингом съест маржу. Но их главный конкурент – Елены Андреевны, которые вместо покупки их решения, накостыляют себе сами под свою узкую задачу.

    3. Некоторые компании из пункта 1 смогут так быстро вырасти, что съедят всех конкурентов и превратят свой рынок в winner-takes-all. Или превратятся из сервисных компаний в продуктовые и просто будут продавать свое решение вчерашним конкурентам

    4. Те, кто будет откладывать «ИИизацию» – в какой-то момент обнаружат себя с нулевой маржой, чтобы просто поддерживать конкурентные цены (не касается ребят с нечестными конкурентными преимуществами, вроде подвязок на госконтракты)

    Мб есть еще варианты, которых не вижу?

    by AI и грабли

  • Ребят, кто в Мск, тут мои приятели проводят оффлайн митап, кому-то точно будет интересно Почему я б

    Ребят, кто в Мск, тут мои приятели проводят оффлайн митап, кому-то точно будет интересно

    Почему я бы пошел, если бы был в Москве

    1. Там будет Валера (@neuraldeep), а Валера классный. У него есть какой-то талант собирать вокруг энтузиастов (можно понять по комментам у него в канале) и делать всратые эксперименты, которые выстреливают.

    Один из них недавно вырос в полноценного deep-research агента поверх концепции SGR, который работает даже на очень маленьких модельках. Имхо, это очень конкурентный даже на мировой арене уровень, так что интересно посмотреть и послушать про развитие эксперимента

    2. Я раньше не слышал про Ксению, но прежде чем рекомендовать ивент, чекнул ее канал – мне он показался очень базированным, я как раз искал каналы про генерацию медиа и хороший дизайн. Отдельный персональный лайк за преподавательский опыт. Короче, я бы пришел чисто послушать выжимку ее опыта и познакомиться

    3. Ну и самое главное, оффлайн ивенты – отличная возможность пообщаться вживую и обменяться деталями из опыта, про которые люди обычно не пишут публично. Я стараюсь выцеплять интересных людей и уходить общаться 1 на 1 подальше из общей тусы. Имхо, лучше пообщаться несколько часов с одним очень релевантным человеком, чем по 10 минут со всеми подряд.

    Но часто нужно сначала пообщаться с несколькими, чтобы найти этого человека. Тут ребята будут проводить нетворкинг активность, это может неплохо сработать как предварительный фильтр. Главное держать в голове, что это только подготовка, а реальный нетворкинг обычно идет дальше (если вы не расходитесь по домам)

    Ссылка на мероприятие

    #дружеский_пиар

  • Как Эд Ширан связан с ЛЛМ промптами Читаю я перед сном статью Джулиана Шапиро как генерировать ид

    Как Эд Ширан связан с ЛЛМ промптами?

    Читаю я перед сном статью Джулиана Шапиро – как генерировать идеи для текстов.

    И вижу очень знакомый подход – дать себе выписать все идеи, которые есть, дав полную индульгенцию даже на очень плохие идеи.

    Важно разрешить себе вытащить из головы весь мусор, потому что только смотря на него, наше сознание вычленяет, чего избегать, чтобы было хорошо.

    Посмотреть на плохое и понять что исправить – легче, чем сделать хорошее с нуля.

    И всем же знакома вот эта ситуация, когда просишь ЛЛМку нагенерить идей, а там прям ну очень плохо?

    Это на самом деле очень хорошо! Потому что это крутой материал, чтобы точнее объяснить то, что не получилось сформулировать с нуля

    Так еще и сразу с примерами. Такой отрицательный few-shot learning, получается

    В креативных задачах меня только этот подход с первым «мусорным» ответом и спасает. Такое ощущение, что пока не выдаст всю банальщину и клише, она просто не может думать оригинально

    Что в целом даже очевидно – ее учили выдавать наиболее вероятный текст, а наиболее вероятный – почти всегда банальный.

    Короче, не отступаем после первого плохого ответа. Контринтуитивно, но часто это необходимый этап на пути к хорошему результату

    ———

    Кстати, этот подход к креативности Джулиан почерпнул у Нила Геймана и Эда Ширана

  • Claude Code всё

Ну что, друзья, Open Source LLMs для кодинга стремительно догоняют своих закрытых б

    Claude Code всё Ну что, друзья, Open Source LLMs для кодинга стремительно догоняют своих закрытых б

    Claude Code всё?

    Ну что, друзья, Open Source LLMs для кодинга стремительно догоняют своих закрытых братьев сестер. Недавно вышли аж 3 значимых модели от китайцев — это Minimax M2, GLM 4.6 и Kimi K2 Thinking, очень мощные модели, догоняющие Sonnet 4.5 и GPT-5.

    Я думаю, для многих не секрет, что китайцы сейчас, во-первых, начали предоставлять подписки на свои LLM (GLM, MiniMax), во-вторых, дают возможность юзать их из Claude Code.
    Но, по мне, так ключевая проблема китайских подписок в Privacy — субъективно, вероятность того, что данные будут использованы для обучения (как минимум) существенно выше. И вот тут на сцене появляется сервис Synthetic

    1. Synthetic подписка — Claude Code x3
    Суть сервиса в том, что они предоставляют дешевый доступ к множеству современных LLM — но главное, умеют это делать по подписке. Так вот, даже в подписке за 20$ они пишут, что лимиты на лучшие модели x3 от тех, что Claude дают за те же деньги. Minimax M2, GLM 4.6 и Kimi K2 Thinking там есть. Важно, что они заверяют, что дата центры с их GPUшками находятся в US и EU, что компания у них американская и что данные юзеров для дообучения они никогда не используют.
    С Claude Code (CC) они тоже умеют интегрироваться нативно и даже дают готовый конфиг, который позволяет легко и просто запускать их Claude Code с их подпиской одной командой:

    # Add to  ~/.zshrc
    synclaude() {
      ANTHROPIC_BASE_URL=https://api.synthetic.new/anthropic 
      ANTHROPIC_AUTH_TOKEN=${SYNTHETIC_API_KEY} 
      ANTHROPIC_DEFAULT_OPUS_MODEL=hf:moonshotai/Kimi-K2-Thinking 
      ANTHROPIC_DEFAULT_SONNET_MODEL=hf:MiniMaxAI/MiniMax-M2 
      ANTHROPIC_DEFAULT_HAIKU_MODEL=hf:MiniMaxAI/MiniMax-M2 
      CLAUDE_CODE_SUBAGENT_MODEL=hf:zai-org/GLM-4.6 
      CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 
      claude "$@"
    }

    После этого просто пишем в терминале synclaude и радуемся специальному клоду (не забудьте задать ключи SYNTHETIC_API_KEY у себя в env). Я успел проверить — работает довольно бодро и стабильно.

    Еще, люди в чатах жаловались, что подписки от китайцев на китайские модели работают довольно медленно. Мои быстрые эксперименты с Synthetic показали, что их модели прям шустренько отвечают.

    Отмечу, что в таком варианте подписке есть еще один неочевидный плюс, в отличие от китайских — новые LLM выходят стремительно и неизвестно какая опенсорс LLM будет лучшей для кодинга завтра. Здесь же выглядит так, что ребята добавляют поддержку хороших моделей очень быстро (на реддите писали, что K2 Thinking они первые в US развернули).

    2. API по подписке
    Интересно, что любую из доступных always-on моделей можно так же использовать и через API по подписке.

    3. Деплой своих моделей
    Неочевидный приятный бонус — этот сервис так же умеет разворачивать почти любую LLM с HugginFace (on demand) и это прямо находка для тех, кто деплоит локальные ллмки в организациях — есть возможность очень быстро и дешево протестировать LLMку или ее кванты. Мною проверено — работает.

    Приятная рефералка
    Пользуясь случаем, поделюсь своей реф ссылкой на этой сервис https://synthetic.new/?referral=eWEfhLA6nZXwE1D — в случае подписки, +10$ на баланс прилетит и мне и вам.

    @ai_driven

  • Cursor AI разочарование века Решил проверить подписку Cursor Pro ради эксперимента. Думаю, потести

    Cursor AI — разочарование века

    Решил проверить подписку Cursor Pro ради эксперимента. Думаю, потестирую пару часов, посмотрю, стоит ли своих денег. И что вы думаете? За полчаса использования баланс -5$ из 20$!

    То есть 25% баланса просто сгорело за 30 минут работы!

    Для сравнения, в Windsurf при тех же задачах я бы потратил всего 10–15 кредитов из 500, это примерно 2–3% лимита. Подписка у них 15$, а основная модель – GPT-5 Low Reasoning или GPT-5 Codex, которые очень хорошо пишут код.

    В Kiro расход ещё меньше: за те же полчаса я бы потратил менее 1% баланса, а стоит подписка 20$. Там используется Claude 4.5 как основная модель, она выдаёт результат быстро, чётко и без лишних затрат.

    ⚙️ Задача у меня была максимально стандартная: проанализировать документацию и написать небольшое приложение.
    И вот тут разница особенно чувствуется. В Cursor AI токены улетают просто с космической скоростью…

    💭 Вывод:
    Cursor AI, возможно, подойдёт для небольших правок вашего проекта, когда уже всё написано и нужно слегка подредактировать. Но если вы планируете писать код с нуля, делать полноценные приложения, тестировать, анализировать – это не ваш вариант!

    🧩 ChatConnectYouTube

  • Вайб-кодинг и AI инструменты все еще относительно плохо (прирост производительности измеряется в про

    Вайб-кодинг и AI инструменты все еще относительно плохо (прирост производительности измеряется в процентах, а не в разах) работают в крупных компаниях. Решил немного структурировать причины этого.

    1⃣ В энтерпрайзе повышенные требования к качеству кода, стабильности приложений, безопасности и приватности данных.

    2⃣ В крупных компаниях часто встречаются гигантские кодовые базы, которые не влезают в контекст и на которых инструменты не обучены. Ситуация осложняется частым наличием legacy стека технологий.

    3⃣ Существующие AI coding ассистенты заточены под прототипирование и MVP.

    4⃣ Написание кода в крупных компаниях редко бывает bottleneck: чаще все упирается в сбор требований, согласование изменений с другими командами и верификации изменений.

    5⃣ Административно-бюрократический, компании не хотят рисковать, потому что тяжело объективно померить эффект от внедрения AI. Существующие процессы не адаптированы под увеличение числа изменений в разы.

    6⃣ Человеческий фактор — люди в энтерпрайзе меньше привыкли рисковать и часто предпочитают уже устоявшиеся в компании технологии.

    Причины 1-3 могут и, вероятно, будут решены AI компаниями, разрабатывающими новые версии IDE, CLI и сервисов. Уже сейчас видно смещение фокуса крупных игроков (Microsoft, Anthropic, Devin & Windsurf, Cursor) на enterprise-ready решения.

    Причины 4-6 каждой компании придется решать самостоятельно и от того как успешно она с этим справиться будет зависеть ее будущее.

    Подписаться

  • Рубрика: Полезное воскресенье Многие из вас приходят на канал после роликов про n8n и я понимаю эт

    💭 Рубрика: Полезное воскресенье

    Многие из вас приходят на канал после роликов про n8n – и я понимаю этот путь. Сначала кажется, что сейчас быстро соберу идеальный сценарий, а потом начинаются вечные ошибки, настройки, бесконечные «failed» и непонятные зависимости.

    Я сам через всё это прошёл. И в итоге понял: если хочешь действительно гибкие и стабильные автоматизации – проще писать их на Python, а не пытаться склеивать ноды.

    🌊 Самое удобное место для меня оказалось Windsurf – и именно с моделью GPT-5 Low Reasoning, а не Codex или Sonnet. Объясню почему. Она реально пишет код почти без ошибок, прямо как будто понимает, что тебе нужно. У меня она срабатывает с первого раза в 90% случаев.

    GPT-5 LR в Windsurf действительно лучше всех пишет код: чисто, по делу, почти без ошибок
    ✦ На бесплатном тарифе дают 25 кредитов, а запрос к GPT-5 LR стоит 0.5 кредита → получается 50 запросов в месяц. Этого хватает даже на довольно сложные автоматизации
    ✦ Обычный ChatGPT (на сайте) отлично подходит для общих вопросов и изучения темы. А Windsurfтолько когда нужно написать или доработать код. Так запросы не тратятся впустую

    ⚡️ Ещё один лайфхак, который сильно сократил количество багов: прогоняю документацию нужного API или сервиса через MCP Context7. Модель тогда лучше понимает контекст и генерирует почти идеальный код с первого раза. Например, если вы хотите создать бота в Telegram, который будет отвечать через OpenRouter, вот вам промт:

    Изучи лучшие практики aiogram и openrouter используя mcp context7 и напиши код Telegram-бота, который будет отвечать на вопросы пользователей с помощью DeepSeek V3.1 (free)

    🛡 И да, Windsurf привередлив и в 90% случаев пишет «недоступно в вашей стране» – помогает JumbleConnect

    Это не реклама и не единственно верный путь – просто мой опыт и то, что лично мне сэкономило кучу времени и нервов. Если вы тоже устали от костылей в no-code, то можете попробовать.

    🙌 Хорошего воскресенья и удачных автоматизаций!
    А если будут вопросы – с радостью отвечу.

    🧩 ChatConnectYouTube

  • Jumble Connect: Мощное обновление! Мы полностью завершили переезд на новое оборудование! Теперь:

    🛡 Jumble Connect: Мощное обновление!
    ☄️ Мы полностью завершили переезд на новое оборудование!

    Теперь:
    🇳🇱 Сервер Швеция заменён на Нидерланды — он стал основным!
    ✦ Быстрый и стабильный доступ к AI! Подойдет большинству!

    🇺🇸 Сервер США был обновлён вчера и работает быстрее, чем когда-либо
    ✦ Для специализированных сервисов, доступных только в США

    🇩🇪 Германия — без изменений и по-прежнему стабильна
    ✦ Запасной вариант, низкие задержки как и у Нидерландов

    🎁 Всем пользователям серверов 🇺🇸 и 🇳🇱 добавлено +7 дней к подписке в знак благодарности!
    ‼️ Не забудьте нажать /start в боте, чтобы получить новый ключ и обновить его в приложении!

    Попробовать JumbleConnect

    🎁 Пробуйте бесплатно!
    Всем новым пользователям — бесплатный триал! Приглашайте друзей: и вам и другу +5 бонусных дней!

    🧩 JumbleChatConnectYouTube

  • Протестировал AI браузеры Comet (от Perplexity) и Atlas (от OpenAI)

Есть два режима:
  Обычный брау

    Протестировал AI браузеры Comet (от Perplexity) и Atlas (от OpenAI) Есть два режима: Обычный брау

    Протестировал AI браузеры Comet (от Perplexity) и Atlas (от OpenAI)

    Есть два режима:
    ⁃ Обычный браузер с чатбот функционалом. Как будто у тебя всегда открытка вкладка справа с Perplexity / ChatGPT.
    ⁃ Агентский режим (на фото снизу), имитирующий работу пользователя (может заполнять формы, искать информацию, переходить по ссылкам и кликать на кнопки, отдельно можно разрешить или запретить авторизоваться на сайтах)

    Краткое сравнение:
    ⁃ Движок: у обоих Chromium.
    ⁃ Платформы: у Comet — Windows & macOS, Atlas — только macOS
    ⁃ Цена: чатбот функционал — бесплатно, агентский режим входит в платную подписку Perplexity Pro или ChatGPT Plus соответственно.

    У AI браузеров выявлены уязвимости к промпт-инъекциям, поэтому делиться платежными данными или авторизоваться в основных аккаунтах я бы не стал.

    Результаты моих экспериментов:
    Оказалось, у меня не так много сценариев использования браузера, которые можно автоматизировать. Из самого очевидного я придумал протестировать на поиске отелей и билетов, поиске интересных твитов или статей про AI. Ни в одном из сценариев использование AI браузера не дало ускорения, но это определенно было весело. Из этих двух браузеров мне показалось, что Comet справляется с задачами чуть-чуть лучше, но это субъективно.

    Выводы: браузерами по умолчанию я их точно не сделаю, но буду экспериментировать дальше.

    Подписаться

  • Хорошая новость для тех, кто пользуется Codex CLICloud — для него теперь можно докупать кредиты, что

    Хорошая новость для тех, кто пользуется Codex CLICloud — для него теперь можно докупать кредиты, что

    Хорошая новость для тех, кто пользуется Codex CLI/Cloud — для него теперь можно докупать кредиты, чтобы продолжить работу после того, как уперлись в лимиты плана (Plus или Pro).

    $40 за 1000 кредитов

    Сообщество давно просило у OpenAI сделать план между $20 и $200 в месяц, и кто-то покупал несколько аккаунтов для переключения между ними, но вот теперь есть официальный способ.

    И сегодня всем скинули лимиты в честь этого события 🙂

    Экономику еще нужно будет проверить на практике, но это уже намного лучше, чем блокировка после 2 дней работы на плане за $20 или платить $200 в месяц за заведомо недостижимые лимиты и ненужный набор фич в подписке.

    Кстати, свои лимиты и баланс кредитов можно смотреть тут: https://chatgpt.com/codex/settings/usage

    Страница в хелпе с подробностями: https://help.openai.com/en/articles/12642688-using-credits-for-flexible-usage-in-chatgpt-pluspro

    #codex

    Хорошая новость для тех, кто пользуется Codex CLI/Cloud — для него теперь можно докупать кредиты, чтобы продолжить работу после того, как уперлись в лимиты плана (Plus или Pro).

    $40 за 1000 кредитов

    Сообщество давно просило у OpenAI сделать план между $20 и $200 в месяц, и кто-то покупал несколько аккаунтов для переключения между ними, но вот теперь есть официальный способ.

    И сегодня всем скинули лимиты в честь этого события 🙂

    Экономику еще нужно будет проверить на практике, но это уже намного лучше, чем блокировка после 2 дней работы на плане за $20 или платить $200 в месяц за заведомо недостижимые лимиты и ненужный набор фич в подписке.

    Кстати, свои лимиты и баланс кредитов можно смотреть тут: https://chatgpt.com/codex/settings/usage

    Страница в хелпе с подробностями: https://help.openai.com/en/articles/12642688-using-credits-for-flexible-usage-in-chatgpt-pluspro

    #codex

  • Эрик Шлунц (которого нужно слушать) недавно дал небольшое интервью о разном вокруг Claude Code и аге

    Эрик Шлунц (которого нужно слушать) недавно дал небольшое интервью о разном вокруг Claude Code и агентов.

    А слушать его стоит хотя бы потому, что он занимается исследованиями мультиагентных систем в Anthropic и влияет на их разработку, ну и за правильные взгляды — вспомнить те же стволы, ветки и листья 🙂

    Claude Code как агент общего назначения
    Благодаря появлению Agent SDK Claude Code теперь можно использовать не только для программирования.

    Если раньше для построения агента нам приходилось самим создавать agent loop, запросы к API, инструменты, реализовывать их выполнение, работу с файлами и MCP, то сейчас для этой задачи можно использовать SDK, который даёт готовый каркас для создания агентов.

    Claude Skills ложатся в ту же канву — это возможность расширения навыков Claude как агента общего назначения.

    Эволюция архитектуры агентов
    workflows — по-прежнему хороши там, где нужна низкая задержка, но вытесняются агентами там, где важнее абсолютное качество

    agent loops — модель самостоятельно выбирает нужные инструменты в цикле и исправляет ошибки, что в итоге значительно повышает качество в сравнении с workflows

    workflows of agents — каждый шаг в workflow представляет собой отдельного агента

    мультиагентные системы — несколько (суб)агентов работают одновременно над одной задачей или её подзадачами

    🔴 Проблемы мультиагентных систем
    Cообщество, кстати, про них прекрасно знает, и хорошо, что про них знают и в Anthropic.
    Плохо то, что они о них заранее не рассказывают, когда выпускают инструменты

    Наблюдаемость (observability) — несмотря на то, что модели стали гораздо более способными, простота всё ещё остаётся важной.
    И хотя можно построить большой workflow из агентов, лучше всё-таки начинать с самого простого и двигаться к более сложному решению, добавляя слои сложности только по необходимости, потому что это сильно затрудняет наблюдаемость.

    Кто бы мог подумать, а некоторые люди мучаются, между прочим!

    ● Как и люди, мультиагентные системы могут страдать от излишней бюрократии и коммуникационных издержек, когда агенты тратят больше времени на общение друг с другом, чем на выполнение задачи.

    Тут я почти сорвался и чуть не написал портянку с базой из теории информации в её приложении к коммуникациям в организациях, но об этом как-нить потом 🙂

    ● Claude совершает те же ошибки, что и неопытные менеджеры: он дает неполные или нечеткие инструкции субагенту и иногда ожидает, что у субагента будет правильный контекст, хотя на самом деле это не так.

    Часть исследований Эрика — это обучение Claude быть лучшим менеджером и знать, как давать четкие инструкции субагентам и убеждаться, что он получает от них то, что нужно.

    Забавно наблюдать, как антропоморфизм постепенно становится всё более и более явным и даже полезным в работе с моделями

    🟢 Советы разработчикам при работе с агентами
    начинайте с простого и добавляйте сложность только по мере необходимости

    думайте с позиции ваших агентов
    Поставьте себя на место модели и убедитесь, что вы дали достаточно информации, чтобы вы сами могли решить проблему. Стоит помнить, что модель видит только то, что мы ей показали.
    Также имеет смысл смотреть в сырые запросы и логи, чтобы понимать, что пересылается на самом деле

    не делайте MCP один к одному с вашими API
    Инструменты для модели или MCP должны быть 1:1 с вашим UI, а не с вашим API.
    Модель не работает как традиционная программа — она скорее ведёт себя как пользователь всех этих инструментов

    Про эту ошибку в создании MCP-серверов я тоже постоянно рассказываю, но аналогия с UI довольно полезная

    Будущее агентов
    Это, наряду с мультиагентностью, стоит читать как направления развития самих Anthropic

    Самостоятельная верификация: нужно научить агентов самостоятельно проверять свою работу. Например, агент, который написал веб-приложение, должен уметь открыть его в браузере, протестировать и исправить найденные баги

    Computer Use: возможность агентов взаимодействовать с GUI откроет огромные возможности для автоматизации задач в любых приложениях, с которыми работают люди

    #video #reaction #interview

  • SDD на максималках и Lovable для бекендов: новинки YC из мира AI dev tools С некоторых пор я полюби

    SDD на максималках и Lovable для бекендов: новинки YC из мира AI dev tools

    С некоторых пор я полюбил отсматривать стартапы, прошедшие отбор в Y Combinator (на минуточку, топовейший акселератор). Во многом потому, что YC — один из немногих акселей, который смело вкладывается в Dev Tools продукты (из примеров: GitLab, Amplitude, Algolia, OneSignal и т.д.).

    В сумме AI dev tools в этом батче там штук 10, но вот эти мне показались наиболее интересными:

    Specific — позволяет генерить бекенд (эндпоинты) на естественном языке — вроде, полезная штука для каких-нибудь Lovable приложений (хоть, лавабл уже и сам поддерживает создание бекендов). Этот я успел немного потыкать — с задачей написать эндпоинт для перевода текста через ллмки OpenAI оно так справится и не смогло.

    Deeptrace — штуковина, которая коннектится к вашим логам, кодбазе и алертам и на каждый алерт провод расследование, (пытаясь) выявить корень проблемы. Пока что доступна только демка, но сама идея интересна — мб кто-то из нас что-то подобное тоже пилит, тогда присмотритесь к их лендосу. Лендосы YC стартапов — это всегда отдельная интересная история — я уверен, что их там активно натаскивают на хорошие, понятные (продающие) лендинги.

    Compyle — лозунг «Lovable for Software Engineers». А по сути, это тот же Codex Cloud, только умеющий задавать вопросы перед тем, как приступить к кодогенерации. Это как раз пример SDD (Spec-Driven Development) — фактически, они помогают из вайб-промпта создать спеку. Получился эдакий Plan Mode на максималках. Вообще, забавно, что они так и пишут прямо у себя на сайте, что эта штука под капотом юзает Claude Code. Из интересного — как и наш CodeAlive, поддерживает работу с мультирепозиториями. Пока что работает бесплатно.
    Ну, и интереса ради с помощью этой тулы я за ван шот законтрибьютил нужную нам фичу в опенсорный проект Fluid на .NET (это шаблонизатор, который классно подходит для промптов). Вот PR, с виду выглядит все четко и тесты проходят, ждем что скажут ревьюеры). Мне, в целом, понравился опыт.

    Fastshot — Lovable для мобильных приложений.

    Полный список по ссылке.

    Что нам с этого, спросите вы?
    Ну, во-первых, не исключено, что кто-то мог искать подобные продукты. Во-вторых, факт прохождение стартапа в YC сам по себе весьма ценен и означает, что идея очень даже имеет право на жизнь, а значит, кто-то из вас может вдохновиться, как и мы когда-то, попробовать сделать свой стартап, ну или просто успешный пет-проект (главное только, чтоб не B2B).

    А какой продукт или идея из осеннего батча YC вам приглянулась больше всего?

    Кстати, неочевидное открытие, которые я сделал пока готовил этот пост — это то, что в компания SST тоже резидент YC, причем аж в 2021 они проходили программу и получали от них деньги. Для тех, кто не в курсе SST — авторы одного из наиболее успешного open source кодагента OpenCode.

    @ai_driven

  • Знакомьтесь: ChatGPT Atlas  браузер будущего от OpenAI!

Теперь ChatGPT живёт прямо внутри браузера.

    Знакомьтесь: ChatGPT Atlas браузер будущего от OpenAI! Теперь ChatGPT живёт прямо внутри браузера.

    🔥 Знакомьтесь: «ChatGPT Atlas» — браузер будущего от OpenAI!

    Теперь ChatGPT живёт прямо внутри браузера. Можно читать сайт и тут же спрашивать ИИ о любом тексте — без копирования, без вкладок, всё на месте.

    💡 Atlas умеет:
    ✦ Анализировать сайты и писать резюме
    ✦ Запоминать контекст и помогать с учётом прошлых запросов
    ✦ В режиме Agent сам бронировать, заполнять формы, искать нужное
    ✦ Редактировать тексты и код прямо на странице

    ⚡️ Уже доступен на macOS, версии для Windows и мобильных — скоро
    ➡️ Скачать для macOS можно тут: chatgpt.com/atlas/get-started

    🎁 И приятный бонус! При первом обращении к ChatGPT в Atlas получите месяц бесплатной подписки!

    🧩 ChatConnectYouTube

  • Влияние AI инструментов на рынок разработки Существует множество различных сценариев как AI coding

    Влияние AI инструментов на рынок разработки

    Существует множество различных сценариев как AI coding ассистенты изменят рынок разработки через 5 лет, но я бы выделил следующие:
    1️⃣ Ничего не изменится. AI инструменты не окажут значительного влияния на рынок разработки.
    2️⃣ AI — всего лишь новый инструмент разработчика, как IDE или новый язык программирования. Эффективность труда повысится, но рынок разработки существенно не изменится.
    3️⃣ AI совершит революцию и рынку больше не нужно будет столько разработчиков.
    4️⃣ AI совершит революцию, но рынку может понадобится еще больше разработчиков, потому что ранее нерентабельные проекты станут рентабельными. Роль разработчика и скиллсет существенно изменятся.

    Изменения будут не однородными и зависят как минимум от следующих факторов:
    — Опыт разработчика
    — Корпорация vs стартап
    — Frontend vs Backend vs Mobile vs DS & ML vs Management
    — Регион и зарплата
    — Готовность адаптироваться к новым инструментам и процессам

    Я не умею предсказывать будущее и текущих данных недостаточно, чтобы однозначно сказать по какому сценарию будет развиваться рынок разработки, но я пристально слежу за количеством сокращений, активностью найма, трудозатратами на поиск новой работы и изменениями в зарплатах.

    PS: На недавней онлайн-конференции мы обсудили тему детальнее. Вчера выложили записи, бесплатный доступ можно получить на сайте ai-dev.live.

    Подписаться

  • Ускоряем AI-агентов Вы никогда не начинали скучать, пока Claude Code или, тем более, Codex тихонько

    Ускоряем AI-агентов

    Вы никогда не начинали скучать, пока Claude Code или, тем более, Codex тихонько лопатит какую-либо задачу? У меня такое возникает регулярно, и у многих разработчиков, с которыми я общаюсь, тоже.
    Хорошая новость в том, что есть пара решений этой проблемы.

    Haiku 4.5
    Anthropic на днях выпустили новую модельку Haiku 4.5 — я уже успел ее потестить, и, по моим ощущениям, всякие простые правки и легкие багфиксы она действительно делает в разы быстрее, чем Sonnet 4.5. Больше того, я даже успел потестить эту модельку в UI тестах через playwright MCP — и, опять же, несложные тесты она довольно бодро прокликивает и выполняет. Что касается более сложных тестов — например, проверка всевозможных тест кейсов на активацию подписки Хайку не далась.

    Кстати, запустить Claude полностью в режиме Haiku можно вот так:

    claude --model haiku

    А для тех, кто работает с CC через AWS вот так:

    ANTHROPIC_MODEL='global.anthropic.claude-haiku-4-5-20251001-v1:0' 
    claude

    CodeAlive MCP — универсальное ускорение
    И, как я уже рассказывал на недавней конференции, есть и более универсальный способ ускорить ваших AI-агентов, а именно, подключить обогащение контекста из CodeAlive через MCP, в этом случае AI-агент (Cursor, Codex, Cursor, OpenCode) и т. д. получат возможность задавать CodeAlive вопросы на естественном языке (пример: «как работает регистрация?») и очень быстро получать от CodeAlive список релевантных функций и классов, экономя тем самым агенту десятки шагов. Кстати, на проектах с большой кодовой базой, CodeAlive помимо ускорения, еще и точность и качество работы агента повысит. Чтобы не быть голословным, мы прогнали бенчмарк SWE bench Verified на обычном Claude Code и Claude Code с CodeAlive. Результат: среднее ускорение в задачах на 30%, а на больших задачах получили ускорение до 83%. Если вам интересно узнать больше о CodeAlive — напишите мне и я лично проведу вам онбординг.

    А как вам новая Haiku? И насколько важный фактор для вас скорость работы агента?

    NB. Я готовлю большой пост про использование AI в реализации больших фич в сложных проектах с описанием всех этапов — от проектирования до UI-тестирования. Если у вас есть интересные кейсы с UI тестированием через AI агентов — поделитесь в комментах к этому посту или мне в ЛС.
    А ещё мы готовим два новых практических воркшопа:
    — с Максимом @etechlead про Claude Code и субагентов;
    — и с Костей Дорониным @kdoronin_blog про практику GraphRAG.
    Совсем скоро будет анонс, так что следите за обновлениями в канале.

    Кстати, очень рад приветствовать новых подписчиков на своем канале! Чуть позже я расскажу о себе подробнее, а вы о себе. Спасибо, что читаете.

    @ai_driven