Блог

  • Онлайн: Разбираемся с Gemini CLI, Claude Code и Codex CLI на продвинутом уровне вместе с экспертами

    Онлайн: Разбираемся с Gemini CLI, Claude Code и Codex CLI на продвинутом уровне вместе с экспертами

    Сегодня, в среду, в 17:00 по МСК, 16:00 по CEST и в 19:00 по Алматы встречаемся с Александром Колотовым, чтобы разобраться в том, как эффективно использовать Gemini CLI в повседневных задачах программиста. Помимо разных фишек Gemini CLI так же увидим как CodeAlive MCP может усилить Gemini CLI. Александр — разработчик с 20-ти летним стажем, сейчас кодит преимущественно на Elixir в компании Blockscout.

    Добавляйте в календарь встречу «Раскрываем потенциал Gemini CLI + MCPs», чтобы не пропустить: (встреча прошла)

    А в этот четверг, 16:00 МСК, 15:00 CEST и 18:00 по Алматы пройдет встреча с Максимом, автором замечательного Telegram-канала Этихлид. Из всех моих знакомых Максим наиболее глубоко и широко погружен в тему кодовых агентов — регулярно пробует и обозревает разные решения и (что важно) не зацикливается на каком-то одном агенте. Цель встречи — на реальной задаче посмотреть как эффективно использовать Claude Code со всякими продвинутыми фишками типа субагентов, а также разберемся в каких случаях может пригодится Codex CLI. Помимо глубокой погруженности в тему, у Максима так же опыт разработки почти 20 лет.

    Добавляйте встречу «Claude Code vs Codex. А не пора ли нам обновить воркфлоу?» в календарь, чтобы не пропустить: (встреча прошла)

    Обе встречи будут записаны, но у тех, кто подключится Live будет возможность задать свои вопросы экспертам.

  • Мой доклад на Kolesa Conf25 + конкурс Друзья, 11 октября в Алматы я буду выступать с докладом про C

    Мой доклад на Kolesa Conf’25 + конкурс

    Друзья, 11 октября в Алматы я буду выступать с докладом про Context Engineering на Kolesa Conf. Расскажу про Spec-Driven Development и о том, как сейчас устроена работа с контекстом в современных кодагентах и в CodeAlive — будет жарко!
    Ссылка на сайт конференции (билеты пока доступны): https://kolesa-conf.kz/?utm_source=tg&utm_medium=aidriven#up

    И хорошая новость только для подписчиков моего канала — совместно с организаторами мы проводим конкурс: в комментариях к этому посту расскажите о самой необычной задаче, которую вам помог решить кодовый агент и победителю с наиболее интересным кейсом достанется билет на Kolesa Conf’25 и месяц подписки на CodeAlive. Победителя выберу я через неделю в четверг 18-го сентября.

    P. S. Почти год прошел с момента моего предыдущего доклада про LLM для разработки на DotNext и вот организаторы выложили выступление в общий доступ — надо признать, что за год столько всего изменилось, что доклад интересен разве что с целью погрузиться в картину и инструменты годовалой давности и еще раз осознать насколько все быстро развивается в нашей сфере, либо если вы только вкатываетесь в тему AI для разработки. То ли дело доклады моего приятеля Жени Пешкова, вот они-то остаются актуальны годами! Вот, кстати, его доклад про async/await c того же Дотнекста.
    А для тех, кто дочитал до конца бонус — мой недавний и очень актуальный доклад про подход к решению сложных задач с LLM, а также про AI Code Review. (совершенно не выспался и дико устал в тот день, поэтому надеюсь вы мне простите мои бесконечные междометия))

  • SGR + AI Test-Driven Development + Metaprompting

Уровень 1: AI-TDD
Когда разрабатываешь тот или ино

    SGR + AI Test-Driven Development + Metaprompting Уровень 1: AI-TDD Когда разрабатываешь тот или ино

    SGR + AI Test-Driven Development + Metaprompting

    Уровень 1: AI-TDD
    Когда разрабатываешь тот или иной функционал с ллмками, очень круто работает подход, когда сначала пишешь хорошие тесты (часто можно нагенерить прямо через какую-нибудь мощную ллмку типа GPT-5 high), потом просто просишь кодагента итеративно запускать тесты и улучшать код в соответствии с фидбеком до тех пор, пока тесты не пройдут. Давайте назовем этот подход AI-TDD. Это довольно рисковый подход, я бы сказал на гране, т. к. некоторые ллмки и агенты могут начать просто подгонять код под тесты, тупо вставляя заглушки — Sonnet модельки таким грешат, а вот GPT-5 ведет себя честнее. Еще, может показаться, что такой подход слегка противоречит популярными нынче Spec-Driven Development (о котором мы поговорим позже). Но на самом деле нет, т. к. AI-TDD — это скорее про подход к решению более сложных и запутанных задач, в которых как ты спеку ни пиши, ллмки все равно ошибутся в итоговом коде, ну либо спеку можно вывести только из итогового кода (в случае с CodeAlive мы такой финт ушами делали, например, в задаче на парсинг кода).

    Уровень 2: AI-TDD + Metaprompting
    Так вот, если вдруг у вас есть продукты с LLM под капотом или вы что-то такое планируете, то возьмите на заметку еще один паттерн — AI-TDD + метапромтинг. Что это за зверь? В целом метапроптинг — довольно простая техника, когда промпт для LLM генерирует другая LLM (обычно более мощная), мы регулярно такое практикуем. Ну а соединив метапромтинг с AI-TDD, мы получим кейс, в котором кодагент итеративно улучшает промпт. Здесь важно отметить, что промтингом обязательно должна заниматься рассуждающая модель — я использую GPT-5 high через Codex CLI (codex --config model_reasoning_effort="high"). Давайте для простоты назовем такого агента-метапромптера супервайзером.
    Кстати, про сам этот термин «метапромптинг» я узнал еще в прошлом году из давнего курса OpenAI про использование модели o1, там они использовали o1 для улучшения политик (это часть промпта) для 4o-mini. Тогда меня очень впечатлил этот подход и, кажется, что тогда он как-то остался незамеченным.

    Уровень 3: AI-TDD + Metaprompting + SGR (SO + CoT)
    Хорошо, погружаемся еще глубже. То, что описано выше уже может неплохо работать, но отлаживать такое (а значит, и улучшать) может быть проблематично, т. к. все, что происходит внутри LLM — черный ящик. Было бы неплохо прикрутить к ответу LLM какую-нибудь «отладочную» информацию — тогда супервайзеру будет легче понять причину проблемы и внести более точные правки в промпт. И здесь можно взять старый добрый CoT (Chain Of Thoughts) — это когда мы просим модельку подумать «шаг за шагом» перед тем, как ответить. Но CoT не всегда подходит, т. к. чаще всего в продуктах с LLM под капотом мы получаем от нейронки ответы в структурированном виде (Structured Output) и вот здесь к нам на помощь приходит подход SO + CoT или, как его нынче называют, SGR — Scheme Guided Reasoning (за термин спасибо Ринату из канала LLM под капотом). Базово, идея в том, чтобы каждый шаг, каждое свое решение LLMка сопровождала рассуждениями и свидетельствами. Если совсем упрощенно, то если раньше мы получали ответ в формате { "result": 42 }, то теперь мы получаем ответ в формате { "reasoning_steps": "...тут шаги с 'мыслями' LLM о том, как именно она пришла к ответу...", "result": 42 }. В итоге, мы, во-первых, получаем ту самую «отладочную информацию», а во вторых, еще сразу повышаем точность ответов, т. к. добавление рассуждений в output non-reasoning модели обычно уже само по себе делает модельку умнее. Ну вот и все, теперь запускаем наш пайплайн метапромтинга по TDD на новом уровне. А кому интересно еще глубже нырнуть в SGR, добро пожаловать в канал Рината: https://t.me/llm_under_hood/625
    И вот отличный пример Deep Research + SGR от Валеры Ковальского: https://github.com/vamplabAI/sgr-deep-research

    У нас в CodeAlive много всего интересного используется — и GraphRAG и агенты, интересно ли больше контента на эту тему? Или лучше что-то более прикладное про LLM/агентов в кейсах разработки?

  • Новое ВИДЕО уже на канале! #YouTube
УСТАНОВКА N8N в 1 КЛИК! Мой скрипт сделает ВСЁ за вас!


Друзья,

    Новое ВИДЕО уже на канале! #YouTube УСТАНОВКА N8N в 1 КЛИК! Мой скрипт сделает ВСЁ за вас! Друзья,

    🔥 Новое ВИДЕО уже на канале! #YouTube

    УСТАНОВКА N8N в 1 КЛИК! Мой скрипт сделает ВСЁ за вас!

    Друзья, помните всю ту головную боль с установкой n8n? ЗАБУДЬТЕ! 🤯

    В новом видео показываю свой собственный скрипт. Он установит и настроит полнофункциональный, безлимитный n8n на ваш сервер АВТОМАТИЧЕСКИ и всего за пару минут!

    ▶️ Смотреть гайд здесь: [YouTube]

    📌 [Скрипт из видео и инструкция здесь!]
    Полезные ссылки и сервисы из видео:

    🛡 Jumble Connect — Мой сервис для стабильного доступа к ИИ!
    ➡️ [Готовый Workflow Telegram-бота]

    VPS Хостинги (брать не в РФ):
    HIP-HOSTING – самый дешевый
    4VPS – хороший и надежный (скидка по этой ссылке)

    Домены и DNS:
    REG.RU — Купить доменное имя
    DNSchecker.org — Проверить привязку домена к IP-адресу сервера

    🧩 ChatConnectGPTYouTube

  • Большие апдейты в мире ИИ! Две топовые модели уже здесь!

Kimi K2-Instruct-0905

 Улучшения:
 Усилен

    Большие апдейты в мире ИИ! Две топовые модели уже здесь! Kimi K2-Instruct-0905 Улучшения: Усилен

    🔥 Большие апдейты в мире ИИ! Две топовые модели уже здесь!

    Kimi K2-Instruct-0905

    🔑 Улучшения:
    ✦ Усиленные возможности кодинга (фронтенд + tool-calling)
    ✦ Контекст расширен до 256k токенов
    ✦ Лучшая интеграция с агентными фреймворками (Claude Code, Roo Code и др.)
    ✦ Бенчмарки: SWE-Bench 69.2%, SWE-Dev 66.6%, Terminal-Bench 44.5%
    ✦ Архитектура MoE, 1T параметров

    Пробовать здесь:
    ➡️ Офф чат: kimi.com
    ⚙️ HuggingFace

    Qwen3-Max

    🔑 Улучшения:
    Логика, математика, кодинг, наука — точность выше
    ✦ Более надёжное следование сложным инструкциям (EN & 中文)
    ✦ Поддержка 100+ языков + сильный апгрейд перевода и здравого смысла
    ✦ Лучше работает с RAG и tool-calling
    ✦ Нет отдельного “thinking”-режима, но reasoning ощутимо прокачан

    Пробовать здесь:
    ➡️ Офф чат: qwen.ai

    Так же модели платно доступны на OpenRouter

    🧩 ChatConnectGPTYouTube

  • Онлайн митап: AI Coding Talk в этот четверг Приходите в четверг на онлайн встречу, на которой мы с

    Онлайн митап: AI Coding Talk в этот четверг Приходите в четверг на онлайн встречу, на которой мы с AI-buddies из соседних каналов про AI-кодинг будем обсуждать то, как сегодня выглядит эффективная AI-driven разработка. Ребята, как и я, глубоко погружены в…Напоминаю, наш скромный митапчик уже через 9 минут.

    Добавляться через бота https://t.me/group_sub_check_bot?start=68b04c36e5b9f465c329b7e6

    По-умолчанию ютуб, но потом еще выложим на другие платформы.

  • НОВАЯ ПУШКА ДЛЯ ВАЙБКОДЕРОВ: Grok Code Fast 1

Только что затестил новую модель от xAI  и это просто

    НОВАЯ ПУШКА ДЛЯ ВАЙБКОДЕРОВ: Grok Code Fast 1 Только что затестил новую модель от xAI и это просто

    💥 НОВАЯ ПУШКА ДЛЯ ВАЙБКОДЕРОВ: Grok Code Fast 1

    Только что затестил новую модель от xAI — и это просто разрыв.

    ⚡️ На полном серьёзе, это самая быстрая модель, что я когда-либо пробовал! Отклик мгновенный, думает, пишет код, редактирует просто мгновенно!
    ✔️ И что самое крутое — на первый взгляд, пишет код на уровне топовых моделей типа GPT-5 и Sonnet 4!

    🔥 Модель УЖЕ доступна в Cursor и будет БЕСПЛАТНА для всех до 2 сентября 2025!

    Просто заходите в Cursor, выбираете её в списке моделей и кайфуете. Время пошло! 🚀
    Если модели нет в списке, заходите в Setting > Beta > Update access > Early Access

    ➡️Так же модель уже доступна в @JumbleGPT_bot
    🛡 Если Cursor пишет «Недоступно в вашей стране» – Используем Jumble Connect

    UPD: Grok Coder так же бесплатно доступен в RooCode!

    🧩 ChatConnectGPTYouTube

  • Релиз DeepSeek-V3.1: врываемся в эру ИИ-агентов!

Команда DeepSeek выкатила крупное обновление. Глав

    Релиз DeepSeek-V3.1: врываемся в эру ИИ-агентов! Команда DeepSeek выкатила крупное обновление. Глав

    🔥 Релиз DeepSeek-V3.1: врываемся в эру ИИ-агентов!

    Команда DeepSeek выкатила крупное обновление. Главная фишка — гибридный режим работы, который кардинально меняет подход к решению задач!

    ⚙️ Два режима одной модели: Think & Non-Think
    Think-режим (deepseek-reasoner): для сложных задач, где нужно планировать, рассуждать и использовать инструменты
    Non-Think-режим (deepseek-chat): для быстрых и точных ответов на обычные запросы

    📈 Что по цифрам?
    Новая модель V3.1 показывает колоссальный прирост в агентных задачах по сравнению с прошлой топовой моделью R1, но немного уступает конкурентам:

    🔹SWE-bench (кодинг): 66.0 против 44.6 у R1
    🔹Terminal-Bench (терминал): 31.3 против 5.7 у R1
    🔹xbench-DeepSearch (поиск): 71.2 против 55.0 у R1

    💡 Думает быстрее и эффективнее
    DeepSeek V3.1 в режиме Think решает задачи, используя значительно меньше токенов и времени, чем R1.

    🔗 Веса V3.1-Base и V3.1 в открытом доступе на Hugging Face!

    ➡️ Где попробовать?
    На официальном сайте DeepSeek
    В нашем боте @JumbleGPT_bot

    🧩 ChatConnectGPTYouTube

  • Про релиз Genie-3 Genie-3 — новая модель для симуляции физического мира. Модель по промпту генериру

    Про релиз Genie-3

    Genie-3 — новая модель для симуляции физического мира. Модель по промпту генерирует видеопоток вплоть до нескольких минут в разрешении 720p и дает возможность управлять и взаимодействовать с ним. Это похоже на игровой движок, где пользователь не только описывает видео (как в Veo3), но также может взаимодействовать с созданным по описанию “миром”. Если в игровых движках объекты и физика “захардкожены”, то здесь они описываются нейросетью. Это означает что результаты работы имеют стохастическую природу и могут появляться различные “артефакты”. Больше примеров на сайте Гугла.

    Помимо улучшения качества и детализации графики, у Genie-3 появилась способность запоминать результаты взаимодействия пользователя.

    Релиз представляет интерес сразу по трем причинам:
    1️⃣Семейство Genie моделей может быть следующим уровнем в индустрии игр и развлечений, дающем безграничные возможности для фантазии пользователей.
    2️⃣Genie модели могут вдохнуть новую жизнь в медленно развивающиеся VR технологии.
    3️⃣Самое интересное для меня: данный тип моделей, по моему личному мнению, может потенциально повлиять на исследования и развитие как существующих, так и новых теорий в космологии. Если экстраполировать прогресс на много поколений моделей вперед — космология может перейти из теоретической физики в экспериментальную.

    Для обычных пользователей доступа к модели пока нет.

    Подписаться

  • Годовая подписка на 10+ AI тулов для разработки, дизайна, коммуникации и эффективности за 200$ Ленн

    Годовая подписка на 10+ AI тулов для разработки, дизайна, коммуникации и эффективности за 200$

    Ленни Ракитски, автор популярной англоязычной рассылки Lenny’s Newsletter, сделал новый AI Bundle из 10+ тулов (единая годовая подписка на все тулы):

    1. Инструменты для быстрого прототипирования и разработки с AI: Replit, Lovable, Bolt, n8n, Warp, Magic Patterns, ChatPRD
    2. Инструменты для коммуникации: Linear, Superhuman, Granola
    3. Видео генерация, AI дизайн, презентации: Descript, Gamma, Mobbin
    4. Повышение эффективности и AI ассистент: Wispr Flow, Raycast, Perplexity

    Важно: прочтите правила на сайте, не забудьте сразу запросить и использовать коды со скидками, Ленни не гарантирует, что все подписчики смогут воспользоваться всеми сервисами из предложения. Прямо сейчас все коды еще доступны (сам только что проверил).

    По моему мнению, это отличное предложение, хотя дешевым его не назвать. В прошлый раз, я долго размышлял и купоны на все самые интересные сервисы успели разобрать раньше, чем я решился на подписку. В этот раз я не стал тормозить и подписался в течение первого часа после анонса, а затем два дня ждал пока сайт восстановят после наплыва пользователей, сегодня ночью сайт наконец восстановили.

    @max_about_ai

  • DevOps и AI

Удивительно как много людей в IT индустрии забывают, что цикл разработки не ограничивае

    DevOps и AI Удивительно как много людей в IT индустрии забывают, что цикл разработки не ограничивае

    DevOps и AI

    Удивительно как много людей в IT индустрии забывают, что цикл разработки не ограничивается программированием.

    В одном из своих выступлений Андрей Карпатый (со-основатель Open AI и ex-Director of AI в Tesla) поделился как он завайбкодил мини-приложение за несколько часов и потом неделю настраивал и релизил его.

    Можно ли зарелизиться быстро? Можно если у вас нет зависимостей от внешних сервисов, если вам не нужен провайдер авторизации, прием платежей, релиз в AppStore, тщательное тестирование или настройка. Всё это до сих пор занимает много времени и требует ручного труда. По крайней мере пока.

    Из этого следуют два вывода:
    — если вы не знаете в какую сторону растить свою карьеру, вероятно, DevOps и особенно MLOps в моменте могут быть интересной опцией,
    — если вы не знаете какой запилить стартап в сфере AI и разработки, то, возможно, автоматизация DevOps — это один из следующих рубежей.

    Подписаться

  • Про диаграммы и их AI генерацию Я потратил неоправданно много времени на самостоятельное рисование

    Про диаграммы и их AI генерацию

    Я потратил неоправданно много времени на самостоятельное рисование в draw.io пирамидальной диаграммы из предыдущего поста. Решил поизучать какие есть актуальные AI возможности для оптимизации этого процесса. Вспомнив про пост Рефата про AI генерацию диаграмм, я решил попробовать связку Mermaid и Claude на практике.

    Мне очень понравился мой непродолжительный опыт с Mermaid. Оказалось его можно генерировать и визуализировать как в специализированном Mermaid.live, так и в моем любимом Excalidraw. В отличие от PlantUML формата, Mermaid легко читаем и интуитивно понятен, но не дает той же гибкости в выборе визуальных эффектов (цвета, размеры и т.д.). На мой взгляд, отделение содержания диаграммы от её визуализации — это фича, а не баг. Благодаря минимализму, Mermaid диаграммы можно добавлять прямо текстом в md документацию и тем самым повышать качество работы AI coding инструментов без потери человеко-читаемости. Кажется, что с развитием AI инструментов для программирования, данный формат будет внедряться все больше.

    Что же касается генерации пирамидальной диаграммы, то я потерпел фиаско и с Mermaid и с PlantUML, потому что это фактически не техническая диаграмма, а инфографика и для ее визуализации нужны другие инструменты. Например, ее можно эффективно сгенерировать в Gamma.app — инструменте для создания презентаций.

    Подписаться

  • Небольшой ликбез по устройству AI продуктов

Почти для любого решения, можно выделить как минимум 5

    Небольшой ликбез по устройству AI продуктов Почти для любого решения, можно выделить как минимум 5

    Небольшой ликбез по устройству AI продуктов

    Почти для любого решения, можно выделить как минимум 5 слоев (layers):
    Infrastructure: дата-центры, оборудование и вычислительные мощности (GPU, TPU и т.д.)
    Foundation models (LLM): большие языковые модели: GPT, Claude, Gemini, LLaMA и другие.
    AI Platforms: облачные сервисы, которые позволяют подключать и масштабировать ресурсы, оркестрировать модели, приложения и данные: AWS Bedrock, GCP Vertex AI и т.д.
    AI Tech Stack: инструменты для интеграции, мониторинга, оркестрации, хранения данных, файн-тюнинга и пр.: Langchain, Chroma, Langfuse, CrewAI, и многие другие
    Applications: конечные продукты для пользователей: MS Copilot, Cursor, Perplexity, Gamma App, и т.д.

    Чем ближе к основанию пирамиды, тем более специфические знания и скиллы требуются для работы на этом уровне и тем больше затраты на разработку. Например, стоимость обучения топовых LLM в 2025 году исчисляется миллиардами долларов, а инвестиции в инфраструктуру — сотнями миллиардов.

    Большинство компаний занимаются разработкой приложений для конечных пользователей или инструментов (баз данных, фреймворков, сервисов) для разработки конечных приложений.

    Подписаться