Блог

  • Сама, Дядя, память и будущее. Что может быть общего между Дядей и Самой в ушедшем 2025ом Память в

    Сама, Дядя, память и будущее. 🌌

    Что может быть общего между Дядей и Самой в ушедшем 2025ом – Память в GenAI, как одна из важных фичей персонализации.

    В том году, кажется, Дядя был единственным энтузиастом и адептом памяти для LLM в ру-комьюнити. 💅
    До кучи, одна из моих команд работали над этим больше года и на AIJ 2025 можно было даже увидеть: соревнование и стенд, на котором была эта фича. В дополнении, разумеется, куча постов про system design memory в моем канале, как ни в каком ином. Значит, и этот год стоит начать с этого.

    Из последнего -18.12.2025 вышло ещё одно интервью Альтмана, где он также как и я, говорит, что «Memory Makes AI Sticky», жирные намёки на развитие фичи в 2026ом. Конкретно там указывается, что в GPT-6, а я надеюсь появится она в 2026-ом, все будет максимально персонализрованно. Модели не просто будут помнить факты, они будут запоминать все полезное о Вас. Далее цитата: «Будущий ChatGPT будет обладать «идеальной, бесконечной памятью», в отличие от людских помощников. Он будет помнить каждое ваше слово, написанный вами документ и скрытые предпочтения, которые вы никогда явно не формулировали. Текущая память хранит базовые факты; версии 2026 года будут персонализировать, используя всю историю вашей жизни».

    Мнение от Дяди. 📦
    Мне например очень близка эта позиция, и на мой интерес и взгляд создание такой системы лежит не только в архитектуре в лице модулей и long context, но и в инженерии вокруг:  tool call, работа с файлами, vector index, sub agents. Да и продуктоый вопрос должен тут идти вместе с RnD.

    Персонализация, память и «липкость» продукта:

    Ключевой элемент удержания: Альтман называет персонализацию (личную и для бизнеса) критически важной для «липкости» . Когда модель «узнаёт» пользователя или компанию, это создаёт сильную привязку, сравнимую с выбором «зубной пасты на всю жизнь».

    Память как «game-changer»: Журналист отмечает, что функция памяти, сохраняющая контекст между сессиями, стала настоящей game-changing фичей. Он привёл пример планирования поездки, которое продолжается неделями.
    —————
    Алекс Кантровиц: Интерфейс работает, но, думаю, внутренности изменились. Память действительно стала тем, что меняет правила игры. Уже несколько недель я обсуждаю с ChatGPT предстоящую поездку, требующую много планирования, и теперь я могу просто зайти в новом окне и сказать: «Так, давай продолжим обсуждать эту поездку». И у него есть контекст. Насколько хорошей может стать память?

    Сэм Альтман: Я думаю, мы не можем этого представить, потому что человеческий предел… (с)
    —————
    Думаю, дальнейшие комментарии излишни…

    Помимо памяти, были затронуты вопросы интерфейсов взаимодействовия и агентов. Окно взаимодействовия с пользователем должно уйти от чата, к динамически собираемым под ситуацию и задачу интерфейсам. А агенты будут теми самыми лучшими, чем человек, помощниками. Реальными ИИ-дворецкими или консьержами. Идеальное будущее – автономный агент. Он описывает желаемый сценарий: утром вы даёте агенту список задач и приоритетов, а он работает в фоновом режиме, взаимодействует с другими агентами, принимает решения и беспокоит вас только при необходимости что-то уточнить или верифицировать.

    На этом все. Это всего-лишь вырезка из интервью, остальные аспекты: инвестиций, работы с железом и планы на рынке можно почитать в интервью самостоятельно.
    Читайте, образовывайтесь, и, главное, stay tuned 🦾

  • Но самый ценный подарок вчера нам сделал Паша

Не прошло и 2х месяцев, как в ТГ завезли threads (тем

    Но самый ценный подарок вчера нам сделал Паша Не прошло и 2х месяцев, как в ТГ завезли threads (тем

    Но самый ценный подарок вчера нам сделал Паша

    Не прошло и 2х месяцев, как в ТГ завезли threads (темы).

    Ждем:
    1. Streams (хотя они особо и не нужны, но для красоты)
    2. Когда обновят PTB и Aiogram

    https://core.telegram.org/bots/api

  • Поздравляю с Новым Годом 2026 Хороший был прошлый год, а это занчит, уже этот год будет еще лучше!

    Поздравляю с Новым Годом 2026

    Хороший был прошлый год, а это занчит, уже этот год будет еще лучше!

  • Всех с Новым годом!!! Спасибо, что подписаны на наш канал. За время существования канала, а именно

    🎉 Всех с Новым годом!!!

    Спасибо, что подписаны на наш канал. За время существования канала, а именно с первого поста, прошло ровно 7 месяцев и 17 дней, столько радости было, больше всего нас, админов, радовало, когда мы видели под постами с халявой вашу радость, это не может не радовать, когда знаешь, что всё содеянное было не зря и что ты кому-то помог. Надеюсь, вы довольны нашим контентом и останетесь с нами навсегда. Мы ценим каждого подписчика, 863 человека на самом деле безумная цифра, все вы стали для нас семьёй, без которой мы уже не можем представить свою жизнь.

    В наступившем году мы продолжим радовать вас самыми оперативными новостями, а также нашей любимой халявой. Будьте счастливы. ИИ-сфера 2026 года обещает быть интересной. Ещё раз спасибо за то, что вы с нами!!!!

  • С НГ! спасибо вам за всё, дорогие подпищщики! всего наилучшего в 2026! :3

    С НГ! 🥳🎉 спасибо вам за всё, дорогие подпищщики! всего наилучшего в 2026! :3

  • Дорогие друзья, подписчики, поздравляю Вас с наступающим Новым 2026ым годом! Будьте здоровы, как лош

    Дорогие друзья, подписчики, поздравляю Вас с наступающим Новым 2026ым годом! Будьте здоровы, как лошадь, свободны, как лошадь, но не загнанной лошадью. Будьте полны идей и сил! Ваш 📦

  • Дорогие подписчики! 

Пусть ваш год будет таким, как вечер 31 декабря:

1. Достижение целей  неизбеж

    Дорогие подписчики! Пусть ваш год будет таким, как вечер 31 декабря: 1. Достижение целей неизбеж

    Дорогие подписчики!

    Пусть ваш год будет таким, как вечер 31 декабря:

    1. Достижение целей – неизбежно (ведь завтра точно выйду на пробежку)

    2. Ресурсов хватает с избытком (вон сколько салатов наготовили!)

    3. Все по-настоящему близкие люди рядом

    4. Настроение – отличное

    5. Лимитов Claude Code в два раза больше, чем обычно!

    6. И никакого FOMO от постов в Telegram (так как кругом –одни поздравления)

    Спасибо, что подписаны на мой канал!

    С Новым Годом (наступающим или наступившим)! 🎆

  • Получаем бесплатный доступ к месяцу подписки Gemini Enterprise

Всех с наступающим новым годом! Мы р

    Получаем бесплатный доступ к месяцу подписки Gemini Enterprise Всех с наступающим новым годом! Мы р

    🆓 Получаем бесплатный доступ к месяцу подписки Gemini Enterprise

    Всех с наступающим новым годом! Мы решили в честь такого праздника подарить вам ещё один подарок.

    Вы можете получить подписку Gemini Enterprise, где доступны все новые и старые модели Gemini: 2.5 Flash, 2.5 Pro, 3.0 Pro и 3.0 Flash, а также генерация видео через Veo 3.1 и генерация картинок через NanoBanana Pro (и при этом без водяного знака!) и Deep Research.

    Инструкция:

    1. Заходим на сайт: клик.
    2. Нажимаем Get Started, а далее Start 30-day trial.
    3. Можете выбрать свой существующий аккаунт или нажать add another account и сделать его с помощью временной почты temp-mail.
    4. Вводим почту на сайте Enterprise и код, что придёт на temp-mail почту.
    5. На сайте Enterprise теперь вводим любое придуманное имя и фамилию на английском.
    6. Наслаждаемся подпиской Gemini Enterprise на месяц — полностью бесплатно!

    Так можно делать бесконечное количество раз. Надеемся на длительное существование данной акции.

    🎅 Ещё раз всех с наступающим новым годом
    ! Оставайтесь с нами, впереди много интересного.

    @ThePerceptronChannel

  • Друзья, хочу подвести итоги этого года! Честно, в начале года я был обычным ИИ-интузиастом. Таким ж

    🎄 Друзья, хочу подвести итоги этого года!

    Честно, в начале года я был обычным ИИ-интузиастом. Таким же, как и вы. Запустил канал без больших ожиданий и даже не думал, что здесь когда-то будет хотя бы 100 человек

    А сейчас я смотрю на наше комьюнити и до сих пор не верю цифрам:
    🧩 почти 6000 человек в Telegram
    🎥 5100 на YouTube
    💬 990+ человек в чате, где мы общаемся, делимся опытом и реально помогаем друг другу!

    И всё это благодаря вам. Вашему интересу, вопросам, поддержке, идеям и вовлечённости! JumbleAI – это уже не просто канал, а живое сообщество людей, которым реально интересно будущее и технологии.

    🎇 В новом году желаю каждому из вас продуктивности, роста и смелости пробовать новое. Пусть ИИ станет для вас не просто хайпом, а реальным инструментом:
    для работы, творчества, бизнеса и для жизни в целом!
    Пусть он экономит ваше время, усиливает идеи и помогает достигать целей быстрее!

    🎁 И небольшой новогодний подарок от меня!

    Во время праздников 🛡 JumbleConnect будет со скидкой! Наш сервис доступа к ИИ и другим полезным ресурсам, которые не всегда доступны для нас…
    Это отличный момент, чтобы начать разбираться в ИИ уже сейчас, а не откладывать на потом!

    Спасибо, что вы здесь.

    С Новым годом! 🎉
    Вперёд, в умный, продуктивный и интересный 2026 🔼

    P.S. Написано без помощи ИИ

  • Итак, по результатам опроса основным чатом становится единый чат комментариев. Присоединиться можно

    Итак, по результатам опроса основным чатом становится единый чат комментариев. Присоединиться можно по этой ссылке: клик.

  • На lmarena вышли бенчи GPT-image-1.5

Нано Банану действительно разрывает, но примрено на одном уров

    На lmarena вышли бенчи GPT-image-1.5 Нано Банану действительно разрывает, но примрено на одном уров

    На lmarena вышли бенчи GPT-image-1.5

    Нано Банану действительно разрывает, но примрено на одном уровне с Нано Бана Про.

  • С Новым Годом!!! Дорогие подписчики, поздравляю вас с Новым Годом! Желаю счастья вам и вашим бли

    С Новым Годом!!! 🎄🎆

    Дорогие подписчики, поздравляю вас с Новым Годом! 🎇

    Желаю счастья вам и вашим близким! Всех благ!!! 🏡🛷

    Пусть Новый Год принесёт вам всем ещё больше продуктивности, успеха и счастья! 🥳

  • Claude выращивает томат. 

Интересный эксперимент, где Claude вот уже 37 дней выращивает томат в кон

    Claude выращивает томат. Интересный эксперимент, где Claude вот уже 37 дней выращивает томат в кон

    Claude выращивает томат. 🍅

    Интересный эксперимент, где Claude вот уже 37 дней выращивает томат в контролируемой среде.
    У него есть датчики температуры, влажности воздуха и почвы, давления, уровня СО2, температуры листьев.
    И он может управлять светом, подогревом почвы (через подогрев коврика), вентиляцией, подачей воды.
    Посмотреть, что там сейчас и почитать лог можно тут: https://autoncorp.com/biodome/

    Автономные теплицы все ближе!

    Автор

  • С наступающим всех Новым Годом!

Год был хороший, интересный:

Начали мы с DeepSeek и падения акций

    С наступающим всех Новым Годом! Год был хороший, интересный: Начали мы с DeepSeek и падения акций

    С наступающим всех Новым Годом!

    Год был хороший, интересный:

    Начали мы с DeepSeek и падения акций Нвидиа на ровном месте!

    Потом был Gemini 2.5 и это просто сорвало башню.

    Потом нам сделали Claude Code по подписке, мы узнали, что мы всегда правы и наши глаза покраснели от вайб кодинга и ИИ новостей.

    Потом появился Студия Гибли и все аватарки стали анимешными.

    Потом выпустили Нано Банана и мы осознали, что фотошоп больше не нужен.

    Потом вышел Gemini 3.0 и мы поняли, что Gemini 2.5 уже устарел.

    Потом Сама начал орать, что код красный и надо догонять Гугл.

    И окончился год, тем что Нвидиа купили Groq за 20 лярдов.

    Таким мы запомним этот ИИ-год.

    Так что, следующий 2026 год обещает быть еще более интересным! Увидимся в следующем году!

  • Спасибо всем, кто принимал участие в жизни проекта в этом году!

Не смотря на все трудности и неудач

    Спасибо всем, кто принимал участие в жизни проекта в этом году! Не смотря на все трудности и неудач

    🤩 Спасибо всем, кто принимал участие в жизни проекта в этом году!

    Не смотря на все трудности и неудачи, мы оставались верны себе и старались предоставлять качественный продукт, который может позволить себе каждый работяга, и выкладывать интересный и полезный контент в этом канале.

    👋 С наступающим новым годом! Увидимся в 2026-м!

  • Вместо итогов года — три вещи, которые понял на практике и хайлайты старых постов, которые вы могли

    Вместо итогов года — три вещи, которые понял на практике и хайлайты старых постов, которые вы могли

    Вместо итогов года — три вещи, которые понял на практике и хайлайты старых постов, которые вы могли пропустить:

    1️⃣ Комьюнити — это чит-код
    Красинский как-то рассказал историю: они с другом думали, что нереально играют в CS, пока не пришли в клуб где их конечно же раскатали. Потому что там была тусовка, которая играла с лучшими со всего мира и впитывала лучшие практики.
    В этом году я это прочувствовал и мне повезло с комьюнити, и вы — его часть.

    2️⃣ Consistency > героизм
    Сила не в рывках, а в ежедневных микро-шагах в интересную тебе сторону. Тут добавить нечего, что бы вы не задумали: похудеть, развить блог, строить бизнес — регулярность даст бОльший результат, чем рывки.

    3️⃣ Делиться = получать
    Я не монетизирую канал. Но польза приходит сама: сообщения в личку, запросы на консультации, неожиданные коннекты, топовый нетворк. Особенно драйвит, когда фаундеры пишут, что помог решить проблему или навел на мысль. Несколько человек написали, что вдохновились запустить свой канал или стартап. Это чистое топливо 🔥

    ⏮️ Много из вас пришли недавно. Я пролистал старые посты, которые мне кажутся полезными, и которые многие скорее всего не видели:
    LLM + Google Sheets
    OSINT + AI для бизнеса
    Командная строка для всех
    Mermaid + AI
    Реверс-дизайн в Cursor и как делать AI-generated UI уникальнее
    → Про стандарты и еще раз уже промптинге
    Бесплатные ресурсы от Big Tech для стартапов и $100K от nvidia
    → AI на своих знаниях: локально, Dify, file-first с Claude Code

    В общем, как я уже говорил, когда пишу сюда — представляю друга, который горит технологиями, и рассказываю ему: «слушай, вот такую штуку нашел / узнал / использую». Уверен, в следующем году будет еще больше таких находок.

    Увидимся в январе 🙌

  • Всех с наступающим! Для тех кто спрашивал, куда я пропал: последние несколько недель болел, а позав

    🎉 Всех с наступающим!

    Для тех кто спрашивал, куда я пропал: последние несколько недель болел, а позавчера и вчера праздновал свой день рождения (19 годиков), с завтра надеюсь вернуться в прежний темп

    Всем желаю праздничного настроения на сегодня, хорошо встретить и провести сам праздник, и главное с теми людьми, с кем хотели

  • До нового года осталось совсем немного! Уже готовите салаты Lama AI #ламаnews

    🎄До нового года осталось совсем немного! Уже готовите салаты?

    👋 Lama AI #лама_news

  • Всех с наступающим 2026 годом! Хороших и послушных нейронок вам! Верю, что 2026 будет очень крутым

    Всех с наступающим 2026 годом! 🎄

    Хороших и послушных нейронок вам! Верю, что 2026 будет очень крутым в сфере ИИ, ведь сейчас столько всего вкладывается в него точно не зря. AGI пока не ожидаю, но скачки и прорывы конечно будут 😱

    А ещё этому каналу скоро полгода – самое время подвести небольшие итоги. За это время:
    — вас стало 600+ человек
    — вышло почти 600 постов
    — 116 человек зашли в наш чатик

    Я так и не определился с чётким вектором канала, так что здесь по-прежнему будут и абузы, и новости, и личные мнения с экспериментами — надеюсь, такой формат норм и вам заходит 😀

    Посоветую и несколько моих любимых ИИ каналов за 2025:

    1. TPC (ThePerceptronChannel). Пожалуй, самый оперативный русскоязычный канал с новостями и сливами про ИИ. Публикуют проверенную информацию, сохраняют объективность, а иногда делятся и абузами. Постят в меру, без бреда и спама, коего очень много сейчас в каналах на тематику AI 😀

    2. Сиолошная. Думаю, многие о нём знают, но для тех, кто нет: это личный блог любителя ИИ и OpenAI 🙏
    Мне очень нравится подача автора, часто репостит интересную инфу и советы, многое подчеркнул из сказанного им. Бонус: Denis Sexy 🫦 IT, тоже блог в стиле сиолошного

    3. AI ЗА ЕБААААЛ [18+]. Очень экспрессивные посты про непопулярные сервисы и их опыт использования, при этом с тонной матов и шуток, может кому-то зайдёт такой формат 😀
    Я от него узнал о некоторых сервисах, которыми сейчас постоянно пользуюсь (например, Repomix).

    Хорошо вам провести праздники! ☺️

  • Вчера провели предновогодние онлайн-посиделки с нашим чатом AI-блоггеров.

Саша Поляков подготовил к

    Вчера провели предновогодние онлайн-посиделки с нашим чатом AI-блоггеров. Саша Поляков подготовил к

    Вчера провели предновогодние онлайн-посиделки с нашим чатом AI-блоггеров.

    Саша Поляков подготовил к созвону новогоднюю викторину в стиле «Своя игра», основанную на публикациях в 19 авторских каналах про AI.

    Пообщались настолько живо и интересно, что до викторины дело так и не дошло 😊

    Поэтому её я изучал сегодня самостоятельно. И настоятельно рекомендую вам тоже заглянуть в викторину, посмотреть вопросы и попробовать на них ответить.

    А если получится организовать игру с друзьями, будет ещё интереснее!

    Викторину можете попробовать тут: https://lovable-practices.github.io/new-year-s-trivia-blast/

    А о том, как Саша её создавал, он подробно написал у себя в канале. Можно по аналогии подготовить что-то с вопросами, созданными специально под вашу компанию!

  • ctrl+J — для переноса строки в Терминале

Лайфхак дня

Но, в Claude Code (даже который запущен в Тер

    ctrl+J — для переноса строки в Терминале Лайфхак дня Но, в Claude Code (даже который запущен в Тер

    ctrl+J — для переноса строки в Терминале

    Лайфхак дня

    Но, в Claude Code (даже который запущен в Терминале) куда удобнее нажать ctrl+G и редактировать текст прямо в VSC 🤯

    Спасибо подписчику! Это сделало мой день!

  • Три американских предпринимателя стали самыми молодыми миллиардерами

Им только 22 года. Их включили

    Три американских предпринимателя стали самыми молодыми миллиардерами Им только 22 года. Их включили

    Три американских предпринимателя стали самыми молодыми миллиардерами

    Им только 22 года. Их включили в рейтинг Forbes самых богатых людей мира до 40 лет, потому что они сами накопили состояние.

    Все они — соучредители стартапа по искусственному интеллекту Mercor. Их совместное состояние оценивается в 2,2 млрд долларов. В октябре частные инвесторы оценили Mercor в 10 млрд долларов.

  • Alibaba представила MAI-UI  GUI-агент для управления интерфейсами смартфонов на базе Qwen

Модель вы

    Alibaba представила MAI-UI GUI-агент для управления интерфейсами смартфонов на базе Qwen Модель вы

    ✴️ Alibaba представила MAI-UI — GUI-агент для управления интерфейсами смартфонов на базе Qwen

    Модель выдаёт SOTA результаты на соответствующих бенчах — AndroidWorld и ScreenSpot-Pro. Тренировали на основе Qwen 3 VL 4-х размеров: 2B, 4B, 32B и 235B.

    Было бы интересно поглядеть, если бы какая-нибудь компания представила прошивку с ИИ-управлением.

    👋 Lama AI #лама_news

  • Прожарка UX через 45 минут в прямом эфире Хороший продуманный UX всегда был редкостью — до сих пор

    Прожарка UX через 45 минут в прямом эфире

    Хороший продуманный UX всегда был редкостью — до сих пор остается огромное множество красивых, но совершенно непонятных и неудобных интерфейсов — причем, как в дорогих продуктах, так и в AI-generated интерфейсах. Если AI уже прекрасно генерирует интерфейсы почти любой сложности, то абсолютно не факт, что эти интерфейсы будут понятны вашим пользователям. Это как раз та проблема, с которой мы столкнулись в CodeAlive. К счастью, нам повезло посотрудничать с очень опытным UX-специалистом, он помог нам провести несколько сессий и выявить ключевые проблемы в наших флоу. Поскольку я повсеместно вижу неудобные приложения и периодически сам страдаю от этого — в целом, я вижу определенную миссию в распространении знаний о том, что же такое хороший UX.

    Так вот, совместно с Алексеем Тушкановым мы запускаем новый эксперементальный формат прожарки UX ваших интерфейсов. Мы собрали несколько реальных приложений и их фаундеров и в прямом эфире проведем разбор их интерфейсов по фреймворку Алексея. А заодно проверим, на сколько современный AI может быть полезен в задачах на улучшение UX.
    В общем, формат должен быть особенно интересен тем, кто вайбкодит создает свои приложения и заинтересован в их успехе.

    Встреча сегодня в 17:00 по Алматы, 15:00 МСК и 13:00 по CET.

  • Telegram-бот для автоматического рерайта постов из каналов с помощью LLM Решил сделать всем новогод

    Telegram-бот для автоматического рерайта постов из каналов с помощью LLM

    Решил сделать всем новогодний подарок 🤖 @aivibe_posts2bot

    — Можно сканировать каналы
    — Можно скинуть ссылку на пост
    — Можно просто переслать пост

    И получить готовый пост для своего ТГК.

    Особенности:
    — 5 мощнейших моделей на выбор
    — Полностью автоматический рерайт ТГ-постов
    — Быстрая смена поставщика модели (при необходимости)

    Исходый код

    Контакты: @prog_ai

    Ребята, кто хочет научится делать таких ботов, пишите в комментах 👇

  • Meta* покупает Manus

Корпорация Цукерберга выкупила разработчика ИИ-агентов за $2 млрд. для интегра

    Meta* покупает Manus Корпорация Цукерберга выкупила разработчика ИИ-агентов за $2 млрд. для интегра

    ✴️ Meta* покупает Manus

    Корпорация Цукерберга выкупила разработчика ИИ-агентов за $2 млрд. для интеграции в свои платформы.

    Что угодно сделают, лишь бы Llama 5 не пилить. 😏

    * корпорация Meta признана в РФ экстремистской

    👋 Lama AI #лама_news

  • Meta (ранее Facebook) покупает стартап Manus Manus останется самостоятельным, но разорвет все свя

    Meta (ранее Facebook) покупает стартап Manus

    Manus останется самостоятельным, но разорвет все связи с Китаем и перестанет там работать – чтобы не вызвать недовольство у Трампа и американского Конгресса.

    Сделка оценивается в $2 млрд. Именно такую сумму Manus планировал получить в следующем раунде финансирования. Около недели назад компания заявила, что её ежегодный recurring revenue (ARR) уже превысил 100 млн. долларов.

    И ребята, прикиньте, Manus сделан на опенсорц langchain, вот вам мотивация изучать Питон! Можно срубить 2 лярда на бесплатной либе.

    Примечание: в России Meta признана экстремистской организацией и запрещена.

  • Nvidia вложила в Intel 5 млрд долларов, став её крупным акционером Эту сделку уже одобрили регулято

    Nvidia вложила в Intel 5 млрд долларов, став её крупным акционером

    Эту сделку уже одобрили регуляторы. Ее начали обсуждать еще в сентябре: теперь Intel будут совместно разрабатывать процессоры для дата‑центров и чипы, в которых будет встроена видеокарты Nvidia с технологией RTX.

    Как я писал ранее, у NVDA осталось еще 35 млр. кэша, ждем кто следующий?

  • Почему в голосовании я выбрал Google, как главного AI Headliner 2025 года

Потому что именно 2025-й

    Почему в голосовании я выбрал Google, как главного AI Headliner 2025 года Потому что именно 2025-й

    Почему в голосовании я выбрал Google, как главного AI Headliner 2025 года?

    Потому что именно 2025-й – это год, когда Google очень часто своими релизами совершала поистине тектонические сдвиги на рынке AI.

    Тут даже не по датам, а по сферам деятельности:

    1. Генерация изображений. Nano Banana и Nano Banana Pro показали, как нужно генерировать изображения. Генерация текстов, аккуратный inpaint, глубокое понимание промпта. До сих пор никто из конкурентов даже приблизиться не смог по качеству.

    2. AI-видео. Выход Veo3 ознаменовал новую эру в генерации видео. Когда видео создаётся вместе со звуком. Более того – люди на видео могут говорить на многих языках. Думаю, что в 2026-м стоит ждать прорыва в генерации видео именно от Google.

    3. Железо. Собственные TPU, оптимизированные под AI. Впоследствии – тренировка собственных моделей с помощью этих чипов.

    4. AI-Coding. И, в первую очередь, щедрость внутри этого направления. Лимиты в Gemini CLI и Antigravity, которые держат остальные AI-компании в рамках приличия. Например, Anthropic не просто так дала доступ к Opus4.5 в рамках подписки за $20. Плюс – сама Gemini 3 Pro для многих является лучшей моделью для AI-Coding (вот тут я не в их числе).

    5. Полноценная мультимодальность в рамках флагманской модели. В анализе видео у Gemini 3 Pro нет конкурентов. Плюс – у этой модели лучший эмоциональный интеллект и она отлично распознаёт эмоции.

    Пункты выше – только самые значимые на мой взгляд релизы. В течение года у Google было огромное количество новых экспериментов и продуктов в направлении AI. Сервисы, модели, интеграции в смартфоны, браузеры и поиск… Всего и не упомнить!

    Если честно, я даже немного удивился, когда Google в голосовании за AI Headliner занял лишь второе место. Так как считал, что победитель предопределён…

    Ошибся, получается 😊

  • Dealer.AI pinned Конец года и #новости #однойстрокой в стиле Google. В конце года вышли для меня д

    Dealer.AI pinned «Конец года и #новости #однойстрокой в стиле Google. 🔍 В конце года вышли для меня две интересные работы. Сегодня расскажу про одну, а далее выйдет второй обзор. Начнём с T5Gemma 2, хотя должно быть gemma3 🧠 Почему? Да ибо ребята элайнят энкодер к Gemma3…»

  • Тренды и вызовы GenAI на следующий год. Вангование на НГ.

Всем привет, кто уже режет новогодние сал

    Тренды и вызовы GenAI на следующий год. Вангование на НГ. Всем привет, кто уже режет новогодние сал

    Тренды и вызовы GenAI на следующий год. Вангование на НГ.🎄❄️

    Всем привет, кто уже режет новогодние салатики и достаёт любимые напитки из погреба. Сегодня Дядя сделает вангование на развитие ИИ в следующем году.

    Итак, поехали:

    1. Агенты и правило «девяток» . Если 2024 был годом RAG. То в 2025 sexy были агентные системы. Думаю за 2025 уже успели наиграться и сформировать некоторый пулл достоинств и проблем. Думаю в 2026 году, МАС будут решать сугубо прикладные задачи и исправлять свою непредсказуемость и слабую измеримость результата на промежуточных шагах. А именно, будет больше атомарных бенчмарков, а не е2е. Будут решать проблемы «девяток», т.е. работать над предсказуемостью, безопасностью, надёжностью и точностью системы, чтобы стремиться к 99.999(9). К сожалению, сейчас, агенты живут не в «девятках» , а в «семёрках» даже «шестёрках». С учётом требований к безопасности и наследуемостью ошибок – этого недостаточно.

    2. RAG и память. В in context learning в лице поиска и LLM намечается путь в авторешения, на подобии autoML. Такие системы становятся уже полноценными  агентами, с возможностью динамически решать задачи, принимать решения по источникам знаний и уровню достоверности как источников, так и генерации. Таким образом, будет AgenticRag, Self-taught RAG и AutoRAG.
    В части памяти, прод решения будут все ещё крутится вокруг работы с файловой системой и RAG механиками, вызовом функций и/или саб-агентами. Все новшества уйдут на уровень архитектуры моделей в лице: большего размера эффективного контекста и модулей long/short term памяти внутри сеток. На это указывает и MIRAS Titans, Atlas.

    3. Модели и альтернативные архитектуры. Начнём с простого, в открытом комьюнити будет продолжаться тренд на small, base модели по размеру. При этом, они будут все более специализированные: агенты, CoT, доменные (финансы, юр., беза, медицина и т.п.).
    Большие игроки все также будут делать микст: размер, хаки для обучения (CoT, RL и тп), данные. Причём в последнем случае, доля синтетики будет расти. Параллельно, будут строиться более сильные пайпы рафинирования и чистки данных, чтобы нарастить качество живых данных. Это позволит учить более эффективные малые модели.
    Рядышком будут бежать энтузиасты альтернативных архитектур: SSM, RWKV, Text Diffusion LM и т.п.
    Китайцы продолжат удивлять, и думаю следующий DeepSeek, Kimi и Qwen сделают пару релизов, в одном из которых жду MoE схему отсюда. Да и SSM из статьи тоже туда же.

    4. Оптимизация эффективности инференса и обучения. Уже сейчас топы мира по ИИ говорят о том, что мы упираемся не в число вычислительных мощностей, а в эффективность и энергопотребление. Таким образом, или мы с единицы шага обучения вытаскиваем больше информации и тратим меньше шагов, или оптимизируем нагрузку на инференсе и скорости обучения, тем самым экономия gpu-часы и, как следствие, число затраченной энергии. Сюда же помогают все эти MoE, линеаризации внимания, спекулятивный декодинг и прочие фишки. Этот тренд останется ИМО и на следующий год.

    И да ещё думаю помимо волны спроса на RAM, мы увидим повышенный спрос на источники энергии: нефть, газ, АЭС.

    Upd.
    5. Продолжение усиления персонализации и тренд на человекоцентричность. Крупные игроки уже заявили о формировании новой фин.модели монетизации: агентные системы, память. Нас ждёт, все больше трансформации рынка рекламы и покупок. А клиенты уже сейчас своим мнением давят на оунеров моделей и голосуют за любимые версии в апи.

    Вот такие мысли автостопом по трендам на следующий 2026 год. Вы знаете, что с этим делать — седлать волну. Stay tuned. 🦾

  • Сразу в догонку апдейт по Новогоднему воркшопу. Спасибо всем, кто оставил заявку в форме! Я уже оп

    Сразу в догонку апдейт по Новогоднему воркшопу.
    Спасибо всем, кто оставил заявку в форме!

    Я уже определился с датами проведения воркшопов (6, 8 и 9 января) и написал всем, кто оставлял заявку и дал возможность приобрести доступ в качестве early birds — 8 человек на каждое из трёх мероприятий.

    Если останутся места, то открою свободную продажу для всех желающих 3 января. То же касается и остальных, кто оставит заявку начиная с сегодняшнего дня.

    После проведения воркшопов будут доступны к покупке записи. Стоимость и когда это будет доступно, напишу отдельно уже после 12 января.

  • Мои личные итоги года 31 декабря 2024 я отметил 102 подписчика на своём канале Сегодня, 29 декабря

    Мои личные итоги года

    31 декабря 2024 я отметил 102 подписчика на своём канале

    Сегодня, 29 декабря 2025, вас уже 5535 человек!
    пока не отписались несколько после этого поста

    Да, одно из моих достижений в карьере за этот год – этот канал!

    Этот год был крутым.

    ◾️ Я определился с фокусом контента по AI.

    Ещё в начале весны я не был уверен, на чем сфокусироваться, а в конце весны Коля (@oestick) собрал авторов маленьких (от 100 подписчиков! на тот момент) тг каналов про AI и предложил двигаться вместе. И вот тогда, я уже осознал, что мне интереснее всего рассказывать про AI Coding.

    Спустя примерно 5 месяцев мы организовываем онлайн-конфу ai-dev.live, собираем 3к участников и 900+ человек на онлайн трансляции в пике, да ещё и на моём выступлении.

    ◾️ Я начал консультировать по AI Coding, мне нравится помогать людям решать их задачи.

    ◾️ В новом году планирую запустить курс по AI Coding для разработчиков. При этом, кейсов, полезных лайфхаков и моей аналитики на этом канале будет ещё больше, можете не сомневаться!

    Спасибо вам за то, что вы тратите свое время на чтение моих постов, я это ценю.

    ✔️ Тимур Хахалев про AI Coding, подписывайтесь!

  • YouTube в России станет ещё медленнее 

Google уведомил провайдеров о том, что забирает свои серверы

    YouTube в России станет ещё медленнее Google уведомил провайдеров о том, что забирает свои серверы

    ✴️ YouTube в России станет ещё медленнее

    Google уведомил провайдеров о том, что забирает свои серверы из РФ, у которых формально закончился срок жизни. Именно они кэшировали YouTube и другие сервисы, снижая пинг и ускоряя загрузку для российских пользователей.

    Вывод из эксплуатации планируется начать 26 января 2026 года. Press F 🫡

    👋 Lama AI #лама_news

  • 2 часа до митапа по Zenflow и SDD

PRDспека to production-ready code за ваншот — это реальность Если

    2 часа до митапа по Zenflow и SDD PRDспека to production-ready code за ваншот — это реальность Если

    2 часа до митапа по Zenflow и SDD

    PRD/спека to production-ready code за ваншот — это реальность? Если решать задачу в лоб, то, конечно нет. Но если как сдедует отревьюить спеку, создать по ней проработанный план и запустить этот план на поэтапную реализацию через оркестратор код-агентов, то задача становится куда более реальной. И продуктов, которые бы позволили автоматизировать все эти шаги сейчас на рынке почти нет.

    Zenflow
    Но хорошая новость в том, что ребята из Zencoder постарались элегантно объединить все шаги выше и назвали этот новый тул Zenflow — фактически, это оркестратор разных AI-агентов (надо отдать должное команде, что на старте есть возможность работать со сторонними агентами — Claude и Codex). Признаюсь, я давно ждал такой оркестратор и уже около недели пользуюсь этим продуктом. И он мне нравится.
    У меня накопилось некоторое количество вопросов по этому инструменту, поэтому я позвал Николая Андрейчука из команды Zenflow провести митап специально для аудитории нашего канала.

    Встречаемся сегодня в 16:00 по Алматы, 14:00 МСК, 12:00 по CET.
    Встреча пройдет в Zoom, поэтому у тех, кто подключиться в прямой эфир будет возможность задать вопросы Николаю.

    PS. А уже в этот вторник встречаемся на UX прожарку с Алексеем Тушкановым в 17:00 по Алматы, 15:00 МСК и 13:00 по CET.

    @ai_driven

  • Новогодняя пасхалка от OpenAI

Оправьте в новый чат  илизагрузите свое реальное фото и получите перс

    Новогодняя пасхалка от OpenAI Оправьте в новый чат илизагрузите свое реальное фото и получите перс

    Новогодняя пасхалка от OpenAI

    Оправьте в новый чат 🎁 или🎄загрузите свое реальное фото и получите персонализированное поздравление от Сама сгенерированное Sora 2.

    Я реально с этого поржал 😄

  • В чат GPT появились итоги года

Чтобы увидеть эти итоги года нужно просто зайти с IP адресов США, Ве

    В чат GPT появились итоги года Чтобы увидеть эти итоги года нужно просто зайти с IP адресов США, Ве

    В чат GPT появились итоги года

    Чтобы увидеть эти итоги года нужно просто зайти с IP адресов США, Великобритании, Канады, Новой Зеландии и Австралии.

    Нажмите знак «+» и выберите приложение «Ваш год с ChatGPT» или пройдите по ссылке.

    Она доступна лишь тем, кто разрешил ChatGPT использовать историю переписок и учитывать персональные предпочтения.

    Вы получите стактистику сколько сообщений вы отправили, а также получить сгенерированное нейросетью пиксельное изображение на основе тем, чаще всего встречавшихся в диалогах.

    Свои итоги года выложил в коментах 👇

  • Пост про мой путь через инструменты AI-Coding вызвал настоящий ажиотаж.

В комментариях под ним было

    Пост про мой путь через инструменты AI-Coding вызвал настоящий ажиотаж. В комментариях под ним было

    Пост про мой путь через инструменты AI-Coding вызвал настоящий ажиотаж.

    В комментариях под ним было упомянуто множество AI IDE.

    Так получился список с самыми популярными инструментами для написания кода среди подписчиков моего канала (в порядке убывания популярности):

    1. Claude Code
    2. Cursor
    3. Antigravity
    4. Codex CLI
    5. Open Code
    6. Warp
    7. Windsurf
    8. Trae
    9. Junie
    10. Kilo Code
    11. Roo Code
    12. Augment Code
    13. Factory AI
    14. Continue
    15. Copilot
    16. Kiro

    Также были упомянуты полезные инструменты, помогающие в AI-Coding и не только:

    1. Pieces App
    2. OpenHands
    3. Wispr Flow
    4. SWE Agent

    Спасибо всем, кто оставил комментарии под этим постом! Считаю, что вместе мы смогли собрать полезный список AI-IDE.

    Начинающий специалист может попробовать те, что приглянулись и выбрать себе наиболее подходящий инструмент.

    Если у вас есть какие-то хаки, инструменты или платформы, расширяющие второй список – делитесь в комментариях. Напомню: список посвящён тем инструментам, которые вы добавляете в свой AI-Coding-пайплайн, помимо AI IDE.

  • Крупнейшая (!) сделка в истории ИИ

В канун Рождества NVIDIA совершила крупнейшую сделку в своей 32-

    Крупнейшая (!) сделка в истории ИИ В канун Рождества NVIDIA совершила крупнейшую сделку в своей 32-

    Крупнейшая (!) сделка в истории ИИ

    В канун Рождества NVIDIA совершила крупнейшую сделку в своей 32-летней истории и самую крупную в истории ИИ. Компания согласилась выплатить 20 миллиардов долларов стартапу Groq (не путать с Grok от Илона Маска).

    Зачем это нужно?

    Groq производит LPU (Language Processing Units) — чипы, созданные специально для инференса (генерации ответов ИИ), а не для обучения. Чипы Nvidia (GPU) создавались для 3д-компьютерных игр и отлично подходят для обучения моделей, но могут быть медленными при генерации текста. Чипы Groq работают до 10 раз быстрее и потребляют в 10 раз меньше энергии при генерации ответов.

    В чем суть:

    Джонатан Росс (основатель Groq) ранее работал в Google, где создал TPU (Tensor Processing Unit). Недавно Google выпустила модель Gemini 3, которая была обучена полностью на собственных чипах TPU, без использования железа Nvidia. Это стало сигналом для инвесторов, что можно строить ИИ без Nvidia.
    Акции Nvidia упали, а Google выросли. Nvidia просто наняли человека, который создал чипы для Google, чтобы укрепить свои позиции.

    Юридически это не поглощение компании. Это оформлено как «неэксклюзивное лицензионное соглашение».

    Главная причина странной структуры сделки — регуляторы. В 2022 году Nvidia запретили покупать Arm за $40 млрд.

    Nvidia уже контролирует 90% рынка чипов для ИИ. Прямая покупка конкурента Groq вызвала бы немедленную блокировку сделки властями.
    Оформляя это как «лицензирование» и наем сотрудников, Nvidia избегает антимонопольной проверки. Это новая популярная схема в Big Tech (так же поступили Microsoft с Inflection AI и Amazon с Adept).

    Кто выиграл, а кто проиграл?

    Инвесторы Groq: В восторге. Оценка компании в сентябре была $6.9 млрд, а сейчас они получили $20 млрд (рост в 3 раза за 90 дней). Среди инвесторов, кстати, фонд Дональда Трампа-младшего.
    Основатели: Получают огромные выплаты и должности в Nvidia.
    Рядовые сотрудники: Скорее всего, в минусе. В классическом поглощении их опционы (акции) выкупаются. В такой схеме («лицензирование») акции часто превращаются в фантики, так как формально компания не продана, а просто опустошена.

    Итог

    Сегодня, такие сделки становятся «стандартом» биг тех. В чем-то идеи Карла Маркса до сих пор актуальны.

    Nvidia, имея $60 млрд наличными, просто «купила» устранение конкурента. Раньше Джонатан Росс говорил, что Groq не конкурирует с Nvidia (одни тренируют, другие запускают), но Nvidia решила не рисковать и поглотить технологию, которая делает инференс быстрее и дешевле, укрепив свою монополию.

    Вопросик: кто-то сможет вообще конкурировать с Nvidia?

  • Физик из Twitter подсчитал, что Кевина из Один дома практически не могли забыть случайно

По его рас

    Физик из Twitter подсчитал, что Кевина из Один дома практически не могли забыть случайно По его рас

    😁 Физик из Twitter подсчитал, что Кевина из «Один дома» практически не могли забыть случайно

    По его расчётам, вероятность, что такое кол-во людей пойдут спать в 23:00 и не смогут проснуться без будильника в 8:00 перед важным вылетом, — 0,13%.

    Даже если бы это событие зависело от одного человека, вероятность была бы 30%. Так что, возможно, Кевина забыли намеренно. 😏

    👋 Lama AI #лама_news

  • В последний месяц я подсел на вайб кодинг с телефона. Ничего серьезного так не разработать, но если

    В последний месяц я подсел на вайб кодинг с телефона. Ничего серьезного так не разработать, но если сидишь в кафе или на очередном созвоне и скучаешь, то вполне можно развлечься и сделать, например, сайт визитку или простую обучающую мобильную игру для ребенка.

    Для вайб-кодинга с телефона я использую:
    — для простеньких сайтов — Replit (pro тариф из Lenny pass)
    — для локальных мобильных аппок — Rork (бесплатный тариф)
    — для чего-то посерьезнее — Codex в мобильном ChatGPT (Plus тариф)

    Я рассматриваю это не как замену IDE и самостоятельной разработки, а как замену чтению новостей, соц сетям или другим тайм киллерам.

    PS: Впереди праздники. Если давно откладывали сделать свою аппку, то считайте этот пост знаком, что пора начать.

    Подписаться

  • similarweb выкатили традиционную ежегодную статистику по ИИ-трафику

Gemini растёт семимильными шага

    similarweb выкатили традиционную ежегодную статистику по ИИ-трафику Gemini растёт семимильными шага

    ✴️ similarweb выкатили традиционную ежегодную статистику по ИИ-трафику

    Gemini растёт семимильными шагами. Через пару лет OpenAI ждут большие проблемы.

    👋 Lama AI #лама_news

  • Для большинства задач при работе с AI-видео достаточно инструментов от трёх вендоров:

1. Google с V

    Для большинства задач при работе с AI-видео достаточно инструментов от трёх вендоров: 1. Google с V

    Для большинства задач при работе с AI-видео достаточно инструментов от трёх вендоров:

    1. Google с Veo3.1.

    2. Kling с их выводком моделей и инструментов.

    3. OpenAI с Sora 2.

    Мне очень нравятся перемены, которые происходят в AI-видеогенерации последние полгода.

    Что изменилось?

    Был у меня пост в конце июля. Там я писал о сложностях в работе с новыми AI-video-моделями, потому что на тот момент они умели генерировать очень красивые видео по текстовому описанию. На этом возможности заканчивались.

    Нужны были более сложные инструменты, чтобы обеспечить лучший контроль результата.

    К концу года Kling и Google выпустили множество инструментов, которые позволяют:

    1. Делать lipsync по изображению+аудио и получать результат лучше, чем у HeyGen (Kling).

    2. Продлевать существующее видео (Veo3.1 и только на 7 секунд).

    3. Генерация по первому и последнему кадру (Veo и Kling).

    4. Использование нескольких изображений-референсов для генерации видео (Veo3.1 и Kling).

    5. Использование видео-референса для генерации (Kling).

    Всё это внушает надежду, что в 2026-м году появятся более специализированные инструменты, которые позволят при помощи AI создавать достаточно сложные сцены с максимальным контролем.

    Недавно вышел Wan Move, который позволяет задавать движение для изображения, указывая точки для перемещения. Это пример того, что хотелось бы видеть среди инструментов от Google и Kling.

    Кстати, заметили, что OpenAI опять забил на развитие AI-видеогенераций? И до сих пор предлагает хоть и качественную, но достаточно сырую по инструментам (и дорогую при этом!) Sora2.

  • Тучи вокруг Higgsfield начали сгущаться Коротко: видимо, подписочная система оказалась невыгодной,

    ✴️ Тучи вокруг Higgsfield начали сгущаться

    Коротко: видимо, подписочная система оказалась невыгодной, и казахи начали вытворять странную дичь.

    Что известно на данный момент:

    — Примерно с 20 декабря сервис начал массово банить юзеров по надуманным причинам. Официальная версия: 99% банов выдают мошенникам с «серыми/чёрными методами оплаты».
    — Но @generatio_ai провел расследование, и оказалось, что банят даже людей с личными картами, а большая часть посредников по оплате не является «мошенниками».
    — Безлимитный тариф оказалася вовсе не безлимитным и особо активных пользователей заставляют доплачивать.
    — Последние 3-4 месяца при попытке оплатить месячную подписку людям втихую оформляли годовую.
    — В поддержке ИИ-ассистент через три сообщения теряет контекст, обещает перевести на человека и не переводит. Квитанции об оплате не приходят, при этом их требуют как пруф.
    — Некоторым вернули возможность зайти в аккаунт, но генерация всё ещё недоступна.

    В общем, лучше пока не связывайтесь с данным сервисом (если он сам не закроется в ближайшее время).

    Возникла такая мысль: а как долго OpenAI сможет оставаться убыточной, прежде чем её настигнет та же участь?

    👋 Lama AI #лама_news

  • Запись моего доклада про Context Engineering на Kolesa Conf + Анонсы встреч В октябре я выступил с

    Запись моего доклада про Context Engineering на Kolesa Conf + Анонсы встреч

    В октябре я выступил с докладом на самой масштабной конференции в Казахстане Kolesa Conf — спасибо ребятам из Kolesa Group за максимально проработанную подготовку и отличную организацию!

    В докладе я рассказывал в основном про грамотную работу с контекстом, а также о том, как готовят контекст AI агенты и специализированные инструменты на примере CodeAlive.
    Ссылка на запись: https://youtu.be/LKxGwFiSQD0?si=fCiOBhjWiGjksene

    Анонсы
    В понедельник 29 декабря на этом канале в прямом эфире проведем интервью с одним из создателей Zenflow в 16:00 по Алматы, 14:00 МСК, 12:00 по CET.

    Также ближайшее время ожидайте:
    1. Интервью с CTO об опыте успешного внедрения AI в разработку
    2. Интервью с одним из создателей SWE Rebench (популярный AI кодинг бенчмарк)
    3. Интервью с одним из победителей ERC чемпионата про создание AI агентов для энтерпрайз задач.
    4. Прожарка UX AI-generated интерфейсов профессиональным UX дизайнером (кстати, можете уже присылать мне в ЛС @rodion_m_tg интерфейсы своих аппок, мы выберем 5 лучших).

    Так что следите за каналом — будет интересно.

    @ai_driven

  • Кто ты, звёздный магнат Отзовись в комментариях хоть

    Кто ты, звёздный магнат? Отзовись в комментариях хоть

  • Сегодня я отменил свою подписку на Cursor.

Думаю, что я буду ещё не раз активировать её для каких-т

    Сегодня я отменил свою подписку на Cursor. Думаю, что я буду ещё не раз активировать её для каких-т

    Сегодня я отменил свою подписку на Cursor.

    Думаю, что я буду ещё не раз активировать её для каких-то разовых тестов или подготовки готовых проектов под задачу «нужно, чтобы в Cursor работало». Я такие делаю с помощью .cursorrules и Agent Skills.

    Примерно с августа-сентября Cursor окончательно перестал быть для меня даже дополнительным инструментом.

    Основной сейчас – Claude Code. Думаю, это и так понятно по количеству постов, выходящих про него.

    Иногда пользуюсь Codex CLI от OpenAI. Совсем редко – Gemini CLI.

    Маршрут миграции между AI-Coding-инструментами сейчас у меня такой:

    1. ChatGPT в веб-интерфейсе.

    2. Cursor. Почти с релиза я им пользовался, проходя через все его «детские болячки».

    3. Windsurf. Честно переходил на него на две недели.

    4. Cursor. Потому что Windsurf не зашёл.

    5. Roo Code. С помпой перешёл на него, а потом понял, что шалость не удалась (сожрать все лимиты Anthropic из-за проблем с контекстом – это нехорошо).

    6. Claude Code. И уже на нём я окончательно обосновался и работаю по сей день, получая удовольствие от его обновлений.

    Я точно знаю, что среди подписчиков есть пользователи очень разных AI IDE. В том числе тех, которые я никогда даже не пробовал.

    Расскажите про свой путь в инструментах для AI-Coding. И почему остановились на том, который используете сейчас?

  • Пятничный эксперимент: тестовое задание пятилетней давности vs ChatGPT, Claude и Gemini. А так же не

    Пятничный эксперимент: тестовое задание пятилетней давности vs ChatGPT, Claude и Gemini. А так же немного про промптинг.

    Откопал наше тестовое задание для фронтендеров 2020 года — симулятор лифта на 5 этажей с анимациями, очередью вызовов и всей логикой. Тогда это считалось сложным заданием на джуниора: из 10 кандидатов дай бог один сдавал что-то рабочее. Сейчас тестовые не даем, процесс собеседования сильно поменялся, но задание попалось на глаза и я подумал — а что если скормить его AI-тулам как есть?

    Как есть — это прям аттач PDF-ки и «Разработай веб-приложение по этому заданию».

    Закинул в ChatGPT, Claude и Gemini. Как-то справились все три, но с разным качеством. На всех — платные подписки, максимально доступная мне модель.

    — ChatGPT выдал симпатичный лифт в канвасе, но он не едет. Но надо сказать что у меня подписка Plus, их Pro модель там недоступна.

    — Gemini выдал уже работающий лифт в канвасе, но со странной анимацией и дизайном и учел не все требования. AI Studio как ни странно оказался не лучше, лифт не поехал.

    Claude выдал единственный результат где реально работало: лифт едет, двери открывались и закрывались логично, очередь вызовов обрабатывалась правильно. Выглядит симпатично. Правда, зачем-то снижал скорость между этажами.

    Все примеры выше — one-shot. Плюс, я осознанно не стал использовать Claude Code, Codex или Cursor — во-первых пятница — хотелось легкости эксперимента: закинул ТЗ как есть и смотрю что получится. Понятно что агенты с нужным тулингом справились бы куда лучше.

    Зато теперь у меня есть личный бенчмарк для проверки новых кодинг-моделей — буду давать им эту задачку и смотреть что выйдет))

    Само ТЗ тут, если нужно для экспериментов. Вообще, надо сказать — задача не такая тривиальная как может показаться — если начать тестить там будет очень много багов, но джуны и с этим не справлялись)

    Кстати, уже после написания черновика попался на глаза свежий промптинг-гайд от Vercel: How to prompt v0, решил применить его (вот финальный промпт), и знаете что? Справились заметно лучше: ChatGPT, Gemini, Claude.

    Что тут сказать? Тестовые задания практически не имеют смысла, промтинг решат, а Opus тащит в кодинге)

  • Конец года и #новости #однойстрокой в стиле Google. В конце года вышли для меня две интересные раб

    Конец года и #новости #однойстрокой в стиле Google. 🔍

    В конце года вышли для меня две интересные работы. Сегодня расскажу про одну, а далее выйдет второй обзор.

    Начнём с T5Gemma 2, хотя должно быть gemma3 🧠

    Почему? Да ибо ребята элайнят энкодер к Gemma3 декодеру, как преинициализация T5 декодер части. А я напомню, что Т5 это полный трансформер с энкодер-декодер архитектурой.
    Помимо этого, ещё интересное, что убрали механизм cross-attention – это когда у вас вложения декодерв после self-attention идут ещё раз в кросс-внимание с контекстом энкодера. Теперь все это зовётся merged attention и, по факту, просто энкодер эмбы закинули в общий блок внимания, НО сохранили у энкодера self-attention с двусторонним механизмом, а у декодер с казуальным. Т.е. после кодирования контекста в энкодере, его эмбы идут напрямую в декодер внимание с казуальной маской, как контекст. Чтобы это все дружно работало ещё сделали tied embedding, т.е. обобщенные / связанные матрицы эмбеддингов для энкодера и декодера, что облегчает вес и увеличивает скорость, а ещё делает нативный обмен информацией между блоками.

    Ввиду таких артефактов, легко ложится туда мультимодальная часть в fromage стиле, поэтому моделька ещё и жуёт картинки на равне с текстом. В качестве энкодера для image embs юзают Siglip. До кучи long context 128k и конечно мультияз.

    Вижу, что Google продолжает диверсификацию исследований и не кладёт яйца в одну корзину. 🧠 Разрабатывает и декодеры, и полные трансформеры, и диффузии. Про энкодеры вообще молчу. 😎

  • The State of AI Coding 2025 — наглядный и компактный отчет от Greptile (YC-baked AI code-ревьювер),

    The State of AI Coding 2025 — наглядный и компактный отчет от Greptile (YC-baked AI code-ревьювер), в котором собрали кучу любопытной статистики по AI-инфраструктуре на основе открытых данных — я давно хотел сделать нечто подобное: сопоставить публичные данные npm и PyPI по ключевым AI SDK, но ребята сделали это за меня, что там есть например:

    — Vector DB: pgvector неожиданно обошел Qdrant по скачиваниям.

    — AI SDK провайдеров: Anthropic SDK c огромным отрывом лидируют по скачиваниям. Еще высокие позиции у Vercel AI SDK, что показывает насколько бурно растет TypeScript-экосистема в AI-разработке.

    — AI Rules Files: CLAUDE.md как .cursorrules лидируют по adoption — то есть разработчики активнее всего кастомизируют поведение AI именно под Claude.

    — Observability платформы: LangSmith лидирует (довольно странно, ведь у них нет OSS версии), но LangFuse и другие игроки тоже показывают неплохие цифры.

    — Любопытный график OpenAI-to-Anthropic ratio — gap сокращается. Если в январе 2024 разрыв был 47:1, то к ноябрю 2025 упал до 4.2:1.

    В отчете есть и сравнения моделей, но это можно глянуть и на artificialanalysis.ai — там постоянно актуальные цифры.

    —-

    Еще несколько любопытных отчетов, которые попали в мое поле зрения — возможно будет интересно полистать на праздниках:

    McKinsey State of AI 2025 — обновленный отчет про adoption в enterprise, ключевой инсайт: 88% компаний используют AI, но только треть масштабирует его, большинство все еще в pilot-фазе.

    a16z Big Ideas in Tech 2025 — 50 партнеров a16z делятся прогнозами на год, от nuclear resurgence до AI agents и robotics. + прогноз на 2026 от них.

    Lumenova State of AI 2025 — отчет про governance и adoption, ключевой инсайт: AI превращается в «enterprise infrastructure», что порождает новые требования к governance.

    Xenoss AI Year in Review — обзор года с фокусом на open-source модели, ключевой инсайт: DeepSeek R1 и другие open-source модели пересекли точку невозврата и все чаще становятся дефолтным выбором.

    Frontier 2025 — дашборд с 202 научными результатами за год с оценками вероятности репликации и потенциального импакта, красивенько оформлен, ключевой инсайт: structured подход к оценке научного прогресса с количественными метриками.

    Menlo VC State of GenAI in Enterprise — данные по enterprise spending на AI, ключевой инсайт: enterprise AI расходы утроились до $37B, причем больше половины пошло на приложени, а не инфру — самая быстрорастущая категория софта в истории.

    🔥🔁

  • Лимиты Codex сброшены до 1 января и удвоены! (они и так были огромными) Для всех пользователей Code

    Лимиты Codex сброшены до 1 января и удвоены! (они и так были огромными)

    Для всех пользователей Codex: в благодарность за те приятные моменты, которые мы разделили за последние месяцы, наш первый подарок — мы сбросили ограничения по запросам и увеличили лимиты использования в 2 раза до 1 января. Желаем вам весёлых праздников и много увлекательного кодинга!

    Самая щедрая компания 2025 💯💯

  • Итоги опроса Главное событие в AI Coding На прошлой неделе мы с авторами других тг-каналов про AI п

    Итоги опроса Главное событие в AI Coding

    На прошлой неделе мы с авторами других тг-каналов про AI проводили опросы по итогам года в AI, и сегодня мы делимся с вами результатами.

    1️⃣ Вы выбрали, что главным событием года было Появление Vibe Coding! (249 человек проголосовали за этот вариант)

    2️⃣ На втором месте — Релиз Claude Code (164 чел)

    3️⃣ На третьем — Релизы Claude моделей Sonnet, Opus, Haiku (89 чел)

    Всего в опросе приняло участие 747 человек.

    Я проголосовал за релиз Claude моделей в этом году и объясню, почему так.

    В октябре 2024 вышла модель Claude Sonnet 3.6, которая дала ощутимый буст AI кодингу и уже тогда можно было использовать эту модель для написания кода хорошего качества.

    В конце января 2025 Андрей Карпаты опубликовал тот самый твит, где впервые сформулировал термин vibe coding, в феврале Anthropic зарелизили Claude Sonnet 3.7 и сразу же выпустили Claude Code в закрытый бета-тест, только для владельцев подписок по $100+

    Борис Черный, Head of Claude Code, в одном из своих интервью рассказывал, что когда у них (Anthropic) появилась модель Sonnet 3.6 и они поняли, на что она способна, то решили сделать coding agent для внутреннего пользования, а в феврале, к релизу новой модельки 3.7, они выпустили этого агента под именем Claude Code.

    И дальнейший успех компании Anthropic обусловлен симбиозом потрясающих моделей и инструмента для использования этих моделей, но я решил всё же, что модель играет более важную роль, поэтому проголосовал за этот вариант.

    А вы что думаете по поводу результатов? Справедливо?

    Вот результаты других авторов, которые вместе со мной проводили опросы
    Если одна подписка, то какая?🔗Поляков считает: AI, код и кейсы
    Код вместе с ИИ в 2025. Чем пользоваться?🔗Глеб Кудрявцев про AI кодинг
    AI-headliner🔗Константин Доронин
    ИИ-компаньон года🔗Бунак и Цифра: chatGPT / AI в бизнесе

    #ai_coding@the_ai_architect
    ✔️ Тимур Хахалев про AI Coding, подписывайтесь!

  • Тут у ребят: @neuralprosecco, @snimshchikov, @neuraldeep
вышел прикольный враппер для итогов года, р

    Тут у ребят: @neuralprosecco, @snimshchikov, @neuraldeep вышел прикольный враппер для итогов года, р

    Тут у ребят: @neural_prosecco, @snimshchikov, @neuraldeep
    вышел прикольный враппер для итогов года, решил тоже собрать статку и получить весёлую карточку.

    Получилось жОско 📦, пробуйте и Вы. 💅

    Не, ну, а че? Не tgstat ж грустный юзать.

  • GPT-5.2 и Gemini 3 Pro  всего лишь промежуточные чекпоинты

The Information пишет, что GPT-5.2  это

    GPT-5.2 и Gemini 3 Pro всего лишь промежуточные чекпоинты The Information пишет, что GPT-5.2 это

    ⚡️ GPT-5.2 и Gemini 3 Pro — всего лишь промежуточные чекпоинты

    The Information пишет, что GPT-5.2 — это ранний, недообученный чекпоинт будущей модели Garlic, а не финальная версия. То есть ожидается ещё один прирост качества по мере выхода следующего чекпоинта/дообучения.

    Со стороны Google звучит схожий месседж: Gemini 3 тоже идёт «чекпоинтами», и следующее обновление или даже GA должно подтянуть качество. Об этом публично написал Cristian Garcia (Google). Не забываем в конце концов, что нынешний 3 Про это лишь превью версия

    🤑 ForgetMe | Boosty

    Приобрести подписку на любые сервисы
    @forgetshop_bot

    #новости #нейросети #chatgpt #gemini

  • Навайбкодил rust приложение С недавнего времени я уже часто работаю и на маке и на ПК и захотелось

    Навайбкодил rust приложение

    С недавнего времени я уже часто работаю и на маке и на ПК и захотелось иметь возможность быстро переключаться.

    Появилась проблема — нужно программно переключать инпут монитора между ПК (винда) и маком.

    Они у меня подключены через Display Port и USB-C.

    Поспрашивал ChatGPT решения — он предлагал kvm устройство (у меня в мониторе это уже есть, переключается из меню, но это долго), предлагал софт ClickMonitorDDC (для винды) – запустилось и работало ок) и разный софт для мака (не запустился). Решил попробовать написать что то своё.

    Открыл codex cli, объяснил задачу. Мы с ним обсудили требования (аппка в tray, переключение по клику), выбрали стэк (сразу предложил Rust), начали делать. Сделали proof of concept чтобы проверить идею и на винде и на маке — работает!

    Приложение готово!

    Опыт прикольный. Я ни разу не писал десктопные приложения, ни разу не писал на Rust, знаю только мемы про Rust и то что недавно он положил половину интернета у cloudflare.

    Но работающее приложение навайбкодить удалось!

    Вот репо, может кому-нибудь будет интересно посмотреть (я лично в код не заглядывал))

    Какой вывод?

    В наше время, иногда проще написать софт самому, чем искать готовое решение!

    А вы уже пробовали писать инструменты для своих задач? Расскажите об этом в комментах!

    #ai_coding@the_ai_architect
    ✔️ Тимур Хахалев про AI Coding, подписывайтесь!

  • MiniMax M2.1 в MiniMax Agent: прокачанный кодинг, длинные цепочки действий и digital employee

MiniM

    MiniMax M2.1 в MiniMax Agent: прокачанный кодинг, длинные цепочки действий и digital employee MiniM

    👀 MiniMax M2.1 в MiniMax Agent: прокачанный кодинг, длинные цепочки действий и «digital employee»

    MiniMax запустили M2.1 в составе MiniMax Agent — обновлённую модель для реальной «агентной» работы: от разработки и ревью кода до автономного выполнения многошаговых задач в браузере и офисных процессах. Попробовать можно прямо в веб-клиенте. MiniMax Agent

    Что нового
    🟡 Мультиязычный кодинг. Экспертный уровень в нескольких ЯП: генерация тестов, оптимизация и ревью кода.
    🟡 Агентное tool-use. Надёжное выполнение длинных цепочек инструментов и браузерных задач с сильным автономным планированием.
    🟡 «Digital Employee». Исполнение многошаговых инструкций и рассуждений для сложных офисных воркфлоу.

    Документация API

    🤑 ForgetMe | Boosty

    Приобрести подписку на любые сервисы
    @forgetshop_bot

    #новости #нейросети

  • Manus запустил Design View Manus представил новый режим Design View на вебе и мобиле это продолжен

    📛 Manus запустил Design View

    Manus представил новый режим Design View на вебе и мобиле — это продолжение агента Manus, которое позволяет заказывать, создавать и доводить визуальные ассеты в одном, бесшовном дизайновом воркфлоу.

    Теперь не нужно прыгать между инструментами: бриф → варианты → правки → итог происходят в одном месте.

    Подробнее: Manus — официальный сайт

    🤑 ForgetMe | Boosty

    Приобрести подписку на любые сервисы
    @forgetshop_bot

    #новости #нейросети #manus

  • GLM-4.7: новый флагман Zhipu AI для кода, планирования и агентных сценариев

Zhipu AI представила GL

    GLM-4.7: новый флагман Zhipu AI для кода, планирования и агентных сценариев Zhipu AI представила GL

    ⚡️ GLM-4.7: новый флагман Zhipu AI для кода, планирования и агентных сценариев

    Zhipu AI представила GLM-4.7 — модель, заточенную под сложный кодинг, многошаговое планирование и работу как автономный агент. В архитектуре появился Interleaved Thinking (модель размышляет перед каждым действием) и Preserved Thinking (сохраняет «мысли» между шагами), что критично для длинных задач по рефакторингу, миграциям и интеграциям.

    Прокачали и генерацию UI/веб-страниц, так что сборка интерфейсов и правки в макетах стали стабильнее. В сравнении с прошлой версией — резкий прыжок в reasoning-задачах: по их данным, на HLE прирост +38%, результат близок к GPT-5.1 (с инструментами). Протестировать можно в чат-клиенте и через API/документацию.

    Ключевые метрики (по данным Zhipu AI):
    🟡 SWE-bench Verified: 73.8%
    🟡 LiveCodeBench: 84.9%
    🟡 HLE (с инструментами): 42%+38% к прошлой версии

    🤑 ForgetMe | Boosty

    Приобрести подписку на любые сервисы
    @forgetshop_bot

    #новости #нейросети

  • Мои итоги года Профессиональные инсайты: — Cursor + ai.studio Claude Code + Codex (+ ai.studio) —

    Мои итоги года

    Профессиональные инсайты:

    — Cursor + ai.studio → Claude Code + Codex (+ ai.studio)
    — Claude Code – лучший кодинговый агент фреймворк создания агентов
    — Gemini – лучший pdf→markdown converter
    — Google sheets – лучший фронтенд для евалов (ладно, не всегда)
    — Granola – лучший транскрибатор звонков и намного больше
    — Эмбеддинги сосут (кст, самый зарепосченный мой пост)
    — MCP тоже, skills – база
    — Просто дайте агенту запускать код

    Личное:

    — Снова начал выступать и преподавать. Уф, какой же это кайф
    — Маме на юбилей оживил кучу старых фоток из физических альбомов (привет, альбомы из Гарри Поттера)
    — Поучаствовал в арт-объекте про грань между человеком и ИИ
    — Вырастил канал с пары сотен подписчиков до 7к
    — Нашел классную онлайн-тусовку людей, близких по вайбу
    — Провел с ними две масштабные ИИ конфы

    Кстати, сегодня одна из них: тоже итоги года, но от других 7 топовых ребят. С 14:00 до 18:30, либо в записи (да, оно стоит даже того, чтобы не забыть посмотреть запись)

    ———

    Вообще, тоже итог года – понял, что организовывать конференции в таком формате – сомнительное занятие с точки зрения выгод на единицу геморроя

    Плюшек – как у спикеров, но вся грязная работа на тебе, а самой приятной части не достается (собственно, побыть спикером). Вроде и получается хорошо, но не знаю, буду ли я что-то такое еще делать.

    Короче, присоединяйтесь, пока аттракцион еще точно работает (такая вот искренняя манипуляция дефицитом)

    entropy.talk/iitogi25

  • Смотрим итоги года в ChatGPT! 

1) Включаем VPN одной из этих стран: США, Великобритания, Австралия

    Смотрим итоги года в ChatGPT! 1) Включаем VPN одной из этих стран: США, Великобритания, Австралия

    🎄 Смотрим итоги года в ChatGPT!

    1) Включаем VPN одной из этих стран: США, Великобритания, Австралия
    2) В чат с ChatGPT пишем «покажи мои итоги года»
    3) Нам выдается карточка с итогами года!

    Я за весь год сменил очень много аккаунтов из-за абузов, поэтому это статистика с аккаунта, которым пользуюсь пару месяцев. Но ChatGPT в этом году я использовал точно чаще всего, шпашиба ему 💋

  • У китайцев вышла новая модель! z.ai GLM-4.7

https:docs.z.aiguidesllmglm-4.7

В доках пишут, что нов

    У китайцев вышла новая модель! z.ai GLM-4.7 https:docs.z.aiguidesllmglm-4.7 В доках пишут, что нов

    У китайцев вышла новая модель! z.ai GLM-4.7

    https://docs.z.ai/guides/llm/glm-4.7

    В доках пишут, что новая модель теперь фокусируется на выполнении задач, а не просто на написании кода!

    Так же там писалось, что новая модель обходит sonnet 4.5 и GPT-5.1 в некоторых бенчах, но теперь доку отредачили и убрали упоминание моделей.

    attained an open-source SOTA score of 84.8 on LiveCodeBench V6, surpassing Claude Sonnet 4.5.

    achieved open-source SOTA in the AIME 2025 math competition, outperforming Claude Sonnet 4.5 and GPT-5.1; scored 42% on the HLE (“Human Last Exam”) benchmark, representing a 38% improvement over GLM-4.6 and approaching GPT-5.1 performance.

    Я уже успел протестировать модель

    ◾️ у меня был план от gpt 5.2 по имплементации задачи: обновление бэкенда с миграциями + фронтенда.
    Модель на удивление справилась очень хорошо! Потрачено всего лишь 70к токенов за 18 минут. Прошлая версия (4.6) на подобных задачах где-нибудь застревала и сдавалась раньше времени – чтобы всё работало, приходилось разжевывать инструкции

    ◾️ запряг модельку (в упряжке claude code + chrome dev tools mcp) пройти мне e2e тесты — те же самые о которых я уже писал тут и тут.
    К моему удивлению, модель справилась офигенно! Точно лучше Gemini Flash 3.
    Ни где не тупила и спокойно завершила тест.

    И это при том, что модель не поддерживает картинки!!

    Опытным путем было выяснено, что для того чтобы прочитать контент на картинке, модель в CC как-то вызывает вот такой тул (как он попал мне в CC, при условии что я не подключал такие mcp — другой вопрос) и отправляет туда картинку, а тул в ответ читает ей по картинке.

    🌐 Z.ai Built-in Tool: analyze_image

    Input:
    {«imageSource»:»https://maas-log-prod.cn-wlcb.ufileos.com/anthropic/c86a1d8b-….png?UCloudPublicKey=TOKEN_e15ba47a-d098-4fbd-9….&Expires=17664…&Signature=6uRZH8ppbDvh…..=«,»prompt»:»Describe what text and content is shown in this image»}

    Executing on server…

    Output:
    analyze_image_result_summary: [{«text»: «The image displays a chat conversation with two participants …

    upd: это работает только при отправке скриншотов, в chrome dev tools судя по всему в модельку отдается DOM дерево

    Короче, первое впечатление – офигенно, мне понравилось!

    У меня уже была подписка zai на квартал (платил $50 за средний тариф). Гоняю в claude code (у меня есть bash скрипт который позволяет переключать подписки вот тут. вам только нужно обновить номер модели и добавить свой api key)

    Напоминаю, что подписка у z.ai очень дешевая! Доступна от $3/месяц.

    У меня есть ещё рефералка, на случай, если вы захотите брать подписку более чем на 1 месяц — zai’цы пишут, что по моей ссылке можно сэкономить ещё $10 (я проверил — такой же тариф стоит $40/mo)

    Рефералка

    #ai_coding@the_ai_architect
    ✔️ Тимур Хахалев про AI Coding, подписывайтесь!

  • Вышла китайская модель GLM 4.7

Это, пожалуй, самая интересная китайская нейронка на данный момент.

    Вышла китайская модель GLM 4.7 Это, пожалуй, самая интересная китайская нейронка на данный момент.

    🥺 Вышла китайская модель GLM 4.7

    Это, пожалуй, самая интересная китайская нейронка на данный момент. Она по бенчмаркам соревнуется с флагманами крупных компаний (OpenAI, Anthropic) полугодовалой давности, но гораздо дешевле их. Модель крута в агентности, что сейчас является одним из главных показателей у LLM, и в этом GLM’ке проигрывает та же G*mini 3 Pro

    Да и в целом, сейчас благодаря китайцам и Grok’у своих агентов стало делать ну очень дёшево, хотя раньше для этого годились только дорогие модельки Claude

    Годно! Если бы я честно платил за API, а не использовал всякие абузы, то для своих агентов выбрал бы точно GLM 4.7: из аналогов есть только Grok 4.1 Fast, но он всё же тупее.

  • Friendly reminder: завтра выступаю на онлайн-конференции ИИтоги 2025. Есть бесплатная опция участия,

    Friendly reminder: завтра выступаю на онлайн-конференции ИИтоги 2025. Есть бесплатная опция участия,

    Friendly reminder: завтра выступаю на онлайн-конференции ИИтоги 2025. Есть бесплатная опция участия, приходите — будет интересно! Уже 1600+ участников и количество растет!

    Вот уточненное расписание и о чем доклады (список раскрывается ↓):

    14:00 🎬 @How2AI Даниил Гаврилов
    ИИ-инструменты для не разработчиков перестали быть демками. Топ-5 ИИ-инструментов «для всех» к началу 2026-го

    14:45 📦 @dealerAI Александр Абрамов
    DeepSeek moment и проблемы с RL; Модели научились «учиться» без изменения весов

    15:30 @nobilix Рефат Аметов + 🤩 @neuraldeep Валерий Ковальский
    Год агентов – вы больше не выбираете модель. Про RAG и file-first. Мощь проприетарных систем, и наоборот – как сделать опенсорс фреймворк, который будут использовать крупные компании

    16:15 😎 @elkornacio Данила Симонов
    От «вау, Composer в Курсоре» до «господи, 100 ИИ-агентов для кодинга, что выбрать» за один год. Куда движется ИИ-кодинг?

    17:00 📊 @llm_under_hood Ринат Абдуллин
    Три технических отличия успешных внедрений ИИ в бизнес. Какие подходы к разработке используют успешные команды?

    17:45 🤗 @aioftheday Александр Горный
    Взгляд со стороны бизнеса: почему внедрение буксует даже если технология работает. Сдвиги в мировоззрении топ-менеджмента и как это влияет на всех остальных

    Есть платная и бесплатная опции участия. Запись будет для тех кто зарегистрируется.

    Детали и регистрация

    Или прямая ссылка на бот.

  • Если бы меня попросили назвать главный итог в AI в 2025 году, то это было бы начало повсеместного вн

    Если бы меня попросили назвать главный итог в AI в 2025 году, то это было бы начало повсеместного вн

    Если бы меня попросили назвать главный итог в AI в 2025 году, то это было бы начало повсеместного внедрения AI в реальные задачи и процессы. За последний год ИИ ассистенты превратились из игрушек для гиков и нишевых конкурентов Википедии в полноценные продукты. В качестве иллюстрации прикладываю количество моих сообщений к ChatGPT по годам. А ведь я еще регулярно пользуюсь дюжиной других сервисов.

    Чтобы сгенерировать диаграмму использования, надо экспортировать данные из ChatGPT. У меня получился json на 70Mb+. И NotebookLM и ChatGPT отказались его обрабатывать как есть и пришлось генерировать Python скрипты в Warp.

    Разумеется, адаптация ИИ не единственное, что произошло в AI за год. О всех важных изменениях и новых возможностях расскажут спикеры на нашей конференции ИИтоги 25 уже завтра. У нас уже 1600+ участников и мы только что закончили тестовые прогоны презентаций. Если еще не успели — по-прежнему можно зарегистрироваться бесплатно (за подписку на спикеров).

    @max_about_ai

  • Сколько бы хайпа gemini cli не уделялось, но до сих пор всё работает так, будто этот продукт разраба

    Сколько бы хайпа gemini cli не уделялось, но до сих пор всё работает так, будто этот продукт разраба

    Сколько бы хайпа gemini cli не уделялось, но до сих пор всё работает так, будто этот продукт разрабатывает маленький стартапчик на 3 чувака и они вот месяц назад зарелизились.

    Чуваки просто добавили костыль, который замечает «луп» модели, когда она сходит с ума и пытается повторить свои действия 🙈

    #ai_coding@the_ai_architect
    ✔️ Тимур Хахалев про AI Coding, подписывайтесь!

  • Вчера наткнулся на этот видос в рекомендациях ютуба какая же база!

Постоянно вижу русскоязычных, кт

    Вчера наткнулся на этот видос в рекомендациях ютуба какая же база! Постоянно вижу русскоязычных, кт

    Вчера наткнулся на этот видос в рекомендациях ютуба… какая же база!

    Постоянно вижу русскоязычных, кто промптит ИИ на английском. Смотрится очень нелепо и профита не даёт: модельки давным-давно на русском отвечают так же хорошо, как и на английском, а иногда даже лучше. Профит есть только на локальных модельках типа Gemma 3 270m, которые весят по 400 мегабайт… но я не думаю, что англопромптеры таким пользуются.
    Общайтесь с ИИ на русском, если вы русскоязычные! 👍

  • Многие из вас пришли в этот канал после ai-dev.live Возможно, вам интересно, как это проект появлял

    Многие из вас пришли в этот канал после ai-dev.live

    Возможно, вам интересно, как это проект появлялся. Вышел небольшой текстовый бэкстейдж на 10 минут, как оно выглядело от моего лица.

    Там много внутрянки: скрины сообщений, наши сомнения, факапы. Хорошо для почитать на выходных, а не то что я обычно пишу)

    https://habr.com/ru/articles/978830/

    У кого есть аккаунт на хабре, если поставите лайк – это вроде как поможет подольше подержать статью в топе

  • Итоги года!

Прошло пару дней с опросов в канале про ИИ в этом году, собрали всего 1356 голосов. И в

    Итоги года! Прошло пару дней с опросов в канале про ИИ в этом году, собрали всего 1356 голосов. И в

    👏 Итоги года!

    Прошло пару дней с опросов в канале про ИИ в этом году, собрали всего 1356 голосов. И вот, что вышло:

    1. Открытие года
    С большим отрывом (42%) победил Gemini 3 Pro — модель видимо реально зацепила многих и вызвала кучу эмоций. На втором месте (26%) Nano Banana Pro, которая стала настоящей революцией генерации картинок в этом году! Третье место у Sora 2, и я полностью понимаю проголосовавших — после релиза я днями и ночами генерировал там видео, это было невероятно. По-моему, это лучший релиз 2025

    2. Провал года
    В топе GPT 5. Её ждали полтора года, но не все получили то, что хотели. На втором месте Grok — было много обещаний в этом году, но то что вышло в итоге не всем зашло

    3. Open-source
    Побеждают Qwen и DeepSeek (29% и 28%). Qwen весь год был очень активным, а DeepSeek в начале года разгромил весь рынок — неудивительно, что они в топе

    4. Кому отдали больше всего денег
    Лидирует OpenAI с 41% — логично, они реально очень много чего предлагают в подписке, и нынче не платить за неё не вижу смысла

    5. Кто сжёг больше всего нервов
    Половина голосов (50%) у ChatGPT, на втором месте Gemini с 22% 💪

    6. Худшая ИИ-компания
    OpenAI забрала 47% голосов 😐
    На втором месте xAI (Grok) с 35%

    7. Лучшая ИИ-компания
    Победил Google с Gemini — 60% голосов с большим отрывом 😵

    С результатами почти всех опросов я кардинально не согласен: для меня открытие года это Sora 2, провал — очевидно Gemini 3 Pro, опенсорс Qwen (тут совпало), нервов сжёг больше всего точно Gemini, худшая компания — однозначно Google, лучшая — OpenAI.

    От Google были реально классные релизы в виде Veo 3 и Nano Banana Pro, в остальном весь год они пинали ху-и. От OpenAI топовые релизы круглый год, они — мой главный источник дофамина в 2025. Но почему-то народ больше любит Google 🙂‍↕️ и я видимо этого не пойму никогда…

  • Пару недель назад я выложил видео про свой текущий подход к работе и увидел что людям это зашло — дл

    Пару недель назад я выложил видео про свой текущий подход к работе и увидел что людям это зашло — для первого полноценного видео на ютубе собрал 1.6к просмотров, 68 лайков, 25 комментов и несколько проведённых консультаций, где я в деталях показал как у меня это всё работает.

    Так же, за несколько месяцев консультаций у меня появились парочка проверенных лекций: про Claude Code и Plan&Act подход.

    Я решил провести воркшоп-сессии, где хочу поделиться своим опытом и знаниями с вами.

    У меня есть 1 практический воркшоп и 3 теоретические лекции, которые я хотел бы вам предложить:

    Теоретические лекции:
    ▪️ Вводная лекция в Claude Code — что это такое и с чем едят. Все фишки CC: skills, subagents, hooks, custom commands, выбор моделей и воркфлоу
    — продолжительность 1.5 — 2 часа
    — подойдёт тем, кто с Claude Code ещё не знаком, но уже работал в AI Coding инструментах

    ▪️ Вводная лекция в Codex CLI
    Что это такое и с чем едят. Все фишки codex (их немного)
    — продолжительность ~1 — 1.5 часа
    — подойдёт тем, кто с Claude Code ещё не знаком, но уже работал в каких-нибудь AI Coding инструментах

    ▪️ Plan&Act в деталях
    Подробнее расскажу, как делаю планирование в codex-cli, имплементацию в Claude Code, поделюсь промптами и инструкциями
    — продолжительность ~1.5 — 2 часа
    — подойдет тем, кто уже знаком с Claude Code

    Практический воркшоп:

    ▪️ Practical Workshop — собираемся на звонок и я в прямом эфире буду делать 1-2 фичи в какой-нибудь open source проекте! Покажу в деталях, как я работаю. Отвечу на все вопросы. В конце, бонусом, отдам все промпты.
    — продолжительность — ~2-3 часа
    — подойдёт тем, кто +- знаком со всеми темами перечисленными выше

    Это будут групповые воркшопы, планирую по 5-8 чел максимум.

    Когда?

    Что делаете на новогодних праздниках? Если делать вам нечего, то гоу на воркшопы 🙂
    Я предлагаю провести это 6, 8, или 9 января. Пока не знаю, в какой из дней что именно будет.

    Больше деталей можно узнать здесь

    Там же можно заполнить анкету на участие в воркшопе.
    Вопросы можно задать мне в телеграм @yatimur или здесь в комментах.

    #ai_coding@the_ai_architect
    ✔️ Тимур Хахалев про AI Coding, подписывайтесь!

  • Активно потестил GPT 5.2 Codex (Extra High) в Codex CLI и вот что заметил по сравнению с обычной 5.2

    👍 Активно потестил GPT 5.2 Codex (Extra High) в Codex CLI и вот что заметил по сравнению с обычной 5.2 (Extra High)

    — Моделька быстрее. 5.2 над чем-то простым могла работать 10 минут, Codex-версия над этим же работает 4-5 минут, а результат сопоставим
    — Сохраняются «приколы» прошлых Codex версий: предшественники ну ОЧЕНЬ любили всё делать по командам, тут также. Обычная 5.2 использует встроенный тул для прочтения файла (что логично), Codex же предпочитает читать его через команду.
    Это может быть не так удобно для визуального понимания, что делает моделька… Но возможно, как-то и улучшает качество работы, ибо постоянно прибегает к решению задач через команды. А 5.2 не всегда додумывается сделать что-то через команду, хотя через неё было бы рациональнее.
    — Лимиты на Codex CLI в Plus/Team всё такие же щедрые в том числе на 5.2 Codex Extra High (по моим подсчётам, 20млн токенов в неделю и 5млн каждые 5 часов)

    Короче, получился просто приятный минорный апдейт для тех, кому нравилась 5.2 в кодинге (думаю нет таких, кому не нравилась))). Моделька стала побыстрее и совсем чуть-чуть поумнее 😇

  • Небольшой отзыв по Antigravity В последнее время чаще использую Antigravity. Мне очень нравится там

    Небольшой отзыв по Antigravity

    В последнее время чаще использую Antigravity. Мне очень нравится там две особенности:
    — Opus 4.5 почти бесконечный
    — Классная работа с браузером из коробки

    На днях я много работал с Opus 4.5 – делал фронтенд и только спустя часа 4 закончились лимиты. Нужно было ждать ещё где-то 5 часов. Далее можно было пользоваться только Gemini 3 Pro.

    Попробовал ещё и Gemini 3 Flash – модель неплохая, очень быстрая, по бенчам рвёт чуть ли не всех, но в E2E тесте не смогла разобраться с кастомным селектором поля и тупила. На простые задачки её можно натравить.

    Но больше всего мне понравился новый процесс у себя – E2E тесты под управлением агента.
    Это тот же самый процесс, который я прохожу руками, но теперь за меня это делают агенты. Flash не справился чутка, но Opus 4.5 и Pro-шка вполне хороши в этом.

    Я описал несколько user journeys (т. е. пути юзера по приложению) в .md файлах и сохранил. Теперь, после того как добавляю новые фичи, я открываю Antigravity и прошу его пройтись по моим user journeys и составить отчёт – что работает, а что нет. В конце, на основе этого отчёта фиксим проблемы.

    Да, Antigravity сейчас работает очень посредственно и с костылями (кнопка Retry failed request отправляет слово «Continue» в чат), но фичи классные.

    Не уверен, доступно ли это на бесплатном тарифе, но на тарифе за $20 у меня это всё работает.

    Если у вас есть Google AI Pro тариф и вы ещё не попробовали Antigravity, то советую побыстрее это сделать!

    Часто вижу запросы на поиск решений открытия сервисом гугла из РФ. Побродил по коммьюнити и составил вот такую памятку.

    #ai_coding@the_ai_architect
    ✔️ Тимур Хахалев про AI Coding, подписывайтесь!

  • Помните хейт в комментах после моего поста про итоги года от Granola Они выкатили целую статью (ссы

    Помните хейт в комментах после моего поста про итоги года от Granola?

    Они выкатили целую статью (ссылка внизу), где рассказывают как они их готовили. На мой вкус, очень интересно почитать – понятно, почему их итоги года ощущаются иначе чем то, что делают остальные компании

    Записал другу войс с мыслями пока читал. Вот причесанная версия:

    → Ооо, вот все говорят, что промпт инжиниринг умер, а похоже все-таки нет – это по-прежнему серьезная часть создания ИИ фичей (и это мэтчится с моим непопулярным мнением). Просто, это не совсем техническая часть, а скорее продуктовая – тут важно не то, как системе выполнять задачу, а скорее – понять какой результат хотим видеть и почему. Часто это прям совсем в мелочах проявляется: нужен не «ироничный твист» а «слегка ироничный твист»

    → Behavioral vs. Psychological. Мысль вроде очевидная, но я ни разу не формулировал это так в своих запросах к LLM. А надо бы:

    Ребята просят не делать выводы о психологии и причинности («ты просишь валидации, потому что чувствуешь неувернность в своей экспертизе»). Вместо этого, важны обобщения реальных фактов («часто, после фразы собеседника, ты коротко перефразируешь сказанное»). Что я делаю, а не почему. Потестил на выгрузке канала, получилось интересно (там и про вас есть, хаха). Оставлю в комментах.

    → Похожая штука про комплименты – многие юзеры хейтят лесть, особенно от ИИ. Ребята решили это тем, что упоролись в конкретику и опять же конкретные поведенческие факты. Вместо «ты крутой аналитик»«ты несколько раз находил в логах корреляцию между нагрузкой и конфигом, которую другие пропустили». Какие у меня паттерны поведения, а не кто я. Бтв, в обычном общении с людьми тоже хорошо работает

    → Ну и глобально, кажется, у некоторых тулзов уже достаточно много информации про нас для выводов, которые оказываются сюрпризом. «Модель может разглядеть что-то, что юзер сам про себя не замечает». Это забавно

    Статья

  • Получаем ChatGPT Plus бесплатно (снова) 

Ранее методы по типу зайди на сайт с акцией и введи сгенер

    Получаем ChatGPT Plus бесплатно (снова) Ранее методы по типу зайди на сайт с акцией и введи сгенер

    💋 Получаем ChatGPT Plus бесплатно (снова)

    Ранее методы по типу «зайди на сайт с акцией и введи сгенерированную карту» у меня не работали, но сейчас по приколу решил попробовать — прошло.
    Я просто зашел на старый аккаунт, на котором никогда не было подписок, и там было предложение пробного периода Plus. Ввел сгенерированную карту — активировалось 🌟

    Карта прошла такая: BIN 6258142602xxxx, генерировать на этом сайте. Если будет ошибка на стороне OpenAI — пробуйте другую карту с списка (там 10 дается), у меня с первой прошло оформление

    Если зайти под VPN’ом Южной Кореи, то еще появится вариант бесплатного Business (Team) на месяц, там есть GPT 5.2 Pro и его можно оформить также, как и методом выше

    Пробуйте, пишите — выйдет ли! У меня и ещё у пары людей по этому бину карты прошло 🤤

  • абсолютно НЕВЕРОЯТНОЕ обновление, OpenAI просто РАЗГРОМИЛИ весь рынок!!!!!!!!!!!!!! новая модель ста

    абсолютно НЕВЕРОЯТНОЕ обновление, OpenAI просто РАЗГРОМИЛИ весь рынок!!!!!!!!!!!!!! новая модель ста

    абсолютно НЕВЕРОЯТНОЕ обновление, OpenAI просто РАЗГРОМИЛИ весь рынок!!!!!!!!!!!!!! новая модель стала на 0.8% лучше чем 5.2!!!!!!! ЭТО ПРОРЫВ 🤯🤯🤯инновация от OpenAI номер два: GPT 5.2 Codex Extra High отказалась мне описывать изменения на русском, так как «не знает его» (???)

    спасибо, Сэм 🌟

  • GPT 5.2 Codex вышла!!  Краткая сводка статьи:  Главное: OpenAI выпустила GPT-5.2-Codex  свою самую п

    GPT 5.2 Codex вышла!! Краткая сводка статьи: Главное: OpenAI выпустила GPT-5.2-Codex свою самую п

    GPT 5.2 Codex вышла!! Краткая сводка статьи: Главное: OpenAI выпустила GPT-5.2-Codex — свою самую продвинутую модель для профессиональной разработки ПО и задач кибербезопасности. Ключевые улучшения: — Работа с кодом: Оптимизирована для длительных задач…абсолютно НЕВЕРОЯТНОЕ обновление, OpenAI просто РАЗГРОМИЛИ весь рынок!!!!!!!!!!!!!!
    новая модель стала на 0.8% лучше чем 5.2!!!!!!! ЭТО ПРОРЫВ 🤯🤯🤯

  • GPT 5.2 Codex вышла!! Краткая сводка статьи: Главное: OpenAI выпустила GPT-5.2-Codex свою самую

    GPT 5.2 Codex вышла!!

    Краткая сводка статьи:

    Главное:
    OpenAI выпустила GPT-5.2-Codex — свою самую продвинутую модель для профессиональной разработки ПО и задач кибербезопасности.

    Ключевые улучшения:

    Работа с кодом: Оптимизирована для длительных задач (рефакторинг, миграция кода) благодаря сжатию контекста. Улучшена работа в среде Windows и с терминалом.
    Производительность: Установила новые рекорды в бенчмарках SWE-Bench Pro (56.4%) и Terminal-Bench 2.0 (64.0%).
    Мультимодальность: Лучше понимает скриншоты, технические диаграммы и UI-макеты, превращая их в рабочие прототипы.

    Кибербезопасность:

    — Модель демонстрирует значительный скачок в возможностях защитной кибербезопасности (успехи в профессиональных CTF-челленджах).
    — Приводится пример, как предыдущая версия модели помогла исследователю найти критическую уязвимость в React.
    — Из-за риска использования злоумышленниками (dual-use) добавлены усиленные меры безопасности.

    Доступность:

    Уже доступна: Платным пользователям ChatGPT.
    Скоро: Доступ через API в ближайшие недели.
    Спецпрограмма: Запускается пилотный проект «доверенного доступа» (invite-only) для проверенных экспертов по безопасности, чтобы они могли использовать модель для защиты систем без лишних ограничений.

  • В ChatGPT появился магазин приложений

Приложение в ChatGPT  набор инструментов для ИИ, которые она

    В ChatGPT появился магазин приложений Приложение в ChatGPT набор инструментов для ИИ, которые она

    В ChatGPT появился магазин приложений

    Приложение в ChatGPT — набор инструментов для ИИ, которые она может юзать с доступом к данным с аккаунта подключенного приложения. Таким образом, уже можно подключить Apple Music и в обычном чате попросить его выполнить какие-то действия: например, создать для вас плейлист внутри Apple Music

    По факту, это стандартный функционал MCP-серверов, но в разы понятнее для простых юзеров, а еще — удобно и красиво, все можно найти в едином магазине. Можно и создавать, и выкладывать свои приложения

    Круто это потому, что можно навайбкодить себе приложение для взаимодействия с Telegram, например (такого пока нету там), подключить себе его, и у ChatGPT будет полный доступ к вашему Telegram-аккаунту (с вашим контролем). Только представьте: просто пишете в ГПТшке посмотреть вашу личку Telegram, она это делает и выдает вам краткую сводку что писали. Это безумно удобно! Круто!

  • Хочу поделиться годной штукой — Claude Island. Это маленькое опенсорс приложение для макбука, которо

    Хочу поделиться годной штукой — Claude Island. Это маленькое опенсорс приложение для макбука, которое превращает Dynamic Island в мини-дашборд для Claude Code. Видишь что агент делает прямо в нотче, без переключения окон.

    — Видишь статус в реальном времени: читает файлы, думает, или ждет твоего апрува
    — Апрувы прямо из Island — причем видишь что именно принимаешь
    — Работает даже с tmux
    — Полностью бесплатное и опенсорс

    claudeisland.com

    Вообще вокруг экосистемы CC много инструментов, вот еще несколько годных:

    Conductor — запускает несколько Claude Code агентов параллельно, каждый в своем git worktree, с UI для управления и мониторинга.

    Sculptor — параллельные агенты в Docker-контейнерах с killer-фичей Pairing Mode: синхронизация с твоим IDE в реальном времени, тестируешь изменения мгновенно.

    Happy — мобильный и веб-клиент для CC и Codex с push-уведомлениями, голосом в реальном времени и end-to-end шифрованием. Проверяй агента с телефона.

    opcode.sh (ex Claudia) — полноценный desktop GUI для CC: управляешь сессиями, создаешь кастомных агентов, трекаешь затраты и использование. Все локально.

    А какими расширениями/аппами для экосистемы CC вы пользуетесь?

  • OpenAI собираются выпустить GPT 5.2 Codex Max на днях Это будет специализированная версия GPT 5.2 д

    😍 OpenAI собираются выпустить GPT 5.2 Codex Max на днях Это будет специализированная версия GPT 5.2 для кодинга. Учитывая, что и обычная 5.2 кодит очень круто, боюсь представить что будет творить Codex, так ещё и Max, так ещё и Extra High… люблю OpenAI…Я был прав — 5.2 Codex выпускают сегодня!!! Безумно жду!
    ДА-А-А А-А-А-А-А УРА-А-А А-А-А-А-А УРА-А-А🎉🎉🎉🎉🎉

    Источник

  • Спасибо всем за голоса, и извините за спам опросами, если кому-то не нравится 🙂 В конце года интер

    😘 Спасибо всем за голоса, и извините за спам опросами, если кому-то не нравится 🙂

    В конце года интересно посмотреть общее мнение про ИИ в этом году: через опросы реальных людей это сделать удобнее всего

    Чуть позже, когда наберётся голосов, подведу итоги года!

  • Dealer.AI pinned Многохорошо, как размеры MAS не скейлят качество конечных задач линейно. Вышла инт

    Dealer.AI pinned «Много≠хорошо, как размеры MAS не скейлят качество конечных задач линейно. Вышла интересная работа в которой развенчается миф для МАС, что чем больше агентов, тем лучше решается задача. Авторы показали, что линейности нет🚬, и все зависит от ресурса, условий…»

  • А Дядя напоминает. Что год подходит к концу и это время подвести ИИтоги 2025 в хорошей компании.

    А Дядя напоминает. 📦

    Что год подходит к концу и это время подвести ИИтоги 2025 в хорошей компании.

    А чтобы это было интересно, насыщенно и интерактивно, мы решили сделать специальное мероприятие 23 декабря. Там я буду рассказывать про то, что нового подарил нам год в AI science: DeepSeek moment, Reasoning и RL, context learning, память и агенты.

    Помимо меня, ещё будет 8 крутых спикеров, многих из которых вы можете узнать на видеовставке по фото: Head of AI, руководители AI R&D, фаундеры AI-продуктов с $25m funding — короче будет 4,5 часа хорошей такой выжимки для вас — опыт, цифры и инструменты. Организаторы постарались.

    Когда?
    Дата и время: 23 декабря, 14:00.
    Есть платная и бесплатная опции участия. Запись будет для тех кто зарегистрируется.
    Где? Детали и регистрация

  • Настало время подведения итогов года! 2025-й выдался очень насыщенным на обновления в AI и в особен

    Настало время подведения итогов года!

    2025-й выдался очень насыщенным на обновления в AI и в особенности в AI Coding!

    Мы с ребятами собрались и решили провести голосования по разным темам.

    Я выбрал тему Событие 2025 года в AI Coding

    И вот кандидаты

    ◾️ Появление Vibe Coding
    Можем ли мы представить себе работу без вайб-кодинга после того самого судьбоносного твита в феврале 2025? Я — нет

    ◾️ Релизы Claude моделей — Sonnet, Opus, Haiku
    А можем ли мы представить себе вайб-кодинг без моделей Anthropic? Я — тоже нет. Кстати, за этот год сменилось 4!! поколения модели Claude — 3.7, 4, 4.1, 4.5! (Ещё есть слухи что до конца года выйдет Sonnet 4.7)

    ◾️ Релиз Claude Code
    Вместе релизом Claude Sonnet 3.7, мы увидели новый инструмент, который в последствии *перевернул индустрию* программирования — Claude Code.

    И по сей день этот инструмент остается для меня топ-1 при выборе.

    ◾️ Релизы Gemini 2.5-3 Pro моделей

    Релиз модели Gemini 2.5 Pro в начале года тоже существенно повлиял на рынок, я почти весь год пользовался этой моделью до появления следующего поколения – Gemini 3 Pro.

    ◾️ Смена прайсинга Cursor
    В конце весны Cursor поменяли прайсинг — они больше не дают 500 запросов за $20. Помимо этого, они были замечены в непонятных махинациях с контекстным окном, что вело к отуплению моделей. Это вызвало негативную реакцию как у аудитории, так и у меня лично. С тех пор я не пользуюсь курсором.

    ◾️ Релиз GPT-5.* моделей
    В начале года Сэм Альтман пообещал нам, что он избавит нас от запутанных названий модели OpenAI.

    К концу года мы имеем 20 версий GPT-5 в Cursor.

    Тем не менее, модели семейства GPT-5 получились очень хорошими, 5.2 моё почтение!

    ◾️ Релиз codex-cli
    В августе OpenAI выпустили конкурента Claude Code. У него нет столько фич, как у CC, но codex сделан очень добротно и занял свою нишу в AI Coding

    ◾️ Релиз Antigravity
    С релизом Gemini 3 Pro мы увидели новый инструмент кодинга от Google. Он пока что ещё сырой, но имеет очень крутые фичи и хороший доступ и к G3 Pro и к Claude Sonnet/Opus 4.5! Пользуйтесь, пока не прикрыли.

    ◾️ Релиз z.ai моделей
    Летом и осенью китайцы z.ai выпустили не побоюсь этого слова революционные модели — GLM-4.5 и GLM-4.6 и наконец сравнялись с SotA моделями прошлых поколений — Sonnet 3.7, 4!

    ◾️ Появление Spec Driven Development / Document Driven Development подходов
    В 2025 получил свою популярность SDD/DDD подход к AI Coding – это когда мы кладём в документацию к коду информацию, которая не очевидна из кода, что в итоге повышает качество написанного кода с помощью AI

    ◾️ Миграция пользователей Codex -> Claude Code -> Cursor -> Antigravity и обратно
    Летом-осенью мы с вами были свидетелями перебежек пользователей с одного инструмента на другой, как только вендоры выпускали новую модель или лоботимизировали старую

    Голосуйте или умом, сердцем или чем угодно! (голосовалка ниже)

    Делитесь своими мыслями в комментах!

    Через недельку мы подведём итоги голосования.

    А вот голосования от других авторов:
    Если одна подписка, то какая?🔗Поляков считает: AI, код и кейсы
    Код вместе с ИИ в 2025. Чем пользоваться?🔗Глеб Кудрявцев про AI кодинг
    AI-headliner🔗Константин Доронин
    ИИ-компаньон года🔗Бунак и Цифра: chatGPT / AI в бизнесе

    #ai_coding@the_ai_architect
    ✔️ Тимур Хахалев про AI Coding, подписывайтесь!

  • Правило Парето в кодинге с ИИ (да и вообще во всех сложных задачах с ИИ) Вы, наверное, слышали о то

    Правило Парето в кодинге с ИИ (да и вообще во всех сложных задачах с ИИ)

    Вы, наверное, слышали о том, что лучше решать задачи «в один промпт» (ваншотить), а не делать бесконечное количество мелких правок в чате с моделью, растягивая контекст.

    У этого подхода в чистом виде есть пара проблем:

    1. Он не работает. Ну правда, в реальности результат почти никогда не соответствует ожиданиям на 100%

    2. Он жрет много времени, лимитов, денег. Если полностью перезапускать запрос из-за мелкой правки, то придется ждать очередные 2-5-10 минут и тратить сотни тысяч токенов. И то без гарантии, что нет отвалится что-то другое, что до этого получилось хорошо

    Но и возник он не на пустом месте – большое количество правок отдельными сообщениями реально ухудшает работу. И проблема тут не только в длине контекста, но и в том, что модель уже пошла по какому-то пути, и ей когнитивно сложно сделать шаг назад и «забыть» неправильную дорогу. Что у нее в контексте – за то и цепляется.

    Я для себя вывел, что каждая такая правка примерно в 3-5 раз менее эффективна, чем если писать пожелание в исходном запросе. А значит, с первого запроса должно корректно выполнятся большинство работы. Если это не так, то:

    — либо декомпозирую задачу
    — либо прописываю больше деталей
    — либо спрашиваю агента, чего не хватило или что в исходном запросе помешало получить желаемое, а потом прошу обновить за меня промпт, «стираю память» и перезапускаю

    Ну и мысль про правило Парето помогает не подгорать от того, что на 20% правок уходит 80% времени – так и должно быть

  • Многохорошо, как размеры MAS не скейлят качество конечных задач линейно. Вышла интересная работа в

    Много≠хорошо, как размеры MAS не скейлят качество конечных задач линейно.

    Вышла интересная работа в которой развенчается миф для МАС, что чем больше агентов, тем лучше решается задача.

    Авторы показали, что линейности нет🚬, и все зависит от ресурса, условий задачи и размера популяции. 💪

    Прям нелинейная динамика scaling мультиагентных систем, получается. А значит системы агентов, можно рассматривать по аналогии с моделью нелинейной динамики популяций, т.е. оно может «жить» по закону популяции и приходить к коллапсу через размеры системы и прочие параметры 🧠

    Кстати, авторы вывели закон масштабирования МАС и провели хорошую абляцию с разными моделями от лидеров рынка под капотом. Уважаемо. 🦾

  • GPT-5.2 уже здесь! Что нового и почему это важно

Друзья! Если вы работаете с текстами, кодом, данны

    GPT-5.2 уже здесь! Что нового и почему это важно Друзья! Если вы работаете с текстами, кодом, данны

    🆕 GPT-5.2 уже здесь! Что нового и почему это важно?

    Друзья! Если вы работаете с текстами, кодом, данными или просто хотите сэкономить кучу времени, это обновление для вас. GPT-5.2 – это не просто очередной апдейт, а реальный скачок в производительности и точности!

    Вот кратко о главном:

    💻 Для разработчиков:
    SWE-Bench Pro: 55.6% (новый рекорд) – лучше пишет код, чинит баги, рефакторит
    ✦ Нужен сайт? Легко! Просто попросите – и он сгенерит 3D-интерфейс в одном HTML-файле
    ✦ Меньше ручной правки, больше готового продакшн-кода

    🧠 Для аналитиков и исследователей:
    ✦ Long context: почти 100% точность на документах до 256k токенов – идеально для контрактов, отчётов, исследований
    ✦ GPQA Diamond: 92.4% – отвечает на graduate-уровне по физике, химии, биологии
    ✦ FrontierMath: решает 40.3% математических задач уровня эксперт (было 31%)

    🖼 Для работы с визуалами:
    ✦ CharXiv: 88.7%, читает графики и научные изображения
    ✦ ScreenSpot-Pro: 86.3%, понимает интерфейсы по скриншотам
    ✦ Меньше ошибок, больше пользы из визуальных данных

    🧰 Для автоматизации:
    ✦ Tau2-bench: 98.7% – идеально вызывает нужные функции в многошаговых задачах
    ✦ Может заменить целые мульти-агентские системы, работает быстрее и надёжнее

    💼 Для работы и бизнеса:
    ✦ Сэкономит до 10 часов в неделю – проверено пользователями ChatGPT Enterprise
    ✦ Создаёт презентации, таблицы и модели быстрее, дешевле и чище, чем специалист-человек
    GDPval: побеждает профессионалов в 70.9% кейсов по 44 специальностям (против 38.8% у GPT-5.1)

    Вывод: GPT-5.2 не просто лучше – это новый уровень автономности и качества!

    📌 Как попробовать?
    Уже доступно в ChatGPT (Plus, Pro, Enterprise) и API:
    GPT-5.2 Thinking – для сложных задач
    GPT-5.2 Pro – когда нужен максимум качества
    GPT-5.2 Instant – для повседневных задач

    ➡️ Бесплатно потестить можно как всегда в LMArena

    🧩 ChatConnectGPTYouTube

  • Промежуточные инсайты по нашему краудсорсингу кейсов об ИИ в разработке Выписал короткими тезисами

    Промежуточные инсайты по нашему краудсорсингу кейсов об ИИ в разработке

    Выписал короткими тезисами – либо практичное, либо забавное, иногда с цитатами:

    Полезные лайфхаки:

    В инструкциях явно давать defend режим, где он должен критически относится к моим командам

    Ручной индекс проекта (тут лайк за простую реализацию)

    tree репозитория с одной строкой описания на каждый файл

    Делать conventions/*md, а в рулсах для CC/Codex/Cursor ссылаться на них – чтобы не синкать зоопарк стандартов + правила грузятся динамически под задачу, а не засоряют контекст

    Вопреки расхожему мнению, feedback loop нужен не для качества, а для скорости – убираем самый скучный human-in-the-loop (ts, lint, unit-tests, e2e, browser mcp)

    Про большие компании и кодобазы:

    На больших репо полезнее всего начинать не с написания кода, а с код ревью, поиска релевантного контекста для изменений и анализа логов со сложными паттернами

    Для больших кодобаз резать задачи не по фичам, а по файлам/модулям, где нужно сделать изменения (декомпозиция не по числу изменений, а по их «локальности»)

    Экспериментально-философское:

    Adversarial AI – сделать, чтобы модели конкурировали. Один агент делает, другой ревьюит и пытается сломать. Часто это даже разные тулы (например, Claude Code + Codex)

    Изменение подходов от поддержки и дебага кода к «удали и сгенери заново»

    PM-Разработчик — простые crud решения уже уходят к менеджерам

    Автопромптинг:

    Люблю использовать notebook ml для дистилляции промптов. На вход подал книгу по проектированию баз данных, он мне выдал промпт со ссылками… Теперь у меня есть свой агент который проектирует базы данных

    Еще пару кейсов, по которым интересно почитать прям исходный текст:

    Фаундер построил конвейер из 17 специализированных агентов, где у каждого «рабочего» агента есть агент-«дублер», проверяющий работу. Полный цикл: от архитектуры до позитивных/негативных тестов и PR.

    Тимлид использовал Cursor для расследования сложного инцидента с ребалансировкой Kafka-консьюмеров на проде: как скармливать ИИ логи «до», «во время» и «после» аварии, чтобы он нашел неочевидную корреляцию между нагрузкой и конфигом, которую люди не увидели.

    Переписать 40 сырых SQL-запросов на ORM, не сломав бизнес-логику. Пошаговый гайд: как сгруппировать запросы по сущностям через rg, сгенерировать слои репозиториев и заставить ИИ найти N+1 проблемы по ходу.

    А чтобы почитать исходные тексты, присоединяйтесь к нашему краудсорингу 🤗

    Аттракцион работает до 21 декабря (когда мы разошлем доступ к обезличенным кейсам)

    Оставить кейс и получить доступ

    А еще – альтернативные мнения: от Макса; от Тимура

  • Результаты опроса практиков AI Coding На прошлой неделе мы создали опросник по AI Coding, собрали о

    Результаты опроса практиков AI Coding

    На прошлой неделе мы создали опросник по AI Coding, собрали около 80 осознанных ответов и делимся с вами ключевыми инсайтами.

    Я покажу интересные цифры, которыми поделились участники опроса.

    Как изменилась эффективность при использовании AI Coding

    1. Full-stack разработчик

    Задача: Написание 630 тестов.
    Результат: Сделано за 6 часов (4 часа кодинга + 2 часа планирования).
    Сравнение: Оценка ручной работы составляла 110 часов.
    Выигрыш: ~18 раз.

    2. Engineering Manager / CTO

    Задача: Апгрейд фреймворка (Ruby on Rails 5 -> 8), затронуто 500 файлов.
    Результат: Сделано за 2-3 вечера.
    Сравнение: Экономия 2-4 недели работы.

    3. Founder

    Цитата: «Сейчас за 30-40 минут могу сделать то, что 2-3 года назад заняло бы неделю».
    Выигрыш: ~40-80 раз (субъективная оценка).

    4. Backend разработчик
    Задача: Реализация сложного E2E сценария с шедулером.
    Результат: Выполнено за 1 день.
    Сравнение: «Задача, на которую я бы потратил неделю».
    Выигрыш: ~5 раз.

    5. Founder:

    Задача: Миграция 40 SQL-запросов на ORM в Node.js сервисе.
    Результат: Один рабочий день.
    Сравнение: Вместо недели ручной миграции.

    6. Разработчик:

    Задача: Разработка админки.
    Результат: В 5-10 раз быстрее, чем год назад аналогичная задача вручную.

    Если вам интересно узнать, как именно эти люди добились такого результата, то успейте принять участие в опросе до 21 декабря, а после мы вам отправим анонимизированные ответы всех участников

    Но не все отзывы положительны

    Есть несколько упоминаний о том, что AI крадёт время:

    1. Backend:

    Попытки использовать «супер-крутой промптинг» занимают кратно больше времени, а результат улучшают максимум на 10%.

    2. Team Lead:

    Иногда кажется, что решение задачи с помощью ИИ и переписывание… занимает времени больше, чем если бы писал всё сам

    3. Team Lead:

    Где-то AI «убирает час-два времени», но кодинг на огромной базе провалился («играли в context engineering… проиграли»).

    Какой можно сделать вывод?

    Те, кто научился делегировать рутину (тесты, миграции, бойлерплейт) и ускорять планирование, сообщают об ускорении в 5-20 раз. Те, кто пытается заставить AI писать идеальный код «одной кнопкой» или использует его для сложных неопределенных задач без декомпозиции, часто тратят больше времени на исправление ошибок.

    Здесь можно посмотреть мнения моих коллег:
    Макс Романовский
    Коля Шейко

    ✔️ Тимур Хахалев про AI Coding, подписывайтесь!

  • Предварительные результаты опроса Спасибо всем кто принял участие! Те кто еще не принял, но хотел б

    Предварительные результаты опроса

    Спасибо всем кто принял участие! Те кто еще не принял, но хотел бы у вас есть еще неделя до 21 декабря: пройти опрос. После этого мы отправим всем принявшим участие анонимизированные результаты.

    Статистика:

    👥 Приняло участие 120+ человек

    🧑‍💻 Наиболее популярные роли: Team / Tech Lead (24%), Full-stack (19%), Backend (14%), Founder (11%).

    🛠 Топ-3 инструмента (% использующих от всего числа ответивших): Claude Code (53%), Cursor (36%), ChatGPT (20%)

    🎓 Половина ответивших имеет больше 10 лет опыта, а 70% — 5+ лет опыта.

    Я прочитал ответы и вот мои личные инсайты:

    1️⃣ Plan + Act самый эффективный метод по мнению многих: сначало нужно спланировать выполнение задачи вместе с агентом, а уже потом выполнять, и полезно вести “дневник разработки”.

    2️⃣ Не смотря на доминирование Claude Code и Cursor наблюдается очень высокое разнообразие актуальных инструментов — почти все пользуются больше чем одним тулом, а всего в опросе их несколько десятков.

    3️⃣ Самые популярные кейсы — написание тестов и генерация болерплейт кода (CRUD, DTO, конфиги, и тд).

    4️⃣ Наличие хорошего покрытия тестами и качественного CI — залог большей автономности агентов.

    5️⃣ Самый частый совет себе прошлому — не бояться и начинать пользоваться как можно раньше.

    6️⃣ Есть люди которые активно используют связку Claude Code + Obsidian за пределами кодинга для саморазвития, управления проектами и личной жизнью.

    7️⃣ Среди ответивших многие пишут собственные системы улучшения инструментов или даже собственные инструменты.

    Пост с инсайтами Тимура
    Пост с инсайтами Коли

    Подписаться

  • Если хотели попробовать Claude Code бесплатно (я тут часто о нем пишу), вот вам guest pass — бесплат

    Если хотели попробовать Claude Code бесплатно (я тут часто о нем пишу), вот вам guest pass — бесплат

    Если хотели попробовать Claude Code бесплатно (я тут часто о нем пишу), вот вам guest pass — бесплатный доступ на 7 дней, их всего 3 штуки — забирайте только если вам действительно нужно:

    ➡️ https://claude.ai/referral/WgHuLl3j2Q

    UPD: первый — всё. Вот еще один от друга https://claude.ai/referral/AA4xj5ZvYA
    и еще один https://claude.ai/referral/wUQ1JKvJsg

    Это новая фишка, выкатили сегодня, доступна только подписчикам тарифа Claude Max, подробности тут.

  • Вышла GPT-5.2!

после релиза Gemini 3 я очень ждала что же ответит OpenAI 

У Сэма Альтмана есть заб

    Вышла GPT-5.2! после релиза Gemini 3 я очень ждала что же ответит OpenAI У Сэма Альтмана есть заб

    ⚡️ Вышла GPT-5.2!

    после релиза Gemini 3 я очень ждала что же ответит OpenAI 😺

    У Сэма Альтмана есть забавный паттерн — они часто ждут пока кто-то из конкурентов выкатит крупный релиз, и только потом выпускают свое, а вот смотрите у нас ЛУЧШЕ 😁

    И вот — OpenAI начали раскатывать GPT-5.2 (у меня уже доступно)

    В релизе нет генерации изображений (которую я кстати очень жду!), это максимально прагматичный апгрейд для реальной работы, GPT-5.2 сильно прокачали именно под professional knowledge work — таблицы, презентации, документы, код, длинный контекст, многошаговые задачи end-to-end. Интересно попробовать, потому что 5.1 из моих черновиков фин модель собрать увы не смогла 😡

    По бенчмаркам выглядит сильно: на GDPval (бенчмарк Google для работы с документами) показывает 94.2% против 89.7% у Gemini 3, на CodeForces рейтинг вырос на 15%, на multi-step reasoning прирост около 20% 🧠

    кто уже попробовал, делитесь впечатлениями в комментах ⌨️

    @neural_prosecco

  • Следить за каждым релизом в AI — путь к выгоранию. Понять, что из этого работает — путь к результата

    Следить за каждым релизом в AI — путь к выгоранию. Понять, что из этого работает — путь к результатам. В 2025 году вышло сотни «революционных» моделей, тулов, AI-фреймворков. Можно было читать каждый релиз. А можно — дождаться конца года и узнать, что из этого реально заработало.

    Собственно, 23 декабря я буду рассказывать про то, что проверено практикой и деньгами: почему правильная инфраструктура важнее самой модели, когда агенты лучше RAG, как не переусложнить архитектуру и немного деталей про file-first подход.

    Еще 8 спикеров, многих из которых вы можете узнать на фото: Head of AI, руководители AI R&D, фаундеры AI-продуктов с $25m funding — короче будет 4,5 часа хорошей такой выжимки для вас — опыт, цифры и инструменты. Организаторы постарались.

    Дата и время: 23 декабря, 14:00.
    Есть платная и бесплатная опции участия. Запись будет для тех кто зарегистрируется.
    Детали и регистрация

  • Codex CLI Skills и Subagent Ну, почти Неделю назад в сети было замечено, что в codex cli добавили

    Codex CLI Skills и Subagent

    Ну, почти

    Неделю назад в сети было замечено, что в codex cli добавили Skills прямо как в Claude Code. Доступно пока что только в alpha версиях и с парочкой приседаний, но оно работает!

    Сегодня мне пришла в голову идея из подручных средств собрать субагента для codex cli))

    Суть заключается в том, что мы инструктируем codex cli как запускать самого себя же в режиме headless.

    По этому поводу записал демо видео и подготовил репо с инструкциями:
    📱 Github
    📱 YouTube

    ✔️ Timur Khakhalev про AI Coding, подписывайтесь!
    ⭐️ Консультации по AI Coding

  • Хотите обзор самого главного в ИИ за этот год

Вот прям всю мякотку: от хардкорного ML и агентов для

    Хотите обзор самого главного в ИИ за этот год Вот прям всю мякотку: от хардкорного ML и агентов для

    Хотите обзор самого главного в ИИ за этот год?

    Вот прям всю мякотку: от хардкорного ML и агентов для разработки до взгляда на ИИ от бизнеса.

    Наша AI Dev Live превзошла все мои ожидания – 3к зрителей (почти олимпийский!), куча крутых отзывов.

    И у кого-то явные проблемы с тормозами – мы не удержались и готовим предновогодний эфир обо всех ключевых изменениях в индустрии.

    И позвали еще крутых спикеров (↓)

    В программе:

    — Сдвиг парадигмы в управлении процессами, который все пропустили

    — Как в 2026 бизнесу отличить: где ИИ-хайп со сливом бюджета, а где ИИ-инструменты с реальной ценностью?

    — Почему одних разрабов ИИ бустит, а другие плюются от багов? Как укротить агентов и получать production-ready код от ИИ?

    — RAG мертв? Почему enterprise уходит от векторных баз к агентам, куда движется индустрия LLM-провайдеров и какое место у локальных AI-решений?

    — Кого и как нанимать в 2026 году? И, самое главное, что изучать, чтобы не уволили вас?

    Спикеры – спецы «изнутри» индустрии: пара Head of AI, руководитель AI R&D-института, фаундеры и ко-фаундеры AI-first компаний – топовый состав, чтобы разобрать прогресс в ИИ со разных сторон.

    А я буду в роли ведущего докапывать их неудобными вопросами

    🎄Записывайтесь на предновогодний эфир (все еще можно бесплатно!)

    и зовите знакомых, кто разбирается в ИИ

  • Ещё раз про Context Engineering и Feedback Loop Возможно, вы знаете, что при работе с моделями типа

    Ещё раз про Context Engineering и Feedback Loop

    Возможно, вы знаете, что при работе с моделями типа Sonnet, я советую держать контекстное окно в пределах 100к токенов, а ещё лучше до 80к, потому что дальше – больно. Качество ухудшается, лимиты в Claude Code тратятся заметно быстрее.

    Я тут на просторах интернета наткнулся на такое же мнение и обрадовался, что я не один это заметил.

    Тут автор пишет про тесты и советует убирать «TESTS PASSED» строки из вывода инструментов, которые запускают тесты.
    Обычно, когда мы запускаем npm run test команды, то видим несколько экранов строк, которые говорят о том, что тесты успешно пройдены. Модели же знать об этом незачем, так что можно сократить эти строки до простого «✓ Utils tests». Если же тесты зафейлятся, то появится сообщение об ошибке.

    Таким образом, мы сэкономим большое количество токенов.

    Можно использовать такую обёртку:

    run_silent() {
        local description="$1"
        local command="$2"
        local tmp_file=$(mktemp)
    
        if eval "$command" > "$tmp_file" 2>&1; then
            printf "  ✓ %sn" "$description"
            rm -f "$tmp_file"
            return 0
        else
            local exit_code=$?
            printf "  ✗ %sn" "$description"
            cat "$tmp_file"
            rm -f "$tmp_file"
            return $exit_code
        fi
    }
    
    run_silent "Simple tests" "pnpm test:run"
    

    Сделайте

    chmod +x ./run-silent.sh
    

    Результат:

    ./run-silent.sh
      ✓ Simple tests
    

    Ещё автор советует врубить fail-fast, т. е. если у вас 10 ошибок в тестах, то тесты будут показывать по 1-й ошибке за раз, до тех пор, пока не пофиксятся все 10.
    Если ошибки не тривиальные (не фиксятся one-shot исправлением по нескольким файлам), то это поможет модельке хорошо подумать над каждой ошибкой по-очереди и не распыляться разом на все ошибки, что может вести к более худшему качеству исправления этих ошибок

    #ai_coding@the_ai_architect

    ✔️ Timur Khakhalev про AI Coding, подписывайтесь!
    ⭐️ Консультации по AI Coding

  • Пост вдохновения. Когда ни одно приложение не подошло — сегодня проще собрать свое, чем ждать. Разби

    Пост вдохновения. Когда ни одно приложение не подошло — сегодня проще собрать свое, чем ждать. Разбираем реальный кейс моего приятеля.

    Мне всегда нравилось, когда нетехнические люди делают себе софт. Каждый раз прям радуюсь, когда вижу результат.
    Недавно приятель Максим скинул свое приложение для изучения греческого. Он ходит на офлайн-занятия и хотел найти что-то для практики между уроками. Искал, даже готов был заплатить. Но ни одно приложение не умело главного — тренировать рукописный ввод слов на планшете. Максимум что нашел — тренажер отдельных букв алфавита. Как для первоклассников.
    В итоге сделал свое. Первая рабочая версия — за 30 минут. То, что на видео — суммарно меньше 8 часов чистой работы.

    Что внутри:
    — Рукописный ввод: пишешь слово стилусом, Gemini распознает и проверяет
    — Озвучка через ElevenLabs
    — Умные подсказки: ошибся в карточках — приложение говорит «ты выбрал X, а это переводится как Y», чтобы закрепить правильную ассоциацию
    — Этимология каждого слова, родственные слова в русском, мнемоники (очень умно и эффективно, на самом деле)
    — Адаптивная статистика: слова с частыми ошибками показываются чаще

    Максим не программист. Но у него есть продуктовый вкус — интерфейс чистый, все на местах (я писал как важна насмотренность). И он итеративно добавлял фичи по мере использования: «хочу подсказки по буквам» — добавил, «хочу видеть этимологию» — добавил.
    Под капотом — не просто фронтенд: база данных, авторизация, AI-сервисы. Lovable подключает все сам, когда нужно. ~120 кредитов, меньше дня чистой работы — и готово приложение, которым он реально пользуется регулярно.

    А еще любопытно, что он интуитивно пришел к паттерну, который сейчас считается стандартом в AI-разработке — сначала детально обсуждал фичу в чате, убеждался что что инструмент тебя понял, и только потом просил имплементировать — то есть тот же Plan & Act.

    Самое главное — по его словам он сам кайфанул от процесса и от результата!

    Если у вас есть идея персонального инструмента, который не можете найти на рынке — попробуйте собрать сами. Lovable, Bolt, Replit — барьер входа сейчас минимальный. Главное — понимать что именно вам нужно и итерировать.

    А еще поделитесь в комментариях: делали что-то подобное для себя?

    🔥🔁