Тренды и вызовы GenAI на следующий год. Вангование на НГ. Всем привет, кто уже режет новогодние сал

Тренды и вызовы GenAI на следующий год. Вангование на НГ.🎄❄️

Всем привет, кто уже режет новогодние салатики и достаёт любимые напитки из погреба. Сегодня Дядя сделает вангование на развитие ИИ в следующем году.

Итак, поехали:

1. Агенты и правило «девяток» . Если 2024 был годом RAG. То в 2025 sexy были агентные системы. Думаю за 2025 уже успели наиграться и сформировать некоторый пулл достоинств и проблем. Думаю в 2026 году, МАС будут решать сугубо прикладные задачи и исправлять свою непредсказуемость и слабую измеримость результата на промежуточных шагах. А именно, будет больше атомарных бенчмарков, а не е2е. Будут решать проблемы «девяток», т.е. работать над предсказуемостью, безопасностью, надёжностью и точностью системы, чтобы стремиться к 99.999(9). К сожалению, сейчас, агенты живут не в «девятках» , а в «семёрках» даже «шестёрках». С учётом требований к безопасности и наследуемостью ошибок – этого недостаточно.

2. RAG и память. В in context learning в лице поиска и LLM намечается путь в авторешения, на подобии autoML. Такие системы становятся уже полноценными  агентами, с возможностью динамически решать задачи, принимать решения по источникам знаний и уровню достоверности как источников, так и генерации. Таким образом, будет AgenticRag, Self-taught RAG и AutoRAG.
В части памяти, прод решения будут все ещё крутится вокруг работы с файловой системой и RAG механиками, вызовом функций и/или саб-агентами. Все новшества уйдут на уровень архитектуры моделей в лице: большего размера эффективного контекста и модулей long/short term памяти внутри сеток. На это указывает и MIRAS Titans, Atlas.

3. Модели и альтернативные архитектуры. Начнём с простого, в открытом комьюнити будет продолжаться тренд на small, base модели по размеру. При этом, они будут все более специализированные: агенты, CoT, доменные (финансы, юр., беза, медицина и т.п.).
Большие игроки все также будут делать микст: размер, хаки для обучения (CoT, RL и тп), данные. Причём в последнем случае, доля синтетики будет расти. Параллельно, будут строиться более сильные пайпы рафинирования и чистки данных, чтобы нарастить качество живых данных. Это позволит учить более эффективные малые модели.
Рядышком будут бежать энтузиасты альтернативных архитектур: SSM, RWKV, Text Diffusion LM и т.п.
Китайцы продолжат удивлять, и думаю следующий DeepSeek, Kimi и Qwen сделают пару релизов, в одном из которых жду MoE схему отсюда. Да и SSM из статьи тоже туда же.

4. Оптимизация эффективности инференса и обучения. Уже сейчас топы мира по ИИ говорят о том, что мы упираемся не в число вычислительных мощностей, а в эффективность и энергопотребление. Таким образом, или мы с единицы шага обучения вытаскиваем больше информации и тратим меньше шагов, или оптимизируем нагрузку на инференсе и скорости обучения, тем самым экономия gpu-часы и, как следствие, число затраченной энергии. Сюда же помогают все эти MoE, линеаризации внимания, спекулятивный декодинг и прочие фишки. Этот тренд останется ИМО и на следующий год.

И да ещё думаю помимо волны спроса на RAM, мы увидим повышенный спрос на источники энергии: нефть, газ, АЭС.

Upd.
5. Продолжение усиления персонализации и тренд на человекоцентричность. Крупные игроки уже заявили о формировании новой фин.модели монетизации: агентные системы, память. Нас ждёт, все больше трансформации рынка рекламы и покупок. А клиенты уже сейчас своим мнением давят на оунеров моделей и голосуют за любимые версии в апи.

Вот такие мысли автостопом по трендам на следующий 2026 год. Вы знаете, что с этим делать — седлать волну. Stay tuned. 🦾

Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *