В работе с AI-агентами нужен максимальный контроль.
Вместе с этим, желательно, стремиться к тому, чтобы сеанс работы с Coding AI-агентами проходил максимально-автономно. И без вреда для качества.
Kanban-ориентированные AI-workflow дают только автономность. Возможностей для добавления не зависимого от человека контроля там очень мало.
Vibe Kanban, про который рассказывал вчера, даёт возможность как создать на старте все задачи и загрузить их из Claude Code CLI, так и проверить качество полученного по задаче кода. Вручную.
Однако у него явно не достаёт автоматических проверок в процессе. Особенно тех, что связаны с качеством кода.
Хотя режим тестирования фронтенда во встроенном браузере неплох.
В результате, kanban-workflow в vibe-режиме похож на ситуацию:
1. Раскидали по игральному kanban-столу задачки.
2. Заставили их выполняться.
3. Ждём, что из них выпадет джек-пот (готовое приложение).
Следующие на очереди – системы, в которых следование архитектуре поставлено во главу угла. Интересно, какие плюсы и минусы будут у них.
Если что-то из таких знаете и пробовали – закиньте в комментарии 😊

Добавить комментарий