Мы дали QA-инженерам AI-агента для работы с 600 UI-тестами. Первое, что он сделал, — сломал файл зависимостей, потёр конфигуратор и напихал print-ов в тест. За пять попыток не смог его запустить. Знакомая история? На этом можно было бы остановиться, но мы решили разобраться, почему так вышло.
Через пару месяцев тот же агент сократил разбор падений с 40 до 10 минут. Но дело не в агенте. Спецификации, чек-листы, скептицизм к результату — навыки QA уже заточены под работу с LLM. Осталось выстроить систему вокруг: guardrails в коде, правила в процессах и культуру экспериментов в команде.
Расскажу, как мы к этому пришли, почему спагетти-код убивает агента быстрее человека и на что потрачено время, которое раньше съедала обязательная, но бесполезная рутина: починка локаторов не делает QA сильнее, а пересмотр процессов и экспертиза за пределами команды — да. Уйдёте с планом внедрения для своей команды.
AI / LLM в тестировании, Использование AI, Prompt & Context Engineering
Тестировщик, Руководитель команды / Технический руководитель
Средний
QA Lead в одном из крупных направлений «Циана»: отвечает за качество продукта, развитие QA-инженеров и внедрение современных подходов в процессы.
Последние годы активно изучает AI-технологии, фокусируясь на no/low-code автоматизации и AI-агентах для кодинга, — внутри компании ведёт инициативы по применению этих инструментов для повышения стабильности качества.