За последний год AI-ассистенты прошли путь от инструментов на базе LLM к агентским системам, способным планировать действия, вызывать инструменты и анализировать результаты их выполнения. Несмотря на изменения в архитектуре, базовые принципы остались прежними: качество работы AI определяется сочетанием агента, модели и доступных данных — и слабое звено в этой цепочке неизбежно приводит к плохому результату.
В докладе мы разберём практическую и до боли знакомую каждому задачу — исправление багов, в том числе воспроизводящихся нестабильно. Поговорим о том, какие неочевидные на первый взгляд данные действительно повышают качество AI-фиксов, как формализовать задачу для агента и какие результаты можно получить на практике при разных ограничениях моделей и инфраструктуры. Некоторые достижения AI-агентов удивили даже нас самих.
Использование AI, AI / LLM в тестировании
Бэкенд-разработчик, Фронтенд-разработчик, Тестировщик
Средний
Кандидат физико-математических наук. В исследовательском центре Huawei работал над созданием инструмента автоматической генерации тестов UnitTestBot, регулярно занимавшего призовые места на соревнованиях SBFT.
В стартапе Veai руководит одной из команд разработки, занимается созданием AI-агента для разработки, тестирования и отладки приложений. В основе инструмента как AI-подходы, так и техники анализа кода.
Читает курс «Тестирование программного обеспечения» в СПбГУ. Сотрудничал с образовательными проектами JetBrains.
Разработчик в Veai. Занимается созданием AI-агента для разработки, тестирования и отладки приложений. В исследовательском центре искусственного интеллекта СПбГУ ведёт разработку методов сжатия и ускорения нейросетевых моделей. Сотрудничал с исследовательским центром Huawei.