Поделюсь опытом команды Kandinsky Lab при работе над Kandinsky 5: как поднимать обучение больших генеративных моделей, имея доступ к нескольким GPU (не обязательно топовым).
Разберём, как организована обработка данных: распределённые воркеры, фильтрация, аннотирование, балансировка и выбор хранилища без I/O-бутылочных горлышек.
А также стек обучения: стратегии подгрузки в кластер, методы распределённого обучения и приёмы экономии памяти.
Python, Параллельные вычисления / GPU, Масштабируемость
Специалист по данным / Специалист по машинному обучению
Средний
PhD по физике.
Работал в университете Эрлангена (Германия), развивал алгоритмами томографии электронного микроскопа. Занимался 3D-генерацией в Huawei (Новосибирск).