CV Week 2024 l Лекция 4 Diffusion distillation. ODE-based methods I ШАД
Спикер: Никита Стародубцев, ML resident, Yandex Research ML Residency.
На лекции детально обсудим проблему долгой генерации диффузионных моделей и рассмотрим одно из самых перспективных направлений для её кратного ускорения. А именно познакомимся с дистилляцией диффузионных моделей и рассмотрим такие методы как Knowledge Distillation и (Multi-boundary) Consistency Distillation.
Скачать презентацию по лекции:
После окончания подключайтесь к лекции 5 «ODE-free diffusion distillation» по ссылке:
Материалы интенсива, которые уже прошли:
Лекция 1 Introduction to diffusion models:
Семинар 1 Basic diffusion implementation:
Лекция 2 DPM formulation via SDE and ODE:
Семинар 2 Implementing an efficient sampler:
Лекция 3 Diffusion architectures. Training and sampling techniques. Text-to-image formulation:
Семинар 3 Text-to-image generation:
Узнать больше о Школе анализа данных можно на сайте: