CLIP или история о том, как подружить картинки и текст // Курс Компьютерное зрение

Что общего между недавними прорывами в области искусственного интеллекта, DALLE и Stable Diffusion? Оба они используют компоненты архитектуры CLIP. Следовательно, если вы хотите понять, как работают эти модели, понимание CLIP является обязательным условием. На вебинары ”CLIP или история о том, подружить картинки и текст“ мы поговорим про CLIP-модели, как они устроены и в чем их особенность. Разберём, каким образом можно объяснить модели, что изображено на картинке. Узнаем, как можно применять CLIP-модель для решения самых разнообразных задач: от классификации до семантического поиска по картинкам. Кому подходит: - тем, кто знает основы Python и хочет углубиться в ML и CV - начинающим DS специалистам с интересам в CV Результаты урока: - узнаете, что представляет из себя архитектура CLIP - как использовать CLIP для классификации картинок - как связать изображение и текст воедино «Компьютерное зрение» - Преподаватель: Иван Мордовец - старший специалист по анализу данных в Билайн Подключайтесь к обсуждению в чате - Пройдите опрос по итогам мероприятия - Следите за новостями проекта: - Telegram: - ВКонтакте: - LinkedIn: - Хабр:
Back to Top