Полная история GPT, блок 1.1: Предсказание — это сжатие | Котенков Игорь

ВАЖНО! Этот мини-курс является частью другого курса, поэтому предполагает наличие некоторой базы. Пререквизиты: — базовое знание ML (как учится нейронная сеть, что такое лосс, как валидировать модель) — понимание концепции эмбеддинга (на уровне работы с текстовыми моделями вроде Word2Vec. Можно ознакомиться тут: ) — понимание архитектуры трансформера (на уровне просмотра моей предыдущей лекции: Как только посмотрите и на 80% поймете лекцию — считайте, что готовы приступать к данному мини-курсу! Ссылка на слайды: !AlnN0aqNwShsl3tjxgg0ecGOVrgl?e=AKP3TR Телеграм-канал автора:
Back to Top