Лекция №7 “Улучшение сходимости нейросетей и борьба с переобучением“

Седьмое занятие на курсе «Нейронные сети и их применение в научных исследованиях» для группы НС242 пятого потока обучения. Преподаватель: Любовь Антюфриева Дата: 00:00 Начало 00:30 Сигмоида затухает и теоретически, и практически 04:27 Затухание градиента 06:04 Нормализация входов и выходов 06:20 Нормализация входных данных 06:59 Нормализация целевых значений в задаче регрессии 11:11 Инициализация весов 13:40 Инициализация Ксавье (Xavier Glorot) 16:49 Инициализация Каймин Хе (Kaiming He) 17:16 Важность инициализации весов 17:56 Ортогональная инициализация 19:29 Инициализация весов в PyTorch 21:53 Слои нормализации 22:02 Covariate shift (Ковариантный сдвиг) 27:48 Internal covariate shift 29:43 Batch Normalization 44:09 Другие Normalization 46:44 Регуляризация 47:01 L1, L2 регуляризации 47:40 Dropout 58:30 DropConnect 58:59 DropBlock 59:29 Batch Normalization до или после Dropout 01:01:22 Оптимизация параметров нейросете
Back to Top