Оптимизаторы нейронных сетей | SGD, RMSProp, Adam | | НЕЙРОННЫЕ СЕТИ 8
⚠️ Все ссылки на мои платформы, курсы здесь:
Поддержать канал можно оформив подписку на
🎉
🎉
🎉 А можете скидывать монеты на
💻 Мои курсы на платформе Stepik:
✅ Канал в TG
✅ Группа в VK
❓ Вопросы, на которые найдем ответы в этом видео:
- Какие есть оптимизаторы?
- Какие есть особенности в SGD, Momentum, AdaGrad, RMSProp, Adam?
- Какие есть преимущества и недостатки оптимизаторов?
🌟 Реализация модели линейная регрессия -
🤖 Ноутбук из видео
0:00 Введение
0:19 План занятия
0:29 Поддержка
0:45 Задача на сегодня
1:38 Самая простая нейронная сеть
2:28 Визуализация ошибки MSE от весов нейронной сети
3:57 Градиентный спуск GD
4:17 Градиент ошибки MSE
6:06 Алгоритм градиентного спуска
7:12 Реализация градиентного спуска
10:11 Стохастический градиентный спуск SGD
10:57 Алгоритм стохастического градиентного спуска (SGD)
11:31 Реализация стохастического градиентного спуска (SGD)
13:37 Визуализация стохастического градиентного спуска
14:10 Mini-Batch стохастический градиентный спуск
14:44 Алгоритм Mini-Batch стохастического градиентного спуска
14:55 Реализация Mini-Batch стохастического градиентного спуска
16:01 Визуализация Mini-Batch стохастического градиентного спуска
16:27 Сравнение GD, SGD, Mini-Batch SGD
17:28 Визуальное сравнение GD, SGD, Mini-Batch SGD
18:32 SGD Momentum, SGD с импульсом
22:28 Алгоритм SGD Momentum
22:58 Реализация SGD Momentum
24:36 Визуализация SGD Momentum
25:13 Эксперименты с коэффициентом momentum SGD
26:51 SGD в Keras с momentum
27:22 AdaGrad
29:34 Алгоритм AdaGrad
30:03 Реализация AdaGrad
31:45 Визуализация AdaGrad
32:05 AdaGrad в Keras
32:30 RMSProp
33:42 Алгоритм RMSProp
34:15 Реализация RMSProp
35:41 Визуализация RMSProp
35:52 Эксперименты с коэффициентом в RMSProp
37:02 RMSProp в Keras
37:12 Adam
38:24 Алгоритм Adam
38:34 Реализация Adam
40:08 Визуализация Adam
40:21 Adam в Keras
40:30 Эксперимент с оптимизаторами в Keras
41:33 Зафиксировать веса при инициализации, чтобы они не были случайными
42:00 Архитектура сети
42:30 Оформление экспериментов с оптимизаторами
44:59 Отображаем на графике изменение функции потерь
45:59 Резюме занятия
46:08 Минусы и плюсы оптимизаторов
48:49 ♡
9 views
871
235
1 month ago 01:25:20 22
Артамонов С.А. - Введение в глубокое обучение - 2. PyTorch, Градиентный спуск для обучения нейросети
2 months ago 02:05:03 8
Хвостиков А.В.-Академическая программа по ИИ-3.Нейросетевые методы обработки и анализа изображений 1
3 months ago 01:48:41 2
Ефремов А.А. - Машинное обучение в биологии. Лекции - 10. Методы обучения глубоких нейронных сетей
3 months ago 01:04:44 1
Ганичев А.А. - Нейронные сети в научных исследованиях - 7. Улучшение сходимости нейросетей
4 months ago 01:26:15 5
ИИИ Спортивный анализ данных - + конспект от YandexGPT
4 months ago 00:49:05 13
Оптимизаторы нейронных сетей | SGD, RMSProp, Adam | | НЕЙРОННЫЕ СЕТИ 8
6 months ago 02:59:25 1
Лекция №7 “Оптимизация нейронных сетей“
11 months ago 00:07:48 2
Теория построения нейронных сетей в
1 year ago 00:06:06 7
Как сохранить нейронную сеть | Нейросети на Python
1 year ago 01:20:09 1
DL2022: Борьба с переобучением в нейронных сетях (часть 1)
2 years ago 00:20:53 6
#15. Тонкая настройка обучения моделей через метод compile() | Tensorflow 2 уроки
2 years ago 01:03:13 11
Введение в нейронные сети #2. Градиент и оптимизаторы.