Глубокое обучение. Лекция 11. Методы оптимизации в обучении глубоких нейронных сетей (2019-2020)
В рамках лекции рассмотрены следующие методы оптимизации, использующиеся в обучении глубоких нейронных сетей:
- Batch Gradient Descent;
- Stochastic Gradient Descent;
- Mini-Batch Gradient Descent;
- Momentum;
- Nesterov Accelerated Gradient;
- AdaGrad;
- Adam.
Коротко рассмотрены преимущества и недостатки алгоритмов, а также рекомендации по их применению. Доказательства сходимости НЕ приводятся. :)
Это последняя лекция курса по Deep Learning. Надеюсь, курс оказался Вам полезен)
Евгений Разинков – к.ф.-м
1 view
1062
327
3 weeks ago 01:06:22 6
Как работает энергия в любви между мужчиной и женщиной | Настенька Галицына | Истина Любви
1 month ago 00:35:49 1
Этому Обучали ТОЛЬКО Избранных - Знания Масонов 33 й степени
1 month ago 00:44:57 10
Продажи, маркетинг, создание УТП и набора инструментов для менеджеров с помощью нейросетей“
3 months ago 03:12:00 1
444 Гц Запусти механизм исцеления и тело само начнет себя лечить | Исцеляющая медитация
3 months ago 00:08:15 1
Курс методики Тета-Хилинг Глубинные раскопки. Работа с убеждениями