На семинаре мы обсудим методы стохастической оптимизации, необходимые для решения многих задач оптимизации, возникающих в машинном обучении.
Начнем с общей постановки широкого класса задач машинного обучения, сводящихся к параметрической оптимизации и обсудим, почему классические алгоритмы оптимизации для таких задач применять не получается.
Затем поговорим про стандартный метод стохастического градиентного спуска, затронем проблемы, которые часто возникают при использовании метода as is и обсудим основные теоретические результаты, известные по данному алгоритму. После рассмотрим некоторые современные модификации, активно применяющиеся (или применявшиеся) для решения практических задача (AdaGrad, SVRG, Adam…). Кроме того, на семинаре помимо «математической» части алгоритмов мы обсудим и некоторые практические аспекты — как реализуются такие алгоритмы для обучения на нескольких CPU/GPU серверах и какие проблемы возникают
3 views
441
108
11 months ago 01:22:15 1
Методы Оптимизации. Семинар 22. Стохастический градиентный спуск
1 year ago 02:09:25 2
Лекция №2 «Линейный классификатор»
1 year ago 01:40:24 1
Глубинное обучение. Оптимизация для глубинного обучения. Школа анализа данных, Яндекс
1 year ago 00:49:06 1
Оптимизаторы нейронных сетей | SGD, RMSProp, Adam | | НЕЙРОННЫЕ СЕТИ 8
2 years ago 02:20:30 1
Лекция 8. Обучение на больших выборках, Vowpal Wabbit. Открытый курс ODS по машинному обучению
2 years ago 00:09:22 1
#9. Пример использования SGD при бинарной классификации образов | Машинное обучение
2 years ago 00:41:47 9
Основы нейронных сетей и Deep Learning | Технострим