#5. Строим градиентные алгоритмы оптимизации Adam, RMSProp, Adagrad, Adadelta | Tensorflow 2 уроки

Применяем Tensorflow для задачи поиска оптимальных параметров, минимизируя функцию потерь различным алгоритмами градиентного спуска с оптимизаторами: Метод моментов (моменты Нестерова), Adam, RMSProp, Adagrad, Adadelta. Рассматривается принцип реализации стохастического градиентного спуска SGD (Stochastic Gradient Descent). Телеграм-канал: Инфо-сайт: Tensorflow: Градиентный спуск: Курс по нейронным сетям:
Back to Top