#5. Строим градиентные алгоритмы оптимизации Adam, RMSProp, Adagrad, Adadelta | Tensorflow 2 уроки

Аватар автора
SelfEdu - мир знаний с Сергеем Балакиревым
Применяем Tensorflow для задачи поиска оптимальных параметров, минимизируя функцию потерь различным алгоритмами градиентного спуска с оптимизаторами: Метод моментов (моменты Нестерова), Adam, RMSProp, Adagrad, Adadelta. Рассматривается принцип реализации стохастического градиентного спуска SGD (Stochastic Gradient Descent).

0/0


0/0

0/0

0/0