#10. Оптимизаторы градиентных алгоритмов: RMSProp, AdaDelta, Adam, Nadam | Машинное обучение

Аватар автора
SelfEdu - мир знаний с Сергеем Балакиревым
Зачем нужны оптимизаторы для градиентных алгоритмов. Рассматриваются следующие эвристики: метод импульсов (momentum), импульс Нестерова (NAG), RMSProp (running mean square), AdaDelta (adaptive learning rate), Adam (adaptive momentum), Nadam (Nesterov-accelerated adaptive momentum) и диагональный метод Левенберга-Марквардта.

0/0


0/0

0/0

0/0