#8. Стохастический градиентный спуск SGD и алгоритм SAG | Машинное обучение

Аватар автора
SelfEdu - мир знаний с Сергеем Балакиревым
Суть стохастических алгоритмов при оптимизации эмпирического риска. Рассматривается классический алгоритм Stochastic Gradient Descent (SGD, Роббинса-Монро) и Stochastic Average Gradient (SAG).

0/0


0/0

0/0

0/0