#8. Стохастический градиентный спуск SGD и алгоритм SAG | Машинное обучение
Суть стохастических алгоритмов при оптимизации эмпирического риска. Рассматривается классический алгоритм Stochastic Gradient Descent (SGD, Роббинса-Монро) и Stochastic Average Gradient (SAG).
Инфо-сайт:
Телеграм-канал:
Градиентный алгоритм: