Методы оптимизации 14. Стохастическая оптимизация (продолжение). SAGA, SVRG, SARAH

00:00:00 - интро 00:00:20 - SAGA (с предыдущей лекции) 00:16:39 - физика SAGA 00:20:00 - доказательство сходимости SAGA 00:55:40 - оценка на число итераций 00:57:16 - сравнение SAGA с градиентным спуском, плюсы и минусы 01:01:25 - SVRG 01:07:58 - SARAH Дата лекции: Лектор: Безносиков Александр Николаевич Оператор: Порай Екатерина Монтажёр: Хатымов Ренат Плейлист на ютубе: Плейлист в вк:
Back to Top