Линейная регрессия. Что внутри sklearn? Зачем градиентный спуск? Что спросят на собеседовании? ч.2

Канал в tg: 00:00 - Про первую часть 00:25 - План видео 00:35 - Reminder первой части 01:43 - Как считается решение линейной регрессии в sklearn? 04:55 - Можно ли посчитать аналитическое решение с регуляризацией? 05:40 - Как находится оптимизационное решение (градиентный спуск)? 08:37 - Пара слов про стохастический градиентный спуск 09:15 - Каковы самые популярные реализации линейной регрессии? 10:22 - Можно ли из линейной регрессии сделать нелинейную? Статья Александра Дьяконова: линейная-регрессия/ Про LAPACK: Лекция Константина Воронцова: (которая почему-то названа другим именем) Разделяй и встаствуй в SVD основан на: Ноутбук с реализацией градиентного спуска: Документация
Back to Top