#ЦМФ #Нейронные_сети from 0 to HERO | Поражение Каспарова | Разоблачение Перцептрона | Магия DNN
Илья Езепов, Data Scientist и Software Engineer, преподаватель и выпускник ЦМФ — лекция по нейронным сетям на программе «Количественная аналитика» ЦМФ (2016 год)
Лекция Ильи не стала менее интересной, несмотря на то, что с момента выступления (в марте 2016 года) многое изменилось и стало неактуально, как говорилось в фильме 1939 года: ‘it is no more than a dream remembered, a Civilization gone with the wind...’
0:35 План лекции
1:36 Белые начинают и выигрывают!
2:50 Как машины победили людей в настольные игры (шашки, шахматы, го)
4:33 DeepMind (за 2 дня до победы AlphaGo в го над Ли Седолом)
5:30 Как машины победили людей: 1. Линейные модели
6:46 Типы задач машинного обучения: регрессия, как метод классификации (сигмойд), детектирования и ранжирования
8:58 Как тренировать модель
10:01 Функции потерь
11:05 МНК
11:40 500 миллионов наблюдений и 130 миллионов фичей
12:20 Градиентный спуск
15:56 Стохастический градиентный спуск
20:42 XOR problem
21:35 Перцептрон
24:30 ReLU
25:30 Как тренировать перцептрон: сложная производная (но не очень сложная)
27:45 Теорема Розенблата: перцептрон может решить любую задачу классификации
30:28 Разоблачение перцептрона!
32:25 Распознование лица
33:33 Как тренировать несколько слоёв
34:26 Цепное правило (дифференцирования сложной функции)
37:35 Современная визуализация слоёв нейронных сетей
39:16 Эминем не боится выпуклых функций (Ян Лекун: почему много слоёв — хорошо)
43:05 Deep Learning: причём здесь видео игры (hint: GPU)
46:46 Тщетные попытки улучшить ReLU
47:47 Когда сигмойд лучше ReLU
50:25 Распознавание образов: как человек распознаёт образы (тестируем на студентах)
52:28 Запоминание пикселей
56:01 Свёртка!
1:08:03 Сокращение размерности свёрток: пулинг
1:13:03 Типичная DNN
1:18:50 Свёртка 1x1
1:22:00 Мнемоническое правило для обучения нейронных сетей (кошки!)
1:23:20 Как бороться с переобучением
1:24:28 Dropout — самое красивое, что было в нейронных сетях в 2016 году
1:27:40 Связка бананов свисает с потолка
1:29:29 Как улучшить SGD
1:33:25 Нейронки — это Лего
1:34:00 Когда использовать нейронные сети
1:35:35 Как дальше изучать нейронки (в 2016 году)
Подкаст с Ильёй:
Лекция Ильи по Big Data:
Студенческие проекты ЦМФ 2021:
Регистрация на программы «Количественная аналитика», «Анализ данных» и «Web3: DeFi & NFT-разработка»:
@cmf_russia-cmf-2022
#Нейронныйсети #нейронки #DeepMind
#Шахматы #Каспаров #Гарри_Каспаров #Kasparov #Garry_Kasparov #Го
#BIGDATA #BIG_DATA #бигдата #биг_дата #Большие_данные #дата_центр #Хранение_данных #Amazon #Yandex #Google #Амазон #Яндекс #Гугл #MapReduce #Map #Reduce #3V #Вопросы_на_собеседованиях #WordCount #TenzorFlow #нейронные_сети #корреляции #Volume #Variety #Velocity
#DeepMind #Yandex #Google #Dropout #Дропаут #Сигмойд #DNN
#XOR_problem
#Перцептрон
#ReLU
#Центр_математических_финансов #ЦМФ #Финансовая_эконометрика #Финансовая_математика #Случайные_процессы #Количественная_аналитика #Data_Science #Анализ_данных #1_уровень #2_уровень #проекты #Риск_менеджмент #Финансовая_аналитика #Факультет_информатики #Факультет_финансов #УNVRSTY #YNVRSTY
2 views
5
1
2 years ago 00:33:54 8
#ЦМФ #Подкаст R и Python | Эконометрика и Data Science | ММАЭ МГУ и семинар Финансовая эконометрика
2 years ago 01:37:26 2
#ЦМФ #Нейронные_сети from 0 to HERO | Поражение Каспарова | Разоблачение Перцептрона | Магия DNN
2 years ago 01:58:21 15
#ЦМФ #Подкаст | Google | МГУ | Yandex | Kaggle | Leetcode | Python | С++ | Java | Go | Трансформеры
2 years ago 01:05:36 3
#ЦМФ BIG DATA: Amazon | Yandex | Google | Hadoop | MapReduce | 3V | Вопросы на собеседованиях | 2016
2 years ago 00:53:08 7
#ЦМФ Машинное обучение: деревья решений и случайный лес — классические методы классификации
2 years ago 00:49:08 1
#ЦМФ Машинное обучение: введение и логистическая регрессия #R