Andrew and I discuss his work exploring how various facets of deep networks contribute to their function, i.e. deep network theory. We talk about what he’s learned by studying linear deep networks and asking how depth and initial weights affect learning dynamics, when replay is appropriate (and when it’s not), how semantics develop, and what it all might tell us about deep learning in brains.
Show notes:
Visit Andrew’s website. The papers we discuss or mention: Are Efficient Deep Representations Learn
4 views
25
4
1 month ago 01:33:21 8
СКИННИ ФЭТ | Самая ПОЛНАЯ тренировка на все тело при фигуре Skinny fat
1 month ago 01:35:20 1
Создание дашборда в Power BI (in Russian)
2 months ago 05:04:48 1
GTA San Andreas ИГРОФИЛЬМ (Фильм с Русской озвучкой)
2 months ago 02:01:31 1
Voidtrain | Video Game Soundtrack (Full OST)
3 months ago 00:28:24 1
Подарил ЖИЗНЬ, ЗАВОД, МАШИНУ И ЗУБЫ - Подарки на 100 000 000 Рублей. Исполняю мечты из комментариев.
5 months ago 00:29:42 3
Как сохранить завод ИЗГТ во время кризиса? Беремся за любую работу. Новые проекты
5 months ago 01:08:19 4
Би-2 - «Письма и песни в Крокусе» г. Москва
5 months ago 00:36:24 1
Laço Gutta fita n° 05
6 months ago 02:10:49 1
MET GALA 2024 🌟 Это заговор? 😱 Детальный разбор спрятанных пасхалок. Кто облажался по полной?
6 months ago 00:20:43 1
Боксёр и сумоист о боях и драках, диете и тренировках, мечтах и воздержании
6 months ago 01:41:25 1
ЕГЭ 2023 профильная математике. Разбираем Дальний Восток
6 months ago 01:47:39 1
Родион Клюев - долгий путь к инди игре мечты (ПИЛИМ, ТРЕМ. Подкаст о разработке игр)