In Lecture 10 we discuss the use of recurrent neural networks for modeling sequence data. We show how recurrent neural networks can be used for language modeling and image captioning, and how soft spatial attention can be incorporated into image captioning models. We discuss different architectures for recurrent neural networks, including Long Short Term Memory (LSTM) and Gated Recurrent Units (GRU).
35 views
9
3
7 months ago 01:28:25 2
Д.Павлов: Новый взгляд на фундаментальную физику - Гиперболическая реальность
7 months ago 01:27:50 1
Who Really Runs the World? | The Secret Behind Secret Societies
7 months ago 02:29:03 1
L’effondrement de notre civilisation industrielle
7 months ago 01:02:35 1
«Сон Петра I» Виват, Россия! (1721-1725) | Курс Владимира Мединского | Петровские времена
7 months ago 00:50:12 1
Александр Меншиков и другие | Курс Владимира Мединского | Петровские времена
7 months ago 01:07:12 1
Неизвестный Грибоедов – гусар, дуэлянт, дипломат | Курс Владимира Мединского | XIX век
7 months ago 01:40:25 1
L’influence de la mafia sur la Maison Blanche, de Roosevelt à Trump - JEAN-FRANÇOIS GAYRAUD
7 months ago 01:51:23 1
Harvard CS50 (2023) – Full Computer Science University Course
7 months ago 01:31:39 1
Александр II: отдал Аляску и Курилы, замирил Кавказ, покорил Ср. Азию и едва не взял Константинополь