Как на Spark Structured Streaming работать с данными в HDFS и Kafka // Курс Spark Developer

Этапом, следующим за пониманием принципов батч-обработки в Spark, является изучение концепций streaming API, позволяющим в режиме, приближенном к реальному времени, обрабатывать данные из разных источников. В ходе вебинара Вы узнаете: ⁃ Какие источники данных могут быть обработаны стриминговым API Spark (Рассмотрим конкретные примеры с данными на HDFS и Kafka). ⁃ Как осуществить подключение к таким источникам ⁃ Как группировать данные Кому подходит урок: ⁃ Начинающим и специалистам в области аналитики данных, Data Engeneering Результат урока: ⁃ Понимание концепции возможностей Streaming API Spark ⁃ Умение подключаться к источникам данных и работа в режиме, приближенном к реальному времени. «Spark Developer» - Преподаватель: Андрей Чучалов - старший разработчик службы больших данных в “Вымпелком - информационные технологии“ Пройдите опрос по итогам мероприятия - Следите за новостями проекта: - Telegram: - ВКонтакте: - LinkedIn: - Хабр:
Back to Top