Регистрируйся и активируй грант на 4000 рублей:
Систематизировать и извлекать из данных ценность помогает DataOps — одна из самых молодых и обсуждаемых концепций в ИТ. Как и в случае DevOps, DataOps — не только принципы организации работы с данными, но и инструменты, облегчающие задачу, и архитектурные паттерны работы с этими инструментами.
Узнать о реальных возможностях использования новых инструментов по обработке данных помогает обмен опытом с коллегами.
00:00 Интро
04:40 Готовим данные по-облачному: как собрать витрины в S3 на временных кластерах Data Proc. Дмитрий Морозов, Glowbyte Consulting
22:50 Как организовать работу с объектным хранилищем для Apache Spark.
Михаил Епихин,
55:38 Airflow in production: как обустроить использование Airflow для оркестрации Spark-задач в мультитенантной среде.
Донат Фетисов, билайн
1:22:50 Trino - единый sql или как поджойнить все со всем.
Павел Тарасов,
01:46:47 Apache Hudi: Update и Delete в data lake без СМС и регистрации
Никита Василюк, Lamoda
1 view
145
33
2 days ago 02:15:12 1
DataOps Community Meetup
2 days ago 00:57:59 1
Обработка данных на Apache Airflow в Yandex Cloud
3 years ago 01:00:22 8
Павел Воронов «Осознанная разработка продукта на базе DataOps или от DevOps к DataOps»