Опануйте Spark, Databricks, Kafka, dbt та Airflow, щоб перетворювати великі дані на дієві рішення.
Денис Кулемза
Senior Data Engineer в Intellias

які хочуть будувати ефективніші пайплайни зі Spark, Kafka та dbt, шукають стабільніші флоу та можливості кращої оркестрації через Airflow
які хочуть зрозуміти, який вигляд мають дані за лаштунками: від потоків до моделювання, а також хочуть отримати більше контролю над даними, з якими працюють
які хочуть перейти в data-напрям, прокачати роботу з логами, подіями, схемами та краще розуміти архітектуру сучасних data-пайплайнів
- навчитеся налаштовувати середовище у Snowflake, зможете реалізовувати ELT/ETL-сценарії
- будете автоматизувати процеси за допомогою Kafka та Airflow
- зрозумієте, як інтегрувати інструменти Big Data у бізнес-процеси
- застосовуватимете найкращі практики роботи з Big Data на основі реальних кейсів
Опануєте Apache Spark, Databricks, Kafka, Snowflake, dbt, Airflow, AWS Athena, Power BI, щоб проєктувати стабільні системи обробки даних — від збору до візуалізації.
Побудуєте повний цикл обробки даних: збір, трансформація, перевірка якості, збереження та візуалізація.
Дізнаєтесь, як перевіряти дані на точність, налаштовувати тести в dbt й автоматизувати контроль якості в пайплайнах.

