Чем предстоит заниматься
- поиск, сбор, обработка и анализ источников данных
- агрегация и расчеты аналитических показателей
- обработка структурированных и неструктурированных данных
- написание ETL
- работа с базами данных (Hadoop, Postgresql, Clickhouse)
- написание скриптов для выгрузок данных (SQL, Python) и их автоматизация (Airflow)
- Создание дашбордов, визуализация в redash
- Поддержание в работоспособном виде дашбордов
Требования
- Опыт работы с airflow, hadoop
- Уверенное знание SQL, Python
- Знание базовых алгоритмов и структур хранения данных
- Владение системами визуализации (power bi, tableau, redash)