Чем предстоит заниматься
- поиск, сбор, обработка и анализ источников данных;
- агрегация и расчеты аналитических показателей;
- обработка структурированных и неструктурированных данных;
- написание ETL;
- работа с базами данных (Hadoop, Postgresql, Clickhouse);
- написание скриптов для выгрузок данных (SQL, Python) и их автоматизация (Airflow);
- Создание дашбордов, визуализация в redash
- Поддержание в работоспособном виде дашбордов
Требования
- Опыт работы с airflow, hadoop;
- Уверенное знание SQL, Python;
- Знание базовых алгоритмов и структур хранения данных.
- Владение системами визуализации (power bi, tableau, redash)