Чем предстоит заниматься:
- Проектирование и разработка аналитических витрин данных для целей отчетности на стеке технологий Scala/Python + Spark;
- Мониторинг и оптимизация процессов сборки витрин;
- Релизный процесс вывода витрин в ПРОМ;
- Контроль качества загружаемых данных, разработка автоматизированных инструментов для оценки качества данных;
- Предоставление экспертной поддержки внутренним потребителям по вопросам, связанным с использованием данных.
Требования:
- Техническое образование;
- Опыт работы 1 год + в качестве Data Engineer / Data Analyst / ETL Developer;
- Знание SQL (Postgres, Greenplum) на продвинутом уровне (аналитические функции, подзапросы, хранимые процедуры, оптимизация производительности);
- Python/Scala на уровне Middle;
- Знание и опыт работы с экосистемой Hadoop (HDFS, Hive, Spark) и любой СУБД;
- Знание основных понятий и концепций из области проектирования и построения DWH;
- Умение пользоваться терминалом Linux (знание основных команд и утилит);
- Знание Git.