Чем предстоит заниматься
- Разработка детального слоя и слоя витрин данных (DDS и DMT)
- Разработка процедур наполнения витрин данных
- Создание оптимальных решений по преобразованию, расчёту и хранению данных
- Оказание экспертной поддержки команде аналитиков
Требования
- Участие в проектах по созданию хранилищ данных/DWH/ЕХД/КХД/КИХ/data lake от 3 лет
- Опыт работы в роли разработчика PostgreSQL/Greenplum, Oracle, MS SQL, Hive не менее 3 лет
- Умение оптимизировать SQL-запросы
- Умение проектировать и реализовывать процедуры и функции
- Умение быстрого погружения в разработанный код
- Английский на уровне чтения технической документации
- Знание Python будет плюсом
- Опыт работы и настройки БД Greenplum и Clickhouse будет плюсом
- Опыт работы с Apache Airflow будет плюсом
- Опыт использования эко-системы Hadoop: HDFS, Hive, Spark будет плюсом
- Опыт работы с брокером сообщений Apache Kafka будет плюсом