Чем предстоит заниматься:
- Разработка и оптимизация архитектуры Хранилища данных, проектирование слоев данных;
- Создание, поддержка и оптимизация высоконагруженных ETL-процессов;
- Интеграция данных из внутренних/внешних источников (API, файловые хранилища, БД);
- Работа с BigData и стримингом;
- Коммуникация с бизнес-аналитиками и формализация требований, дата-инженерами и архитекторами;
- Проведение код ревью и шеринг экспертизы с коллегами(проведение митапов, техническая консультация).
Требования:
- От 4 лет опыта в разработке и поддержке хранилищ данных;
- Отличные знания SQL, опыт оптимизации сложных запросов и работы с большими объёмами данных;
- Опыт работы с DBT;
- Проектирование и разработка ETL-процессов;
- Разработка real-time и near real-time pipeline’ов обработки/загрузки данных;
- Глубокие знания и практический опыт работы с Hadoop (HDFS, Hive, Spark) и Trino;
- Работа с Airflow и Docker;
- Опыт работы с GIT;
- Уверенные знания Python;
- Разговорный английский на уровне B1 (Intermediate).
- Настройка систем мониторинга процессов ETL;
- Знание основ Data Governance и compliance (GDPR).