Чем предстоит заниматься
- Разрабатывать SQL-скрипты для реализации аналитических алгоритмов и построения дашбордов в BI-инструментах (Superset, BI), включая оптимизацию запросов под большие объёмы;
- Работать с данными полного цикла: чтение из источников, парсинг, нормализация, построение витрин и обеспечение их актуальности и качества;
- Участвовать в проектировании и развитии DWH: моделирование, регламенты загрузки, контроль качества данных;
- Разрабатывать и сопровождать ETL-процессы на базе ClickHouse/PostgreSQL; интеграции между системами;
- Взаимодействовать с бизнес-заказчиками по направлениям ФЛ/ЮЛ/CRM: уточнение требований, перевод бизнес-гипотез в метрики и отчёты;
- Поддерживать документацию (схемы, SLA по витринам, описание источников и трансформаций) и задачи в Jira.
Требования
- Опыт коммерческой работы дата-аналитиком или инженером данных в банке/финтехе либо сильный продуктовый/BI-бэкграунд;
- Уверенный SQL и профилирование запросов;
- Опыт с ClickHouse, PostgreSQL, Greenplum;
- Понимание принципов DWH и построения витрин: моделирование, SCD, инкрементальные загрузки, контроль качества;
- Практика в ETL и работе с BI: Superset, DataLens (или аналоги);
- Навыки командной работы и ведения задач в Jira; аккуратная документация.
Будет плюсом:
- Опыт разработки DAG в Airflow и базовая администрирование пайплайнов;
- Владение одним или несколькими инструментами/языками: Spark, Docker, Python/Scala, Hadoop, Pandas, Java, Kafka;
- Опыт работы в крупных банке/финтехе.