Чем предстоит заниматься:
- Анализировать более 600+ таблиц из разных источников на основе OpenMetaData, чтобы выработать алгоритм по подготовке данных для CDP.
- Проектировать и разрабатывать сервисы, обрабатывающие миллиарды событий пользователей.
- Решать сложные инженерные задачи: расчеты метрик, построение витрин.
- Работать с потоками данных и интеграциями между CDP и другими системами 2ГИС.
- Влиять на архитектурные решения и качество кода.
- Работать в распределенной команде, взаимодействуя с аналитиками, продактами и инженерами других направлений.
Требования:
- Опыт анализа данных от 3–5 лет с использованием SQL.
- Опыт работы с Apache Spark.
- Опыт работы с Airflow.
- Опыт работы с Python.
- Самостоятельность и проактивность – ты не ждешь постановок, а предлагаешь решения.
- Желание разбираться в бизнес-логике и создавать продукт, а не просто писать код.
Будет плюсом:
- Опыт работы с highload-системами.
- Опыт работы с Kafka, ClickHouse или другими системами потоковой и аналитической обработки данных.
- Опыт проектирования архитектуры данных или платформенного кода.
- Понимание подходов к персонализации, сегментации или real-time аналитике.
- Понимание, как работает S3 хранилище.
