Чем предстоит заниматься:
- Работа с многочисленными источниками данных.
- Способность работать с нейронными сетями;
- Построение real-time event striming потоков Kafka to Clickhouse.
- Ведением документации.
- Проектированием и разработкой DWH. (если подрядчики создадут его, иначе создание DWH) Построение различных по сложности ETL и data ingestion пайплайнов
- Настройка инструментария для аналитики Python, SQL Clickhouse, Airflow, REST API, Kafka, знание принципов архитектурного построения DWH
Требования:
- Профильное высшее образование;
- Уверенные знания Python;
- Опыт работы с брокерами сообщений Kafka/RabbitMQ;
- Отличное знание SQL (желательно ClickHouse);
- Понимание принципов REST API и умение работать по протоколу HTTP(S).
- Внимательность и аналитический склад ума;
- Желание постоянно развиваться; трудолюбие;
- Способность быстро переключаться между задачами.
