
Data Engineer, Москва.
▷ Работодатель: Додо Пицца
(профиль,отзывы)
💰 From 0 RUR. | Режим: office |
10
* This listing is inactive or archived *
О компании:
Dodo Engineering — IT-подразделение международной компании Dodo Brands, развивающей 3 бренда:
- Додо Пицца: более 814 пиццерий в 16 странах;
- Дринкит: 5 кофеен в Москве;
- Донер 42: 5 донерных по России.
О всей команде Data Team
Цель нашей команды - сделать Dodo Brands data-driven компанией.
Сейчас над этими задачами работают команды Business Intelligence и Data Engineering. Кроме этого в компании в разных доменах есть свои ML инженеры и data analysts.
Data Engineering отвечает за своевременную доставку данных до DataLake, создание Data Platform - децентрализованной платформы данных для ML, data analytics, reporting и dashboarding.
Стек: Python, Spark (Batch и Structured Streaming на платформе Databricks), DeltaLake, Azure Data Explorer, Azure EventHubs (Kafka API), Kafka Connect (Debezium), GitHub Actions, MLFlow, Superset.
Обязанности:
- Создание инфраструктуры и инструментов для работы с данными для других команд.
- развертывание и обслуживание data сервисов: Superset, Kafka Connect и т.д.,
- CI/CD для пайплайнов,
- автоматизация вгрузок из разных источников (CDC, события),
- интеграция данных платформы с другими системами,
- автоматизация lineage, data quality,
- подготовка платформы к Data Mesh подходу.
- Помощь другим командам в работе с данными, с интеграциями, с нашими инструментами, с оптимизациями (центр экспертизы по работе с аналитическими данными).
- Проектирование модели данных детального слоя под бизнес требования с оптимальным хранением данных.
- MLOps: CI/CD для ML проектов, создание тулинга для вывода ML-моделей в production.
- Доработка Spark коннекторов к Azure ресурсам, доработка Superset’а, написание платформенных библиотек (именно поэтому здорово, если ты умеешь программировать).
Требования:
- Уверенное владение одним из языков программирования: Python, Scala, Java.
- Построение пайплайнов данных с мониторингом и логированием; опыт в оптимизации/изменении существующих пайплайнов.
- Spark, Spark Streaming (у нас Structured Streaming)
- Apache Kafka и/или RabbitMQ.
- System design
- Дизайн DWH.
- Хорошие навыки в моделировании данных как для классических реляционных моделей, так и для DWH.
Будет плюсом:
- MPP/Cloud data warehouse решения (Snowflake, Redshift, BigQuery, Vertica, Teradata, Greenplum, Azure DWH, ClickHouse и т.д.).
- Как писать и оптимизировать сложные SQL запросы.
- Дизайн распределенных систем.
- Опыт MLOps
- Опыт работы с Hudi или Iceberg или Delta Lake.
- Умеете балансировать между MVP и собственным перфекционизмом
- Работа в офисе или удаленная работа
- Расширенная ДМС с первого рабочего дня
- Оплата профильных конференций, курсов, профессиональной литературы
- Партнерские программы (скидки на изучение английского языка Skyeng, 50% компенсация психологической помощи на платформе Alter);
- Митапы, лекции, воркшопы и интенсивы по вашему направлению у нас в офисе.
- Прокачка навыков публичных выступлений (сделаем из вас крутого спикера).
- Помощь в написании профессиональных статей и раскрутку вас, как автора, на профильных ресурсах (Хабр, VC).