đ§ Contexte de recrutement
Dans le cadre de la croissance rapide de nos cas dâusage data (produits, analytics, intelligence artificielle, support, automatisation), nous recrutons un·e Senior Data Engineer afin de structurer, fiabiliser et industrialiser notre plateforme de donnĂ©es.
Ce recrutement a pour objectifs :
D'accélérer notre capacité d'analyse en temps réel,
D'améliorer la qualité et la fiabilité des données streaming,
De garantir la scalabilité de notre stack data avec une approche DevOps,
De répondre aux besoins croissants des équipes métiers avec des données fraßches et fiables.
đŻ Vos missions
Au sein de lâĂ©quipe Data, en lien Ă©troit avec les Ă©quipes Produit, Tech et Business, vous interviendrez notamment sur les missions suivantes :
Conception, développement et maintenance de pipelines de données robustes, scalables et documentés (batch & streaming temps réel avec Kafka ou équivalent),
Architecture et implémentation de solutions de streaming de données pour les besoins métiers critiques,
ModĂ©lisation des donnĂ©es dans le data warehouse pour en faciliter lâanalyse (modĂšles mĂ©tiers clairs, maintenables et performants),
Mise en place de pratiques de data quality : monitoring, alerting, tests de fiabilité, observabilité complÚte,
Déploiement et gestion de l'infrastructure data avec des pratiques IaC (Terraform) et CI/CD,
Gestion des environnements de développement, staging et production avec séparation claire,
Contribution à la définition de l'architecture data, au choix des outils, et à la structuration des bonnes pratiques d'ingénierie DevOps.
Collaboration interne et externe :
Product Managers (besoins analytiques, instrumentation produit en temps réel),
Data Analysts (modélisation, visualisation, accessibilité des données streaming),
Software engineers (intégration de pipelines, logs, APIs, services, événements temps réel),
Ăquipes DevOps/SRE (infrastructure, monitoring, alerting),
Fournisseurs de données (partenaires, APIs externes, flux streaming).
đ ResponsabilitĂ©s et autonomie
Forte autonomie attendue sur la conception et la réalisation technique des solutions streaming,
Responsabilité de la fiabilité et de la performance des flux de données critiques en production,
Contribution aux arbitrages techniques et décisions d'architecture,
Mentorat possible de profils juniors ou intermédiaires,
Garantie de la scalabilité et de la résilience des systÚmes data en environnement critique.
đ ïž Environnement technique
L'ensemble de la nouvelle stack streaming est à concevoir. Vous participerez activement aux préconisations et aux choix techniques sur :
Les technologies de streaming (Kafka, Pulsar, Kinesis, Pub/Sub...)
L'orchestrateur (Airflow, Dagster...)
Les outils ELT/ETL temps réel
Les bonnes pratiques de data engineering, observabilité et DevOps
La stack existante :
đ ïž Infrastructure as Code : Terraform
đŠ Orchestration de conteneurs : Kubernetes
âïž Cloud : Google Cloud Platform (GCP) - BigQuery, Vertex AI
âïž Orchestration & automatisation : GitLab CI/CD -> ArgoCD
𧱠Modélisation et préparation des données : DBT (Data Build Tool)
đ Langage : Python
đ Visualisation : Looker Studio -> Metabase
đ» Monitoring : Grafana, logs centralisĂ©s, alerting