Senior Data Engineer (H/F)

Koralplay recrute !

À propos

KORALPLAY part d’une idĂ©e simple :

Concevoir et développer des solutions logicielles innovantes pour les opérateurs de jeux et de paris sportifs en Afrique et au delà.

Disposant d’une solide expĂ©rience de l’univers des casinos, reconnu pour sa rigueur et sa maĂźtrise des rĂšgles, KORALPLAY a créé un systĂšme clĂ© en main qui s’articule autour de 3 pĂŽles :

  • fournisseur d’une plateforme de prise de paris sur des jeux de hasard conçus en partie par notre Ă©quipe R&D (paris sportifs, loteries instantanĂ©es et mutuelles, jeux virtuels).

  • des outils technologiques innovants et performants spĂ©cifiquement dĂ©diĂ©s Ă  la gestion des flux financiers et des risques inhĂ©rents aux paris sportifs et jeux en ligne.

  • un accompagnement conseil, terrain et SAV pour le dĂ©ploiement de ces solutions.

En 2025, l'ambition de Koralplay est d’enrichir son Ă©quipe de nouveaux talents pour continuer Ă  dĂ©velopper sa prĂ©sence sur ces marchĂ©s en forte croissance.

Descriptif du poste

🧭 Contexte de recrutement

Dans le cadre de la croissance rapide de nos cas d’usage data (produits, analytics, intelligence artificielle, support, automatisation), nous recrutons un·e Senior Data Engineer afin de structurer, fiabiliser et industrialiser notre plateforme de donnĂ©es.

Ce recrutement a pour objectifs :

  • D'accĂ©lĂ©rer notre capacitĂ© d'analyse en temps rĂ©el,

  • D'amĂ©liorer la qualitĂ© et la fiabilitĂ© des donnĂ©es streaming,

  • De garantir la scalabilitĂ© de notre stack data avec une approche DevOps,

  • De rĂ©pondre aux besoins croissants des Ă©quipes mĂ©tiers avec des donnĂ©es fraĂźches et fiables.

🎯 Vos missions

Au sein de l’équipe Data, en lien Ă©troit avec les Ă©quipes Produit, Tech et Business, vous interviendrez notamment sur les missions suivantes :

  • Conception, dĂ©veloppement et maintenance de pipelines de donnĂ©es robustes, scalables et documentĂ©s (batch & streaming temps rĂ©el avec Kafka ou Ă©quivalent),

  • Architecture et implĂ©mentation de solutions de streaming de donnĂ©es pour les besoins mĂ©tiers critiques,

  • ModĂ©lisation des donnĂ©es dans le data warehouse pour en faciliter l’analyse (modĂšles mĂ©tiers clairs, maintenables et performants),

  • Mise en place de pratiques de data quality : monitoring, alerting, tests de fiabilitĂ©, observabilitĂ© complĂšte,

  • DĂ©ploiement et gestion de l'infrastructure data avec des pratiques IaC (Terraform) et CI/CD,

  • Gestion des environnements de dĂ©veloppement, staging et production avec sĂ©paration claire,

  • Contribution Ă  la dĂ©finition de l'architecture data, au choix des outils, et Ă  la structuration des bonnes pratiques d'ingĂ©nierie DevOps.

Collaboration interne et externe :

  • Product Managers (besoins analytiques, instrumentation produit en temps rĂ©el),

  • Data Analysts (modĂ©lisation, visualisation, accessibilitĂ© des donnĂ©es streaming),

  • Software engineers (intĂ©gration de pipelines, logs, APIs, services, Ă©vĂ©nements temps rĂ©el),

  • Équipes DevOps/SRE (infrastructure, monitoring, alerting),

  • Fournisseurs de donnĂ©es (partenaires, APIs externes, flux streaming).

🔎 ResponsabilitĂ©s et autonomie

  • Forte autonomie attendue sur la conception et la rĂ©alisation technique des solutions streaming,

  • ResponsabilitĂ© de la fiabilitĂ© et de la performance des flux de donnĂ©es critiques en production,

  • Contribution aux arbitrages techniques et dĂ©cisions d'architecture,

  • Mentorat possible de profils juniors ou intermĂ©diaires,

  • Garantie de la scalabilitĂ© et de la rĂ©silience des systĂšmes data en environnement critique.

đŸ› ïž Environnement technique

L'ensemble de la nouvelle stack streaming est à concevoir. Vous participerez activement aux préconisations et aux choix techniques sur :

  • Les technologies de streaming (Kafka, Pulsar, Kinesis, Pub/Sub...)

  • L'orchestrateur (Airflow, Dagster...)

  • Les outils ELT/ETL temps rĂ©el

  • Les bonnes pratiques de data engineering, observabilitĂ© et DevOps

La stack existante :

  • đŸ› ïž Infrastructure as Code : Terraform

  • 📩 Orchestration de conteneurs : Kubernetes

  • ☁ Cloud : Google Cloud Platform (GCP) - BigQuery, Vertex AI

  • ⚙ Orchestration & automatisation : GitLab CI/CD -> ArgoCD

  • đŸ§± ModĂ©lisation et prĂ©paration des donnĂ©es : DBT (Data Build Tool)

  • 🐍 Langage : Python

  • 📊 Visualisation : Looker Studio -> Metabase

  • đŸ’» Monitoring : Grafana, logs centralisĂ©s, alerting

Profil recherché

📝 NIVEAU D'EXPÉRIENCE ATTENDU :

  • Minimum 6 ans d'expĂ©rience en data engineering avec un focus data streaming,

  • ExpĂ©rience significative dans des environnements tech critiques ou produits data-driven Ă  forte charge,

  • ExpĂ©rience avĂ©rĂ©e de gestion de projets data structurants en totale autonomie,

  • ExpĂ©rience de mise en production et maintenance d'architectures data complexes.

✅ COMPETENCES IMPERATIVES :

  • Excellente maĂźtrise de SQL et Python (niveau avancĂ©),

  • ExpĂ©rience significative avec les technologies de streaming (Kafka ou similaire),

  • ExpĂ©rience des architectures event-driven et microservices,

  • ExpĂ©rience confirmĂ©e en Infrastructure as Code (Terraform) et gestion d'environnements,

  • ExpĂ©rience d'un entrepĂŽt de donnĂ©es moderne (BigQuery ou Ă©quivalent) Ă  grande Ă©chelle,

  • MaĂźtrise des pratiques CI/CD et DevOps pour les pipelines data,

  • ExpĂ©rience de la gestion multi-environnements (dev/staging/prod) avec sĂ©paration claire,

  • Culture de la qualitĂ©, des tests automatisĂ©s, de la documentation et du monitoring,

  • Autonomie technique forte et capacitĂ© de leadership sur des projets complexes,

  • Sens produit et comprĂ©hension approfondie des enjeux mĂ©tiers temps rĂ©el,

  • Langue : Anglais professionnel requis.

✹ COMPETENCES SECONDAIRES APPRECIÉES :

  • MaĂźtrise d'un orchestrateur de workflow (Airflow, Dagster, etc.) en production,

  • Pratique approfondie des outils ELT/ETL modernes (Airbyte, DBT, etc.),

  • Expertise avancĂ©e en observabilitĂ© des donnĂ©es (Grafana, Prometheus, logs, mĂ©triques, alertes),

  • Connaissance des pratiques SRE (Site Reliability Engineering),

  • CapacitĂ© de communication et de vulgarisation des sujets data auprĂšs de profils non techniques.

Cette offre est idéale pour un profil senior cherchant à avoir un impact direct sur une architecture data moderne et critique, avec une forte composante streaming et DevOps.

👋 Pourquoi rejoindre Koralplay?

  • 🎯 Koralplay est une jeune entreprise en pleine croissance internationale et d’effectifs.

  • 🚀 Missions variĂ©es et stimulantes dans l’univers de l’iGaming.

  • đŸ€ Vous Ă©voluerez dans une entreprise construit autour de l’humain et de l’ambition.

  • đŸ—ïž Vous aimez que votre travail ait un rĂ©el impact sur l’entreprise et soit valorisĂ©.

  • 🏡 Vous bĂ©nĂ©ficierez de superbes locaux en plein coeur de Nantes (10mn de la gare).

✚ Les conditions du poste

  • 🏁 Data de dĂ©marrage : DĂšs que possible

  • 📍 Localisation : 75 rue PrĂ©fet Bonnefoy, 44 000 Nantes

  • đŸ’» Remote : Hybride

  • 💰 Salaire : Fourchette estimative entre 60-75k€ fixe brut selon le profil

  • 🕙 Horaires : FlexibilitĂ© horaire, statut Cadre au forfait jours

  • 📝 Avantages salariĂ©s : Mutuelle Alan, carte Swile, prime d’intĂ©ressement, forfait mobilitĂ© durable


Process de recrutement

Voici une idée du processus de recrutement :

  1. Echange téléphonique ou visio avec Jean-Charles, Recruteur (30/45mn)

  2. Entretien équipe avec Dorota, Lead Data et Valentin, Data engineer (1h en visio ou présentiel dans nos locaux)

  3. Etude de cas / Entretien technique Jérémie, Product Manager Data et Changwei, Data Analyst (1h en visio ou présentiel dans nos locaux)

  4. Entretien final avec Didier, COO (1h en visio ou présentiel dans nos locaux)

Informations complémentaires

  • Type de contrat : CDI
  • Lieu : Nantes
  • Niveau d'Ă©tudes : Bac +5 / Master
  • ExpĂ©rience : > 5 ans
  • TĂ©lĂ©travail ponctuel autorisĂ©
  • Salaire : entre 60000€ et 75000€ / an