Senior Data Engineer – Lead / Dev Lead PySpark / Fin Ops. (H/F)

Paris, IDF, France

Segula Technologies

Welcome to the corporate website of the SEGULA Technologies Group, a world leader in engineering services for major industrial players in the automotive, health and aeronautics sectors.

View all jobs at Segula Technologies

Apply now Apply later

Description de l'entreprise

SEGULA Technologies est un groupe d’ingénierie mondial intervenant sur tous les grands secteurs industriels : automobile, aéronautique, énergie, ferroviaire, naval, pharmacie et pétrochimie.
Présent dans 30 pays, avec plus de 140 implantations et 15 000 collaborateurs, SEGULA place l’innovation au cœur de ses projets pour accompagner ses clients, de la conception à la mise en œuvre opérationnelle.

Description du poste

Dans le cadre d’un projet de refonte de pipeline de données et de modernisation des pratiques de Data Engineering, nous recherchons un Consultant Data Engineer expérimenté pour accompagner nos équipes métiers et techniques dans l’analyse, la modélisation et la mise en œuvre de solutions cloud natives performantes.

Mission : 

  • Analyser et cartographier les modèles de données actuels avec les experts métiers : flux inter-SI, règles de validation, filtrage et transformations existantes.

  • Assister les architectes dans la conception d’un nouveau pipeline de données exploitant les services cloud (AWS / Azure).

  • Accompagner l’équipe de développement sur l’implémentation technique : bonnes pratiques de Data Engineering, outillage (ETL, Glue, Spark), structuration des bases et traitements distribués.

  • Implémenter une culture agile autour de la donnée : cérémonies, itérations, coordination avec les équipes transverses.

  • Documenter les modèles de données, les règles de transformation et les flux interconnectés.

Qualifications

  • Profil expérimenté 4 ans d'expériences minimum.

  • Maîtrise des outils de traitement de la donnée : Spark (Scala ou Python), ETL (Glue, Airflow), DataBricks.

  • Expérience avec les bases de données relationnelles et fichiers distribués (Parquet, S3, RDS).

  • Bonne connaissance des architectures cloud AWS et/ou Azure.

  • Maîtrise des outils DevOps : Git, Terraform.

  • Capacité à documenter et maintenir un catalogue de données.

Informations supplémentaires

  • Expériences significatives en Data Engineering sur des pipelines batch ou streaming.

  • Pratique des services cloud orientés data : Glue, Airflow, OpenSearch, S3.

  • Contexte multi-SI avec échanges entre plusieurs sources partenaires

Apply now Apply later

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Job stats:  1  0  0

Tags: Agile Airflow Architecture AWS Azure Databricks DevOps Engineering ETL Git OpenSearch Parquet Pipelines PySpark Python Scala Spark Streaming Terraform

Region: Europe
Country: France

More jobs like this