Data Engineer Python / Scala / Spark - H/F

Neuilly-sur-Seine, France

Scalian

Human & technology to scale up sustainable performance

View all jobs at Scalian

Apply now Apply later

Description de l'entreprise

Dans le TOP10 des Sociétés de Conseil en Ingénierie en France, le Groupe SCALIAN intervient sur des activités de services en management de projets industriels, supply chain, architecture et développement de systèmes numériques embarqués, applicatifs de systèmes d'information et d'Intelligence artificielle dans des secteurs d’activité aussi variés que l’aéronautique, le spatial, l’automobile, le ferroviaire, les services, le luxe ou le retail etc.

Créée en 1989, SCALIAN compte aujourd’hui plus de 5500 collaborateurs répartis dans 11 pays et 15 implantations en France pour un chiffre d’affaires de 550 millions d’euros. SCALIAN travaille pour des grands Groupes du CAC40 sur des projets en AT ou au forfait.

Labellisée Great Place to Work, SCALIAN connait une croissance de 20% chaque année. 

Pourquoi SCALIAN ?

  • Parce que Scalian vous accompagne dans le développement de votre carrière : programme d'onboarding complet sur 1 an avec votre manager et votre RH, programmes de formation personnalisés, communautés techniques, événements internes
  • Parce que Scalian favorise la Qualité de Vie au Travail : certifications Great Place to Work® et Best Workplaces for Women, prime de cooptation, prime vacances, accord télétravail
  • Parce que Scalian développe une politique RSE concrète et ambitieuse : mobilité durable, actions environnementales, accord Handicap et mission handicap avec temps dédié

Description du poste

Nous recherchons un(e) Data Engineer Python / Scala / Spark - F/H à Paris. Vous jouerez un rôle clé dans la conception, la maintenance et l’optimisation des infrastructures de traitement de données dans un environnement cloud.

Au quotidien, vos missions seront les suivantes :

  • Analyser les besoins métiers et data pour concevoir des pipelines adaptés, performants et évolutifs.
  • Développer et maintenir des pipelines de données à l’aide de technologies comme Python, Scala et Spark, en garantissant leur robustesse et leur fiabilité.
  • Optimiser les performances des traitements distribués pour manipuler efficacement de grands volumes de données.
  • Assurer la qualité des données grâce à des processus de monitoring, de validation et de gestion des anomalies.
  • Collaborer avec les équipes de Data Scientists et Data Analysts pour répondre aux besoins des projets analytiques et opérationnels.

Environnement technique :

  • Python, Scala, Spark, Hadoop, Kafka, Kubernetes, SQL, environnement cloud (AWS, GCP ou Azure), outils d’orchestration (Airflow, Luigi), bases de données NoSQL (Cassandra, MongoDB).

Qualifications

  • Titulaire d’un Bac+5 en informatique, data science ou équivalent, vous justifiez d’au moins 3 ans d’expérience en ingénierie de données.
  • Vous maîtrisez les langages Python et Scala, ainsi que les frameworks de traitement distribué comme Spark.
  • Vous avez une expérience avérée sur des environnements cloud (AWS, GCP ou Azure) et en gestion de bases de données SQL/NoSQL.
  • Vous êtes rigoureux(se), organisé(e) et avez une forte capacité à collaborer avec des équipes variées et multidisciplinaires.
Apply now Apply later

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Job stats:  2  0  0
Category: Engineering Jobs

Tags: Airflow Architecture AWS Azure Cassandra GCP Hadoop Kafka Kubernetes MongoDB NoSQL Pipelines Python Scala Spark SQL

Regions: Europe Middle East
Country: France

More jobs like this