Data Engineer PySpark (H/F)

Rabat, Morocco

SQLI

SQLI Digital Experience is a European digital company that defines, builds & grows the digital business value of international A-brands

View all jobs at SQLI

Apply now Apply later

Description de l'entreprise

Notre mission depuis 30 ans ? Être présent au bon moment !​

Notre expertise ? Accompagner nos clients à capter l’attention de l’utilisateur et transformer cette interaction furtive en une interaction mémorable. C’est dans cette optique que nous accompagnons les entreprises dans la mise en œuvre, et le pilotage de dispositifs digitaux pour une expérience utilisateur réinventée.​

La juste interaction, c’est quoi ? C’est capter notre attention au bon moment, au bon endroit et la convertir en envie et en confiance. Un équilibre subtil entre le trop et le trop peu. Entre le trop tôt et le trop tard.​

Devenez SQLien et faites partie de cette grande aventure au sein d’une société à taille humaine, mais avec de grandes ambitions. Nous sommes plus de 2200 talents sur plus de 13 pays et 3 continents.​

Notre culture ?​
Oser et créer.​

Description du poste

En tant qu’Ingénieur Data, vous rejoindrez notre équipe data afin de participer à des projets stratégiques d’analyse de données et de mise en place de solutions de traitement de données à grande échelle. Vous serez responsable de la conception, de l’optimisation et du développement de pipelines de données sur des plateformes cloud, avec un focus sur l’utilisation de PySpark et Azure Data Factory.

Vos principales missions seront :

  • Concevoir, développer et maintenir des pipelines de données à grande échelle utilisant PySpark.
  • Mettre en place des flux de données avec Azure Data Factory, en intégrant des sources et destinations de données variées (SQL, Data Lakes, APIs, etc.).
  • Assurer l'intégration de données provenant de systèmes variés dans un environnement cloud (Azure).
  • Optimiser les performances des traitements de données (SQL, PySpark, etc.).
  • Collaborer avec les équipes métier, data analysts et data scientists pour comprendre les besoins et proposer des solutions efficaces et scalables.
  • Participer à la définition de l’architecture des données et de la stratégie de gouvernance.
  • Mettre en place et assurer le monitoring des jobs de traitement de données (gestion des erreurs, gestion des performances).
  • Documenter les solutions mises en place et suivre les bonnes pratiques de développement.
  • Participer à l'amélioration continue des processus et outils existants.

Qualifications

Nous recherchons un candidat ayant une forte expertise technique en gestion et traitement de données à grande échelle avec les compétences suivantes :

Compétences techniques :

  • Maîtrise de PySpark pour le traitement de données massives en environnement distribué.
  • Expérience significative dans la mise en place et la gestion de Azure Data Factory pour la création et l’orchestration de pipelines de données.
  • Solide expérience en bases de données relationnelles et non relationnelles (SQL, NoSQL).
  • Connaissance des outils de gestion de données dans l’écosystème Azure (Azure Data Lake, Azure SQL Database, Azure Blob Storage, etc.).
  • Connaissances pratiques des services cloud Azure et de leur utilisation dans des solutions de traitement de données (Azure Databricks, Azure Synapse Analytics, etc.).
  • Expérience avec des outils de gestion de versions (Git, Azure DevOps, etc.) et des bonnes pratiques de développement logiciel.
  • Connaissance des concepts de Big Data et de l’optimisation des performances dans des environnements distribués.

Aptitudes personnelles :

  • Autonomie, rigueur et sens du détail.
  • Excellente capacité à résoudre des problèmes techniques complexes.
  • Bonnes compétences en communication et capacité à travailler en équipe.
  • Esprit d’analyse et capacité à comprendre les besoins métier pour proposer des solutions adaptées.

Formation et expérience :

  • Bac +5 en informatique, data science, ou dans un domaine équivalent.
  • Minimum de 3 ans d’expérience sur un poste similaire, avec une expérience confirmée en développement sur PySpark et Azure Data Factory.

Informations supplémentaires

Pourquoi rejoindre notre équipe ?

  • Un environnement dynamique et innovant, au sein d’une équipe passionnée par les technologies de données.
  • La possibilité de travailler sur des projets d’envergure, à la pointe des technologies cloud et Big Data.
  • Des opportunités d’évolution et de formation continue pour développer vos compétences.
  • Un cadre de travail flexible et des avantages attractifs.
Apply now Apply later

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Job stats:  2  1  0
Category: Engineering Jobs

Tags: APIs Architecture Azure Big Data Databricks DevOps Git NoSQL Pipelines PySpark SQL

Perks/benefits: Career development Flex hours

Region: Africa
Country: Morocco

More jobs like this