Data Engineer MS Fabric PySpark (H/F)

Rabat, Rabat , Morocco

SQLI

SQLI Digital Experience is a European digital company that defines, builds & grows the digital business value of international A-brands

View all jobs at SQLI

Apply now Apply later

Description de l'entreprise

Notre mission depuis 30 ans ? Être prĂ©sent au bon moment !​

Notre expertise ? Accompagner nos clients Ă  capter l’attention de l’utilisateur et transformer cette interaction furtive en une interaction mĂ©morable. C’est dans cette optique que nous accompagnons les entreprises dans la mise en Ɠuvre, et le pilotage de dispositifs digitaux pour une expĂ©rience utilisateur rĂ©inventĂ©e.​

La juste interaction, c’est quoi ? C’est capter notre attention au bon moment, au bon endroit et la convertir en envie et en confiance. Un Ă©quilibre subtil entre le trop et le trop peu. Entre le trop tĂŽt et le trop tard.​

Devenez SQLien et faites partie de cette grande aventure au sein d’une sociĂ©tĂ© Ă  taille humaine, mais avec de grandes ambitions. Nous sommes plus de 2200 talents sur plus de 13 pays et 3 continents.​

Notre culture ?​
Oser et crĂ©er.​

Description du poste

En tant qu’IngĂ©nieur Data, vous rejoindrez notre Ă©quipe data afin de participer Ă  des projets stratĂ©giques d’analyse de donnĂ©es et de mise en place de solutions de traitement de donnĂ©es Ă  grande Ă©chelle. Vous serez responsable de la conception, de l’optimisation et du dĂ©veloppement de pipelines de donnĂ©es sur des plateformes cloud, avec un focus sur l’utilisation de PySpark et Azure Data Factory.

Vos principales missions seront :

  • Concevoir, dĂ©velopper et maintenir des pipelines de donnĂ©es Ă  grande Ă©chelle utilisant PySpark.
  • Mettre en place des flux de donnĂ©es avec Azure Data Factory, en intĂ©grant des sources et destinations de donnĂ©es variĂ©es (SQL, Data Lakes, APIs, etc.).
  • Assurer l'intĂ©gration de donnĂ©es provenant de systĂšmes variĂ©s dans un environnement cloud (Azure).
  • Optimiser les performances des traitements de donnĂ©es (SQL, PySpark, etc.).
  • Collaborer avec les Ă©quipes mĂ©tier, data analysts et data scientists pour comprendre les besoins et proposer des solutions efficaces et scalables.
  • Participer Ă  la dĂ©finition de l’architecture des donnĂ©es et de la stratĂ©gie de gouvernance.
  • Mettre en place et assurer le monitoring des jobs de traitement de donnĂ©es (gestion des erreurs, gestion des performances).
  • Documenter les solutions mises en place et suivre les bonnes pratiques de dĂ©veloppement.
  • Participer Ă  l'amĂ©lioration continue des processus et outils existants.

Qualifications

Nous recherchons un candidat ayant une forte expertise technique en gestion et traitement de données à grande échelle avec les compétences suivantes :

Compétences techniques :

  • MaĂźtrise de PySpark pour le traitement de donnĂ©es massives en environnement distribuĂ©.
  • ExpĂ©rience significative dans la mise en place et la gestion de Azure Data Factory pour la crĂ©ation et l’orchestration de pipelines de donnĂ©es.
  • Solide expĂ©rience en bases de donnĂ©es relationnelles et non relationnelles (SQL, NoSQL).
  • Connaissance des outils de gestion de donnĂ©es dans l’écosystĂšme Azure (Azure Data Lake, Azure SQL Database, Azure Blob Storage, etc.).
  • Connaissances pratiques des services cloud Azure et de leur utilisation dans des solutions de traitement de donnĂ©es (Azure Databricks, Azure Synapse Analytics, etc.).
  • ExpĂ©rience avec des outils de gestion de versions (Git, Azure DevOps, etc.) et des bonnes pratiques de dĂ©veloppement logiciel.
  • Connaissance des concepts de Big Data et de l’optimisation des performances dans des environnements distribuĂ©s.

Aptitudes personnelles :

  • Autonomie, rigueur et sens du dĂ©tail.
  • Excellente capacitĂ© Ă  rĂ©soudre des problĂšmes techniques complexes.
  • Bonnes compĂ©tences en communication et capacitĂ© Ă  travailler en Ă©quipe.
  • Esprit d’analyse et capacitĂ© Ă  comprendre les besoins mĂ©tier pour proposer des solutions adaptĂ©es.

Formation et expérience :

  • Bac +5 en informatique, data science, ou dans un domaine Ă©quivalent.
  • Minimum de 3 ans d’expĂ©rience sur un poste similaire, avec une expĂ©rience confirmĂ©e en dĂ©veloppement sur PySpark et Azure Data Factory.

Informations supplémentaires

Pourquoi rejoindre notre équipe ?

  • Un environnement dynamique et innovant, au sein d’une Ă©quipe passionnĂ©e par les technologies de donnĂ©es.
  • La possibilitĂ© de travailler sur des projets d’envergure, Ă  la pointe des technologies cloud et Big Data.
  • Des opportunitĂ©s d’évolution et de formation continue pour dĂ©velopper vos compĂ©tences.
  • Un cadre de travail flexible et des avantages attractifs.
Apply now Apply later

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Job stats:  2  1  0
Category: Engineering Jobs

Tags: APIs Architecture Azure Big Data Databricks DevOps Git NoSQL Pipelines PySpark SQL

Perks/benefits: Career development Flex hours

Region: Africa
Country: Morocco

More jobs like this