Data Engineer MS Fabric PySpark (H/F)
Rabat, Rabat , Morocco
SQLI
SQLI Digital Experience is a European digital company that defines, builds & grows the digital business value of international A-brandsDescription de l'entreprise
Notre mission depuis 30 ans ? Ătre prĂ©sent au bon moment !â
Notre expertise ? Accompagner nos clients Ă capter lâattention de lâutilisateur et transformer cette interaction furtive en une interaction mĂ©morable. Câest dans cette optique que nous accompagnons les entreprises dans la mise en Ćuvre, et le pilotage de dispositifs digitaux pour une expĂ©rience utilisateur rĂ©inventĂ©e.â
La juste interaction, câest quoi ? Câest capter notre attention au bon moment, au bon endroit et la convertir en envie et en confiance. Un Ă©quilibre subtil entre le trop et le trop peu. Entre le trop tĂŽt et le trop tard.â
Devenez SQLien et faites partie de cette grande aventure au sein dâune sociĂ©tĂ© Ă taille humaine, mais avec de grandes ambitions. Nous sommes plus de 2200 talents sur plus de 13 pays et 3 continents.â
Notre culture ?â
Oser et crĂ©er.â
Description du poste
En tant quâIngĂ©nieur Data, vous rejoindrez notre Ă©quipe data afin de participer Ă des projets stratĂ©giques dâanalyse de donnĂ©es et de mise en place de solutions de traitement de donnĂ©es Ă grande Ă©chelle. Vous serez responsable de la conception, de lâoptimisation et du dĂ©veloppement de pipelines de donnĂ©es sur des plateformes cloud, avec un focus sur lâutilisation de PySpark et Azure Data Factory.
Vos principales missions seront :
- Concevoir, développer et maintenir des pipelines de données à grande échelle utilisant PySpark.
- Mettre en place des flux de données avec Azure Data Factory, en intégrant des sources et destinations de données variées (SQL, Data Lakes, APIs, etc.).
- Assurer l'intégration de données provenant de systÚmes variés dans un environnement cloud (Azure).
- Optimiser les performances des traitements de données (SQL, PySpark, etc.).
- Collaborer avec les équipes métier, data analysts et data scientists pour comprendre les besoins et proposer des solutions efficaces et scalables.
- Participer Ă la dĂ©finition de lâarchitecture des donnĂ©es et de la stratĂ©gie de gouvernance.
- Mettre en place et assurer le monitoring des jobs de traitement de données (gestion des erreurs, gestion des performances).
- Documenter les solutions mises en place et suivre les bonnes pratiques de développement.
- Participer à l'amélioration continue des processus et outils existants.
Qualifications
Nous recherchons un candidat ayant une forte expertise technique en gestion et traitement de données à grande échelle avec les compétences suivantes :
Compétences techniques :
- Maßtrise de PySpark pour le traitement de données massives en environnement distribué.
- ExpĂ©rience significative dans la mise en place et la gestion de Azure Data Factory pour la crĂ©ation et lâorchestration de pipelines de donnĂ©es.
- Solide expérience en bases de données relationnelles et non relationnelles (SQL, NoSQL).
- Connaissance des outils de gestion de donnĂ©es dans lâĂ©cosystĂšme Azure (Azure Data Lake, Azure SQL Database, Azure Blob Storage, etc.).
- Connaissances pratiques des services cloud Azure et de leur utilisation dans des solutions de traitement de données (Azure Databricks, Azure Synapse Analytics, etc.).
- Expérience avec des outils de gestion de versions (Git, Azure DevOps, etc.) et des bonnes pratiques de développement logiciel.
- Connaissance des concepts de Big Data et de lâoptimisation des performances dans des environnements distribuĂ©s.
Aptitudes personnelles :
- Autonomie, rigueur et sens du détail.
- Excellente capacité à résoudre des problÚmes techniques complexes.
- Bonnes compétences en communication et capacité à travailler en équipe.
- Esprit dâanalyse et capacitĂ© Ă comprendre les besoins mĂ©tier pour proposer des solutions adaptĂ©es.
Formation et expérience :
- Bac +5 en informatique, data science, ou dans un domaine équivalent.
- Minimum de 3 ans dâexpĂ©rience sur un poste similaire, avec une expĂ©rience confirmĂ©e en dĂ©veloppement sur PySpark et Azure Data Factory.
Informations supplémentaires
Pourquoi rejoindre notre équipe ?
- Un environnement dynamique et innovant, au sein dâune Ă©quipe passionnĂ©e par les technologies de donnĂ©es.
- La possibilitĂ© de travailler sur des projets dâenvergure, Ă la pointe des technologies cloud et Big Data.
- Des opportunitĂ©s dâĂ©volution et de formation continue pour dĂ©velopper vos compĂ©tences.
- Un cadre de travail flexible et des avantages attractifs.
* Salary range is an estimate based on our AI, ML, Data Science Salary Index đ°
Tags: APIs Architecture Azure Big Data Databricks DevOps Git NoSQL Pipelines PySpark SQL
Perks/benefits: Career development Flex hours
More jobs like this
Explore more career opportunities
Find even more open roles below ordered by popularity of job title or skills/products/technologies used.