Data engineer
Casablanca, Morocco
Alter Solutions
Looking for an IT partner? We're an IT consulting company with expertise in Nearshore software development and Cybersecurity. Offices in 13 countriesCompany Description
ALTER SOLUTIONS est une société de conseil et d’expertise en technologies créée en 2006. Notre vocation est d’accompagner nos clients sur les enjeux technologiques et organisationnels de leur transformation digitale. Notre offre s’articule autour des expertises suivantes :
- Technologies & Software Delivery
- Cybersécurité
Avec 6 bureaux en France, au Portugal, en Allemagne et en Belgique, et plus de 700 collaborateurs, nous offrons un réseau d'experts qui garantit un large éventail de compétences et un soutien de proximité pour répondre au mieux aux besoins de nos clients.
Notre succès passant par le développement et l’épanouissement de chaque collaborateur, nous attachons beaucoup d’importance à offrir les meilleures conditions de travail possibles :
- Télétravail disponible sur une grande partie de nos missions
- Un environnement de travail en Flex Office disponible pour tous et tout le temps pour favoriser la communication et la collaborativité
- Des communautés d’experts pour partager et diffuser les compétences au sein du groupe
- Un encadrement projet et un suivi RH de proximité
- Des formations et certifications proposées annuellement
- Une valorisation des parcours d’expertise de nos consultants
Job Description
Vous intégrerez, au sein de notre delivery center de Casablanca, une équipe d’experts en développement de solutions logicielles pour une plateforme de données.
Vos missions seront les suivantes :
- Développement et optimisation de pipelines de données : Concevoir, construire et maintenir des pipelines ETL/ELT efficaces, évolutifs et fiables pour l’ingestion, le traitement et la transformation de grands volumes de données structurées et non structurées provenant de diverses sources.
- Modélisation et architecture des données : Concevoir et mettre en œuvre des modèles de données pour un stockage et une récupération optimaux. Jouer un rôle clé dans l’architecture, la conception et la mise en œuvre de nos solutions data lake et lakehouse, en veillant à leur évolutivité, leur performance et leur sécurité.
- Entreposage et technologies big data : Développer et gérer des solutions utilisant des plateformes modernes d’entrepôt de données et de technologies big data (par exemple, Apache Spark, entrepôts de données dans le cloud, systèmes de traitement distribué). L’expérience avec des technologies comme Snowflake ou Databricks est fortement valorisée.
- Développement Full-Stack pour les applications de données : Développer et maintenir des API pour l’accès aux données et l’intégration avec d’autres applications et services.
- Développement de tableaux de bord analytiques et de visualisations : Collaborer avec des analystes de données et des parties prenantes pour comprendre les besoins et créer des tableaux de bord analytiques interactifs et perspicaces à l’aide de technologies front-end (par ex., React) et d’outils BI.
- Qualité et gouvernance des données : Mettre en place des contrôles de qualité des données, des processus de validation et de surveillance pour garantir l’exactitude, la cohérence et la fiabilité des données. Respecter les meilleures pratiques en matière de gouvernance des données.
- Optimisation des performances : Surveiller et optimiser les performances des pipelines de données, des requêtes et des systèmes de stockage de données.
- Collaboration et mentorat : Travailler en étroite collaboration avec des équipes interfonctionnelles incluant des data scientists, des analystes, des chefs de produit et d’autres ingénieurs. Encadrer les membres juniors de l’équipe et promouvoir les meilleures pratiques en ingénierie des données et développement logiciel.
- Innovation et technologies émergentes : Se tenir informé des dernières tendances et technologies en ingénierie des données, big data, cloud computing et analytique, et identifier de manière proactive les opportunités d’innovation et d’amélioration.
Qualifications
Quel profil pour ce poste :
- Vous êtes issu(e) d’une formation Bac+5 (École d’ingénieur, Université ou équivalent …) en informatique
- Vous justifiez d’une expérience significative d'au moins 5 ans en développement logiciel avec un accent marqué sur l'ingénierie des données
Quelles compétences/connaissances pour ce poste :
- Solide maitrise du Python pour le traitement des données, le scripting et le développement d'applications
Expérience pratique avec un ou plusieurs frameworks de traitement big data (par ex., Apache Spark, Apache Flink) et solutions d’entrepôt de données dans le cloud (par ex., Snowflake, Amazon Redshift, Google BigQuery, Azure Synapse Analytics). Une expérience démontrable avec des plateformes comme Databricks ou similaires est un atout majeur.
Compréhension approfondie et expérience pratique des architectures de data lake et lakehouse.
Expérience avec diverses solutions de stockage de données (bases de données relationnelles, bases NoSQL, stockage d’objets comme AWS S3, Azure Blob Storage).
Bonne compréhension des processus ETL/ELT, des principes de modélisation de données et des outils d’orchestration de pipelines (par ex., Airflow).
Compétences avancées en SQL et expérience en optimisation de requêtes.
Expérience dans la création de tableaux de bord analytiques et de rapports à l’aide d’outils BI (par ex., Tableau, Power BI, Looker) ou de solutions front-end personnalisées.
Connaissances de base en développement d’API (RESTful APIs) et expérience d’intégration de services de données.
Familiarité avec les technologies front-end, en particulier React, pour la création d’interfaces utilisateur et de tableaux de bord analytiques.
Connaissance des systèmes de contrôle de version (par ex., Git) et des pratiques CI/CD.
Excellentes compétences en résolution de problèmes, en analyse et en dépannage.
Solides capacités de communication et de collaboration.
Compétences appréciées
Expérience avec d’autres langages de programmation tels que Java ou Scala.
Expertise approfondie sur plusieurs plateformes cloud (par ex., AWS, Azure, GCP) et leurs services de données variés.
Connaissance des technologies de conteneurisation (par ex., Docker, Kubernetes).
Expérience avec les technologies de traitement de flux (par ex., Kafka, Kinesis).
Compréhension des concepts d’apprentissage automatique et expérience dans le soutien aux opérations de MLOps.
Contributions à des projets open source dans le domaine des donnéess
- Anglais courant impératif
Si vous souhaitez relever de nouveaux défis et même si vous ne disposez pas de toutes ces compétences, n’hésitez pas à postuler. Nous nous engageons à être très réactif dans la gestion des candidatures.
* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰
Tags: Airflow APIs Architecture AWS Azure Big Data BigQuery CI/CD Databricks Docker ELT ETL Flink GCP Git Java Kafka Kinesis Kubernetes Looker MLOps NoSQL Open Source Pipelines Power BI Python React Redshift Scala Snowflake Spark SQL Tableau
More jobs like this
Explore more career opportunities
Find even more open roles below ordered by popularity of job title or skills/products/technologies used.