DATA Engineer Sénior GCP
Rabat, Morocco
ALTEN
Leader in Engineering and IT Services, ALTEN supports its customers’ development strategies in the areas of innovation, R&D and technological information systems.Description de l'entreprise
ALTEN DELIVERY CENTER MAROC, Filiale du leader mondial de l’ingénierie et du conseil en technologie créé en 2008 et présent à Fès, Rabat, Tétouan et Casablanca, compte aujourd’hui plus de 2300 consultants et vise un centre d’excellence de 3100 consultants ALTENiens en fin 2027. ALTEN Maroc est désormais un acteur majeur de l’insertion professionnelle des ingénieurs. Nous accompagnons nos clients, leaders de l’Industrie dans leurs stratégies de développement dans les domaines de l’automobile, du ferroviaire, de l’IT, de la R&D et des Télécoms & Médias.
Rejoindre ALTEN MAROC c’est bénéficier :
- Des parcours professionnels diversifiés avec des opportunités de carrière, une mobilité interne, sectorielle, géographique et métiers.
- Des formations certifiantes et diplômantes.
- Des événements réguliers pour combiner bien être et performance.
Description du poste
Intégré(e) dans les équipes Supply, le/la consultant(e) aura pour mission de :
- Concevoir, développer et maintenir des solutions de traitement de données massives en utilisant les technologies Big Data et les outils GCP.
- Mettre en place et optimiser les pipelines de données, de l’analyse des performances et de l’amélioration continue des solutions existantes
Qualifications
Diplômé(e) d’un Bac+5 en école d'ingénieur ou équivalent universitaire avec une spécialisation en informatique, ou justifiant d'une expérience significative équivalente
Expérience : de plus de 7 ans en GCP
Une expérience dans le secteur du commerce de détail ou de la grande distribution serait un plus.
Compétences techniques :
- Maîtriser les technologies Cloud de Google Cloud Platform (GCP) pour la gestion des données, l’orchestration et le déploiement des solutions Big Data.
- Avoir une expertise approfondie de BigQuery et BigTable pour le stockage, la manipulation et l’analyse de données à grande échelle.
- Maîtriser les langages de programmation Scala ou Java pour le développement de solutions Big Data, avec une expérience significative dans l’un des deux.
- Avoir une expérience pratique avec l’écosystème Hadoop et ses outils associés comme Spark et Apache Kafka pour le traitement distribué de données.
- Etre capable de concevoir et d’implémenter des pipelines de données complexes en utilisant des outils comme Apache Kafka et Avro pour la gestion des flux de données.
- Maîtriser les concepts de base de Kafka pour la conception et la mise en œuvre de systèmes de messagerie distribués.
- Avoir une bonne compréhension des bases de données NoSQL, notamment Cassandra et BigTable, pour le stockage et la récupération de données non structurées.
- Avoir une expérience avec les moteurs de recherche comme Elastic Search pour la recherche et l’analyse de données textuelles.
- Maîtriser les outils de CI/CD et les pratiques de développement logiciel pour l’automatisation du déploiement et de l’intégration continue.
- Avoir une expérience pratique avec les outils de déploiement et d’orchestration comme Jenkins, GitLab, Kubernetes, Docker et Ansible.
- Etre capable de travailler avec Docker pour la création et la gestion des conteneurs d’applications.
Compétences linguistiques :
- Avoir une excellente communication écrite et orale, avec la capacité de produire des livrables et des reportings de haute qualité.
Soft Skills :
- Avoir un esprit d’analyse et d’amélioration continue, avec la capacité d’évaluer le code et ses impacts, ainsi que de remettre en question les solutions existantes pour les améliorer.
- Avoir la capacité de prendre du recul et d’évaluer les problématiques avec objectivité, en proposant des solutions d’amélioration.
- Avoir un esprit d’équipe et la capacité de collaborer efficacement avec les membres de l’équipe pour atteindre des objectifs communs.
- Maîtriser les concepts d’Agilité (Scrum, Sprint Planning, Backlog…).
Informations supplémentaires
Au plaisir de vous lire !
* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰
Tags: Ansible Avro Big Data BigQuery Bigtable Cassandra CI/CD Docker GCP GitLab Google Cloud Hadoop Java Jenkins Kafka Kubernetes NoSQL Pipelines R R&D Scala Scrum Spark
More jobs like this
Explore more career opportunities
Find even more open roles below ordered by popularity of job title or skills/products/technologies used.