Cloud Data Engineer SQL Python | Devoteam Maroc Nearshore
Rabat, Morocco
Applications have closed
Devoteam
Transform your bussines with Devoteam, the AI-driven tech consulting. Become a leading company embracing AI for sustainable value.Description de l'entreprise
Chez Devoteam, nous sommes des « Digital Transformakers ». Le respect, la franchise et la passion animent chaque jour notre tribu.Â
Ensemble, nous aidons nos clients Ă remporter la bataille du Digital : du conseil Ă la mise en Ćuvre de technologies innovantes, jusquâĂ lâadoption des usages.
Cloud, Cybersecurity, Data, DevOps, Fullstack Dev, Low Code, RPA nâont plus aucun secret pour notre tribu !Â
Nos 10 000+ collaborateurs sont certifiés, formés et accompagnés au quotidien pour relever de nouveaux challenges innovants.
Leader du Cloud, de la CybersĂ©curitĂ© et de la Data en EMEA, le Groupe Devoteam a rĂ©alisĂ© en 2022 un chiffre dâaffaires de 1,036 milliard dâeuros et se donne pour ambition de le doubler dans les 5 annĂ©es Ă venir.
Devoteam Maroc, acteur de rĂ©fĂ©rence dans les expertises IT depuis plus de 30 ans (350+ consultants) accĂ©lĂšre sa croissance en dĂ©veloppant ses activitĂ©s dâexpertise en nearshore pour rĂ©pondre aux besoins de nos clients français, europĂ©ens et moyen orientaux.
Es-tu prĂȘt(e) Ă nous rejoindre et relever ensemble ce dĂ©fi ?
Description du poste
Cloud Data Engineer SQL Python @ Devoteam Data Driven.
Dans un monde oĂč les sources de donnĂ©es sont en constante Ă©volution, Devoteam Data Driven aide ses clients Ă transformer leurs donnĂ©es en informations exploitables et les rendre ainsi impactantes pour plus de valeur business.
Data Driven adresse les 3 grandes dimensions suivantes : Data Strategy, Data for Business et Data Foundation en appui dâexpertise chez ses clients pour les rendre encore plus performants et compĂ©titifs au quotidien.
Au sein des Ă©quipes Nearshore de Devoteam Maroc, tu rejoindras les Ă©quipes de la tribu Data Foundation : une Ă©quipe enthousiaste de Data Engineers, de Data Ops, de Tech lead architectes et de chefs de projets travaillant sur les plateformes et lâĂ©cosystĂšme Data : designer, construire et moderniser les plateformes et solutions Data, concevoir les data pipelines en mettant lâaccent sur lâagilitĂ© et le DevOps appliquĂ© Ă la Data.Â
Tu seras le maillon essentiel pour fournir les donnĂ©es fiables et valorisĂ©es aux mĂ©tiers leur permettant de crĂ©er leurs nouveaux produits et services et tu appuieras aussi les Ă©quipes Data Science en leur fournissant les environnements de donnĂ©es âdatalabâ nĂ©cessaires pour mener Ă bien leurs dĂ©marches exploratoires dans lâĂ©laboration et lâindustrialisation de leurs modĂšles, Ă savoir :
- Concevoir, développer et maintenir des pipelines de données efficaces pour extraire, transformer et charger les données de différentes sources vers des systÚmes de stockage de données de type Lakehouse (datalake, datawarehouse)
- Maitriser SQL (DDL et DML) afin de dĂ©finir les modĂšles de donnĂ©es et rĂ©aliser les extractions, les chargements et les transformations sur les donnĂ©es Â
- Sâappuyer sur les fonctionnalitĂ©s offertes par les plateformes de donnĂ©es Cloud pour traiter les donnĂ©es Ă grande Ă©chelle de maniĂšre rapide et efficace
- Identifier et rĂ©soudre les problĂšmes de performance dans les pipelines de donnĂ©es, en optimisant les requĂȘtes SQL, en ajustant la configuration des ressources et en mettant en Ćuvre les meilleures pratiques.
- Collaborer avec d'autres Ă©quipes pour intĂ©grer les pipelines de donnĂ©es avec des bases de donnĂ©es SQL, noSQL, du streaming Kafka, des systĂšmes de fichiers de type buckets âŠ
- Si besoin, concevoir et mettre en Ćuvre des pipelines de traitement des donnĂ©es en temps rĂ©el en utilisant les fonctionnalitĂ©s de streaming des plateformes de donnĂ©es Cloud
- Mettre en Ćuvre les mĂ©canismes de sĂ©curitĂ© pour protĂ©ger les donnĂ©es sensibles en utilisant les fonctionnalitĂ©s d'authentification, d'autorisation RBAC/ABAC, de chiffrement, d'anonymisation des donnĂ©es
- Documenter le code, les pipelines de données, les schémas de données et les décisions de conception pour assurer leur compréhension et maintenabilité
- Mettre en place les tests unitaires et d'intégration pour assurer la qualité du code et déboguer les problÚmes éventuels dans les pipelines de données
Tu donneras ta pleine mesure par la maßtrise de tes fondamentaux techniques, ta connaissance sur le bout des doigts des données que tu traites et que tu manipules et surtout en affirmant ta volonté à comprendre les besoins et le métier pour lequel tu travailleras.
Ton terrain de jeu : la distribution, lâĂ©nergie, la finance, lâindustrie, la santĂ© et les transports avec plein de cas dâusage et de nouveaux dĂ©fis Data Ă relever ensemble notamment la Data dans le Cloud.
Ce quâon attend de toi.
- Que tu aies foi dans la DataÂ
- Que tu aides ton collĂšgue
- Que tu sois gentil avec tes RHs
- Que tu tâĂ©clates dans ta mission
- Et que les Codingame ne te fassent pas peur (tu ne seras pas seul : on tâaidera)
Et plus sérieusement :
- Que tu maĂźtrises les fondamentaux de la Data : SQL et les data pipelines : lâingestion, le traitement, la valorisation et lâexposition des donnĂ©esÂ
- Que tu souhaites tâinvestir sur les nouveaux paradigmes de la Data : Cloud, DaaS, SaaS, DataOps, AutoML et que tu tâengages Ă nos cĂŽtĂ©s dans cette aventure
- Que tu aimes travailler en mode agile
- Que tu réalises des pipelines data performants
- Que tu entretiennes cette double compétence Dev & Infra
- Que tu sois proche des métiers, que tu les accompagnes dans la définition de leurs besoins, leurs nouveaux produits & services : dans des ateliers, en définissant les user stories et en éprouvant au travers de POC
- Et coder est ta passion : tu travailles ton code, tu commit en Open Source, tu fais un peu de compétition alors rejoins nous
Ce quâon tâapportera.
- Un manager à tes cÎtés en toute circonstance
- Une communautĂ© Data oĂč tu y trouveras ta place : Ideation Lab, Hackathon, Meetup ...
- Un parcours de formation et de certification via âmyDevoteam Academyâ sur les technologies du moment et Ă venir : Snowflake, GCP BigQuery, dbt, Databricks, Spark, Azure Data, Elastic.io, Kafka, Ansible, Docker, k8s âŠ
- Un renfort de ton expertise dans le domaine de la Data pour devenir un Tech Lead Cloud (Azure, AWS, GCP âŠ), un architecte des futures plateformes Data, un expert DataOps au service des mĂ©tiers (Data as a Service) et de la Data Science (AutoML), un Data Office Manager en pilotage des projets Data Product, bref plein de nouveaux jobs en perspective âŠ
- La possibilitĂ© de tâinvestir personnellement : ĂȘtre formateur interne, leader de communautĂ©, participer aux entretiens candidats, aider Ă dĂ©velopper nos offres et pourquoi pas manager ta propre Ă©quipe ...
Quelques exemples de missions.
- La conception, la mise en place et le support des pipelines data
- Le déploiement de solutions data dans une démarche Agile et DevOps
- Le dĂ©veloppement dâAPI REST pour exposer les donnĂ©es
- Le support et lâexpertise sur les technologies Data et les solutions dĂ©ployĂ©es : Snowflake, BigQuery, Azure, AWS, Spark, Kafka, Elasticsearch, ...
Qualifications
Quels atouts pour rejoindre lâĂ©quipe ?
- DiplÎme d'ingénieur ou équivalent
- Expert dans le domaine de la Data : 3 Ă 5 ans dâexpĂ©rience minimum post diplĂŽme
- Maßtrise et pratique avérée de SQL
- Pratique de Python et des librairies dâanalyse des donnĂ©es tel Pandas
- Connaissance et pratique des outils dâorchestration tel Apache Airflow
- Des certifications seront un plus spécialement sur Snowflake, GCP BigQuery, Azure
- MaĂźtrise des principes ETL/ELT
- Pratique des outils ETL/ELT tels Talend Data Integration, dbt, Airbyte sont un plusÂ
- Pratique de Kafka et Kafka Streams sont un plus aussi
- Une double compétence dév (python, scala, java) infra (linux, ansible, k8s)
- Une bonne connaissance des API Rest et microservices
- MaĂźtrise des outils d'intĂ©gration CI/CD (Jenkins, Gitlab) et du travail en mode agileÂ
- Un excellent relationnel, tu aimes travailler en équipe
- Un sens prononcé du service et engagé dans tes activités
- Savoir communiquer et Ă©couter en toutes circonstances et Ă©crire sans fautes âŠ
- and you are fluent in english, indeed !
Informations supplémentaires
Informations additionnelles.
- Poste basé au Maroc dans nos locaux de Rabat et/ou Casablanca et ouvert uniquement en CDI
- Poste hybride avec possibilité de télétravail
- En rejoignant Devoteam, vous aurez la possibilitĂ© dâĂ©changer avec vos pairs, de partager leur expĂ©rience et de dĂ©velopper vos compĂ©tences en rejoignant la communautĂ© Data Driven rassemblant les consultants des 18 pays du Groupe
Restons connectés :
- https://www.linkedin.com/company/devoteam
- https://twitter.com/devoteam
- https://www.facebook.com/devoteam
* Salary range is an estimate based on our AI, ML, Data Science Salary Index đ°
Tags: Agile Airflow Ansible APIs AWS Azure BigQuery CI/CD Databricks DataOps Data pipelines Data strategy dbt DDL DevOps Docker Elasticsearch ELT ETL Finance GCP GitLab Java Jenkins Kafka Kubernetes Linux Microservices NoSQL Open Source Pandas Pipelines Python Robotics RPA Scala Snowflake Spark SQL Streaming Talend
Perks/benefits: Career development
More jobs like this
Explore more career opportunities
Find even more open roles below ordered by popularity of job title or skills/products/technologies used.