Cloud Data Engineer SQL Python | Devoteam Maroc Nearshore

Rabat, Morocco

Devoteam

Transform your bussines with Devoteam, the AI-driven tech consulting. Become a leading company embracing AI for sustainable value.

View all jobs at Devoteam

Description de l'entreprise

Chez Devoteam, nous sommes des « Digital Transformakers ». Le respect, la franchise et la passion animent chaque jour notre tribu. 

Ensemble, nous aidons nos clients à remporter la bataille du Digital : du conseil à la mise en Ɠuvre de technologies innovantes, jusqu’à l’adoption des usages.

Cloud, Cybersecurity, Data, DevOps, Fullstack Dev, Low Code, RPA n’ont plus aucun secret pour notre tribu ! 

Nos 10 000+ collaborateurs sont certifiés, formés et accompagnés au quotidien pour relever de nouveaux challenges innovants.

Leader du Cloud, de la CybersĂ©curitĂ© et de la Data en EMEA, le Groupe Devoteam a rĂ©alisĂ© en 2022 un chiffre d’affaires de 1,036 milliard d’euros et se donne pour ambition de le doubler dans les 5 annĂ©es Ă  venir.

Devoteam Maroc, acteur de rĂ©fĂ©rence dans les expertises IT depuis plus de 30 ans  (350+ consultants) accĂ©lĂšre sa croissance en dĂ©veloppant ses activitĂ©s d’expertise en nearshore pour rĂ©pondre aux besoins de nos clients français, europĂ©ens et moyen orientaux.

Es-tu prĂȘt(e) Ă  nous rejoindre et relever ensemble ce dĂ©fi ?

Description du poste

Cloud Data Engineer SQL Python @ Devoteam Data Driven.

Dans un monde oĂč les sources de donnĂ©es sont en constante Ă©volution, Devoteam Data Driven aide ses clients Ă  transformer leurs donnĂ©es en informations exploitables et les rendre ainsi impactantes pour plus de valeur business.

Data Driven adresse les 3 grandes dimensions suivantes : Data Strategy, Data for Business et Data Foundation en appui d’expertise chez ses clients pour les rendre encore plus performants et compĂ©titifs au quotidien.

Au sein des Ă©quipes Nearshore de Devoteam Maroc, tu rejoindras les Ă©quipes de la tribu Data Foundation : une Ă©quipe enthousiaste de Data Engineers, de Data Ops, de Tech lead architectes et de chefs de projets travaillant sur les plateformes et l’écosystĂšme Data : designer, construire et moderniser les plateformes et solutions Data, concevoir les data pipelines en mettant l’accent sur l’agilitĂ© et le DevOps appliquĂ© Ă  la Data. 

Tu seras le maillon essentiel pour fournir les donnĂ©es fiables et valorisĂ©es aux mĂ©tiers leur permettant de crĂ©er leurs nouveaux produits et services et tu appuieras aussi les Ă©quipes Data Science en leur fournissant les environnements de donnĂ©es “datalab” nĂ©cessaires pour mener Ă  bien leurs dĂ©marches exploratoires dans l’élaboration et l’industrialisation de leurs modĂšles, Ă  savoir :

  • Concevoir, dĂ©velopper et maintenir des pipelines de donnĂ©es efficaces pour extraire, transformer et charger les donnĂ©es de diffĂ©rentes sources vers des systĂšmes de stockage de donnĂ©es de type Lakehouse (datalake, datawarehouse)
  • Maitriser SQL (DDL et DML) afin de dĂ©finir les modĂšles de donnĂ©es et rĂ©aliser les extractions, les chargements et les transformations sur les donnĂ©es  
  • S’appuyer sur les fonctionnalitĂ©s offertes par les plateformes de donnĂ©es Cloud pour traiter les donnĂ©es Ă  grande Ă©chelle de maniĂšre rapide et efficace
  • Identifier et rĂ©soudre les problĂšmes de performance dans les pipelines de donnĂ©es, en optimisant les requĂȘtes SQL, en ajustant la configuration des ressources et en mettant en Ɠuvre les meilleures pratiques.
  • Collaborer avec d'autres Ă©quipes pour intĂ©grer les pipelines de donnĂ©es avec des bases de donnĂ©es SQL, noSQL, du streaming Kafka, des systĂšmes de fichiers de type buckets 

  • Si besoin, concevoir et mettre en Ɠuvre des pipelines de traitement des donnĂ©es en temps rĂ©el en utilisant les fonctionnalitĂ©s de streaming des plateformes de donnĂ©es Cloud
  • Mettre en Ɠuvre les mĂ©canismes de sĂ©curitĂ© pour protĂ©ger les donnĂ©es sensibles en utilisant les fonctionnalitĂ©s d'authentification, d'autorisation RBAC/ABAC, de chiffrement, d'anonymisation des donnĂ©es
  • Documenter le code, les pipelines de donnĂ©es, les schĂ©mas de donnĂ©es et les dĂ©cisions de conception pour assurer leur comprĂ©hension et maintenabilitĂ©
  • Mettre en place les tests unitaires et d'intĂ©gration pour assurer la qualitĂ© du code et dĂ©boguer les problĂšmes Ă©ventuels dans les pipelines de donnĂ©es

Tu donneras ta pleine mesure par la maßtrise de tes fondamentaux techniques, ta connaissance sur le bout des doigts des données que tu traites et que tu manipules et surtout en affirmant ta volonté à comprendre les besoins et le métier pour lequel tu travailleras.

Ton terrain de jeu : la distribution, l’énergie, la finance, l’industrie, la santĂ© et les transports avec plein de cas d’usage et de nouveaux dĂ©fis Data Ă  relever ensemble notamment la Data dans le Cloud.

Ce qu’on attend de toi.

  • Que tu aies foi dans la Data 
  • Que tu aides ton collĂšgue
  • Que tu sois gentil avec tes RHs
  • Que tu t’éclates dans ta mission
  • Et que les Codingame ne te fassent pas peur (tu ne seras pas seul : on t’aidera)

Et plus sérieusement :

  • Que tu maĂźtrises les fondamentaux de la Data : SQL et les data pipelines : l’ingestion, le traitement, la valorisation et l’exposition des donnĂ©es 
  • Que tu souhaites t’investir sur les nouveaux paradigmes de la Data : Cloud, DaaS, SaaS, DataOps, AutoML et que tu t’engages Ă  nos cĂŽtĂ©s dans cette aventure
  • Que tu aimes travailler en mode agile
  • Que tu rĂ©alises des pipelines data performants
  • Que tu entretiennes cette double compĂ©tence Dev & Infra
  • Que tu sois proche des mĂ©tiers, que tu les accompagnes dans la dĂ©finition de leurs besoins, leurs nouveaux produits & services : dans des ateliers, en dĂ©finissant les user stories et en Ă©prouvant au travers de POC
  • Et coder est ta passion : tu travailles ton code, tu commit en Open Source, tu fais un peu de compĂ©tition alors rejoins nous

Ce qu’on t’apportera.

  • Un manager Ă  tes cĂŽtĂ©s en toute circonstance
  • Une communautĂ© Data oĂč tu y trouveras ta place : Ideation Lab, Hackathon, Meetup ...
  • Un parcours de formation et de certification via “myDevoteam Academy” sur les technologies du moment et Ă  venir : Snowflake, GCP BigQuery, dbt, Databricks, Spark, Azure Data, Elastic.io, Kafka, Ansible, Docker, k8s 

  • Un renfort de ton expertise dans le domaine de la Data pour devenir un Tech Lead Cloud (Azure, AWS, GCP 
), un architecte des futures plateformes Data, un expert DataOps au service des mĂ©tiers (Data as a Service) et de la Data Science (AutoML), un Data Office Manager en pilotage des projets Data Product, bref plein de nouveaux jobs en perspective 

  • La possibilitĂ© de t’investir personnellement : ĂȘtre formateur interne, leader de communautĂ©, participer aux entretiens candidats, aider Ă  dĂ©velopper nos offres et pourquoi pas manager ta propre Ă©quipe ...

Quelques exemples de missions.

  • La conception, la mise en place et le support des pipelines data
  • Le dĂ©ploiement de solutions data dans une dĂ©marche Agile et DevOps
  • Le dĂ©veloppement d’API REST pour exposer les donnĂ©es
  • Le support et l’expertise sur les technologies Data et les solutions dĂ©ployĂ©es : Snowflake, BigQuery, Azure, AWS, Spark, Kafka, Elasticsearch,  ...

Qualifications

Quels atouts pour rejoindre l’équipe ?

  • DiplĂŽme d'ingĂ©nieur ou Ă©quivalent
  • Expert dans le domaine de la Data : 3 Ă  5 ans d’expĂ©rience minimum post diplĂŽme
  • MaĂźtrise et pratique avĂ©rĂ©e de SQL
  • Pratique de Python et des librairies d’analyse des donnĂ©es tel Pandas
  • Connaissance et pratique des outils d’orchestration tel Apache Airflow
  • Des certifications seront un plus spĂ©cialement sur Snowflake, GCP BigQuery, Azure
  • MaĂźtrise des principes ETL/ELT
  • Pratique des outils ETL/ELT tels Talend Data Integration, dbt, Airbyte sont un plus 
  • Pratique de Kafka et Kafka Streams sont un plus aussi
  • Une double compĂ©tence dĂ©v (python, scala, java) infra (linux, ansible, k8s)
  • Une bonne connaissance des API Rest et microservices
  • MaĂźtrise des outils d'intĂ©gration CI/CD (Jenkins, Gitlab) et du travail en mode agile 
  • Un excellent relationnel, tu aimes travailler en Ă©quipe
  • Un sens prononcĂ© du service et engagĂ© dans tes activitĂ©s
  • Savoir communiquer et Ă©couter en toutes circonstances et Ă©crire sans fautes 

  • and you are fluent in english, indeed !

Informations supplémentaires

Informations additionnelles.

  • Poste basĂ© au Maroc dans nos locaux de Rabat et/ou Casablanca et ouvert uniquement en CDI
  • Poste hybride avec possibilitĂ© de tĂ©lĂ©travail
  • En rejoignant Devoteam, vous aurez la possibilitĂ© d’échanger avec vos pairs, de partager leur expĂ©rience et de dĂ©velopper vos compĂ©tences en rejoignant la communautĂ© Data Driven rassemblant les consultants des 18 pays du Groupe

Restons connectés :

  • https://www.linkedin.com/company/devoteam
  • https://twitter.com/devoteam
  • https://www.facebook.com/devoteam

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Job stats:  0  0  0
Category: Engineering Jobs

Tags: Agile Airflow Ansible APIs AWS Azure BigQuery CI/CD Databricks DataOps Data pipelines Data strategy dbt DDL DevOps Docker Elasticsearch ELT ETL Finance GCP GitLab Java Jenkins Kafka Kubernetes Linux Microservices NoSQL Open Source Pandas Pipelines Python Robotics RPA Scala Snowflake Spark SQL Streaming Talend

Perks/benefits: Career development

Region: Africa
Country: Morocco

More jobs like this