Consultant Expérimenté Cloud Data F/H
Casablanca (DES)
Deloitte
Insights zu unseren Diensleistungen im Bereich Audit, Consulting, Financial Advisory, Risk Adivisory und Tax sowie unseren zahlreichen Industrien.« Tous nos postes sont ouverts au télétravail »
Rejoindre Deloitte, c'est dire oui à une expérience qui a du sens, celle où les rencontres et les missions vous poussent à grandir chaque jour. C’est évoluer dans un environnement de travail basé sur la confiance, la transmission et l’intelligence collective pour construire l’avenir de nos clients. Un avenir que nous voulons plus responsable, plus durable et respectueux de l’environnement en prenant des initiatives concrètes à notre échelle.
Nous rejoindre, c’est aussi dire oui à une entreprise attachée au bien-être, et à l’inclusion sans distinction de nos collaborateurs.
Et vous, prêts à dire #ISayYes à votre futur chez Deloitte ?
Deloitte Extended Services, basé à Casablanca est une filiale à 100% de Deloitte France et constitue un centre de responsabilité à part entière.
En support de différentes member firmes, Deloitte Extended Services mobilise ses talents au service de clients de toutes tailles et de tous secteurs, couvrant une large palette d'offres : Audit et Risk Advisory, Consulting, juridique & fiscal et fonctions supports. Notre Delivery Center se positionne également comme un centre d'expertises en matière de nouvelles technologies au Maroc ainsi qu'au sein du Groupe Deloitte. Nos consultants et nos experts travaillent sur des projets de grande envergure, avec une diversité de missions et de secteurs à l’échelle internationale.
Quel sera votre rôle dans la #TeamDeloitte ?
Vous intégrez notre équipe AI&Data en tant que Consultant expérimenté pour intervenir sur des missions variées visant à accompagner nos clients dans les projets de transformation data Analytics et IA. A ce titre, vous occuperez les responsabilités suivantes :
- Participer aux différentes phases du projet : conception et spécification d'un besoin, production et test des composants, livraison et correctifs,
- Collaborer avec les différents acteurs de nos projets en appliquant les principes des méthodologies agiles,
- Concevoir et modélisez des architectures de données optimisées sur les plateformes cloud : AWS/Snwoflake/Azure/GCP,
- Rédiger les spécifications technico-fonctionnelles en se basant sur les besoins métiers,
- Développer des solutions d’ingestion des données (ETL/ ELT) sur les plateformes,
- Concevoir des solutions delta lakes pour répondre aux divers besoins des Data Analysts/Data Engineers et Data Scientist,
- Optimiser des flux et des interfaces de données et respecter des normes et bonnes pratiques de développement,
- Assurer le support, la maintenance évolutive et corrective des solutions en Mode Run,
- Rédiger des procédures techniques et la description des incidents/problèmes et leur résolution,
- Reporter au manager AIM l’état d’avancement des travaux, remonter les risques, alertes et proposer des solutions et plans de remédiation.
Vous grandissez au sein d’une équipe où se mêlent pluridisciplinarité, expertise pointue, esprit d'entreprendre et forte cohésion. Tout au long de votre expérience vous développez et renforcez un set de compétences grâce aux programmes de formations proposés. Vous pourrez contribuer à la vie du Cabinet (recrutement des équipes, animation de formation, développement commercial, manager RH…).
Et si c’était vous ?
- Vous êtes titulaire d’un Bac+5 d'une école d'ingénieurs ou de commerce avec une spécialisation en DATA (BI, Big data, Data Science…) et bénéficiez d’une expérience de 2 ans minimum dans le développement Big Data,
- Vous avez des compétences notamment :
- Expérience dans le développement autour des langages Python/Pyspark/Iscala,
- Expérience dans le développement de solutions cloud sur AWS/AZURE/GCP,
- Expérience dans la modélisation et la mise en place des entrepôts de données,
- Expérience dans la mise en place des solutions API sur le cloud (AWS AppSync, Azure API Management).
- Vous avez une expérience autour des frameworks BigData (Hadoop, Spark, Kafka, …),
- Vous avez une très bonne connaissance des normes de développement,
- Vous possédez une connaissance approfondie de la gestion des projets et des méthodologies de delivery,
- Vous faites preuve d’une bonne capacité d’analyse et de synthèse,
- Vous maîtrisez le français et l’anglais à l’oral et à l’écrit.
* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰
Tags: APIs Architecture AWS Azure Big Data Consulting Data Analytics ELT ETL GCP Hadoop Kafka PySpark Python Spark
More jobs like this
Explore more career opportunities
Find even more open roles below ordered by popularity of job title or skills/products/technologies used.