CDI - Data Engineer (H/F)
PARIS, Île-de-France, France
À propos :
Partagez une aventure humaine au cœur de l’équipe hermes.com
Hermès offre aujourd’hui une plateforme e-commerce dans 34 sites et propose ainsi à ses clients un parcours de vente omnicanal. Pilotée de manière agile, cette plateforme s’inscrit dans un programme stratégique et international.
Les métiers du digital, chez Hermès, s’articulent autour de quatre pôles dynamiques étroitement interconnectés : l’e-commerce, les opérations digitales, la technique et la data performance. Comme un artisan fabrique un sac de A à Z, les équipes digitales interviennent de la réflexion stratégique à la mise en production des projets.
Rejoindre Hermès Digital, c’est participer à un projet unique, intégré et 100% agile dans un contexte de forte croissance et de déploiement international. C’est évoluer dans un environnement qui réunit les langages, les technologies, les infrastructures, les outils et les méthodes les plus performants du marché.
Descriptif du poste :
En tant que Data Engineer, vous travaillerez au sein d’Hermès Digital, et serez intégré·e à l’équipe digitale « data et performance », qui est en charge principalement de l’analyse de la donnée digitale d’Hermès (hermes.com), de sa transformation, la garantie sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS)
Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR.
Des connaissances sur les problématiques liées à l’e-Commerce sont un plus.
Principales Activités :
Garder et développer un Data Lake/Data Warehouse de qualité
Pour garantir des analyses de qualité, il faut garantir une donnée de qualité en entrée.
Vous travaillerez avec les différents membres d’équipe (développeurs, Data Analysts, ML Ops) pour assurer une donnée de qualité (propre, sécurisée, anonymisée, etc.)
Pour cela vous travaillerez principalement en SQL et Python pour garantir la qualité de la donnée.
Vous suivrez avec l’équipe les évolutions des flux de données via un Data Lineage existant et en cours d’évolution.
Refonte de la plateforme Data.
Vous participerez aux efforts de refonte et industrialisation de la plateforme Data, qui comprendra :
- Retooling : Efforts de réflexions sur les outils les plus adaptés pour une plateforme robuste
- Architecture de code : Vous participerez aux efforts de restructuration de la base de code (SQL / Python)
- Infrastructure as Code (IaC) : vous participerez à la mise en place de notre stratégie terraform
- Conteneurisation d’applicatif via Docker (ex : dbt)
Ingestion/Transformation de données (en batch et stream)
Vous avez pour principale mission d’accompagner l’équipe Data et Performance dans ses activités de transformation de données via :
- Des pipelines de transformation en SQL dans des outils d’Analytics Engineerings (DataForm, dbt, etc.)
- La migration de codes python vers du SQL
- L’écriture de code python spécifique pour récupérer et transformer de la donnée hébergée par des partenaires et servie via des APIs. Ce code est bien souvent déployé dans le service Cloud Functions de GCP.
Nous utilisons des flux de données via les technologies Kafka et Cloud PubSub. Dans ce cadre, votre mission consistera à :
- Suivre et coordonner les efforts de développements des différents flux avec les équipes qui fournissent la donnée
- Aider au développement des runners dans les Cloud AWS pour récupérer la donnée depuis Kafka et l’envoyer vers PubSub dans GCP.
- Vérifier le bon niveau de suppression et anonymisation de la donnée en accordance avec la GDPR.
- Préciser la stratégie de backfill (rétro-récupération), en cas de donnée manquante ou interruption de service
Participation aux opérations lié au développement de code.
Pour garantir un service de qualité dans une équipe en forte croissance, il faut maintenir du code de qualité. Pour cela, vous participerez à l’écriture, déploiement et maintien du code (généralement en python) lié à la manipulation et transformation de données. Ces activités liées au développement de code (Dev Ops) sont essentielles pour le travail collaboratif à l’échelle. Ainsi vous aiderez l’équipe Data à développer et consolider ses activités de développement de code et ses standards de qualité.
De l’expérience dans ce domaine (utilisation de Git, écriture de tests unitaires, merge de branches, CI) est attendue pour cette mission.
Profil recherché :
- Une expérience de 4 ans au minimum sur des missions de Data Engineering.
- Formation Bac +5 : Ecole d’ingénieur ou Master Big Data, Mathématiques ou équivalent possédant une culture Internet et une sensibilité aux problématiques digitales e-commerce, vous avez une première expérience en entreprise
- Organisé, rigoureux, curieux, autonome, bonne expression écrite et aisance relationnelle
- Maîtrise du Pack Office indispensable
- Un bon niveau d’anglais est important pour échanger avec différents interlocuteurs internationaux par oral ainsi que par écrit
- De bonnes capacités d’auto-formation sur les aspects techniques sont fortement appréciées.
Compétences Comportementales :
Vous êtes bon·ne communicant·e (vous savez présenter, à l’oral comme à l’écrit, de manière synthétique et pédagogique des thématiques techniques pointues) et avez un bon sens relationnel, vous savez faire preuve d’empathie. Vous êtes rigoureux·se et réactif·ve.
Environnent technique :
Stack technique : Google Cloud Platform (GCP), BigQuery, DataForm, Cloud PubSub, Notebooks Python, LookerStudio, PowerBI, Docker, GitLab CI, DataForm/dbt
- Une bonne maîtrise des langages Python et SQL est indispensable
- Une connaissance minimum des technologies de streaming (Kafka, PubSub) est nécessaire
- De l’expérience sur des outils d’orchestration comme AirFlow est fortement recommandé
- Des connaissances sur le langage Terraform sont souhaitées.
- De l’expérience spécifique sur BigQuery est fortement recommandée
- Une connaissance des outils de GCP (ou cloud équivalent) est fortement recommandée
- De l’expérience sur des ETL (transformation de données) est fortement recommandée
- De l’expérience en développement de code collaboratifs (dev Ops.) est préférée
Bénéfices pour vous :
- Vous rejoignez la Maison Hermès, artisan de produits d’exception !
- Vous êtes au cœur d’un projet passionnant.
- Vous intégrez une équipe bienveillante soucieuse de la qualité de sa data et de l’évolution de ses membres.
- Vous bénéficiez d’une grande autonomie et vos prises d’initiatives sont encouragées.
* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰
Tags: Agile Airflow APIs Architecture AWS Big Data BigQuery Data warehouse dbt Docker E-commerce Engineering ETL GCP Git GitLab Google Cloud Kafka Machine Learning Pipelines Power BI Python SQL Streaming Terraform
More jobs like this
Explore more career opportunities
Find even more open roles below ordered by popularity of job title or skills/products/technologies used.