Data Engineer - Montréal
Montréal, Canada
Locala
We help leading brands efficiently plan, buy and measure local campaigns on a global scale.La plateforme publicitaire omnicanale de Locala exploite des informations granulaires et une IA de pointe pour aider les spécialistes du marketing à planifier, activer et mesurer efficacement des campagnes personnalisées en fonction du consommateur local.
Notre plateforme est spécialisée dans la transformation de données complexes sur la mobilité et les consommateurs en informations exploitables sur l'audience, alimentant ainsi des stratégies médiatiques avancées qui produisent systématiquement des résultats commerciaux plus intelligents.
Depuis sa création en 2012, Locala est fière de travailler avec des marques de premier plan dans 40 pays.
Avec plus de 180 employés dans le monde, Locala a des bureaux aux États-Unis, en France, en Belgique, au Royaume-Uni, à Singapour, en Malaisie, en Italie, au Canada et à Dubaï.
Nous recherchons pour notre département Produit, un(e) Data Engineer travaillant sur une base hybride à partir de notre bureau de Montréal.
Nous sommes une équipe soudée d’ingénieurs, de responsables de produits et de designers dévoués et qui placent la collaboration et l’esprit d’équipe au-dessus de tout. Individuellement, nous jouissons d’une grande liberté dans notre travail, tout en partageant les mêmes objectifs avec l’ensemble de l’équipe et en bénéficiant toujours de son soutien.
Nous recherchons aujourd’hui un ingénieur Data qualifié et motivé pour rejoindre notre équipe dynamique. En tant qu’ingénieur Data, vous jouerez un rôle essentiel dans la conception, le développement et l’optimisation de notre infrastructure Big Data. Vous travaillerez en collaboration avec nos data scientists, nos analystes et nos ingénieurs logiciels pour garantir l’efficacité de la collecte, du stockage, ainsi que le traitement d’énormes ensembles de données, tout en mettant l’accent sur l’optimisation des coûts.
VOTRE ROLE :
Tirer parti de vos connaissances approfondies de l’environnement Databricks et Delta Lake pour réaliser la conception, le développement et la maintenance de pipelines résilients pour l’ingestion, le traitement et la transformation d’ensembles de Big Data provenant de diverses sources, en garantissant la qualité et la cohérence des données.
Maintenir et optimiser les flux de traitement des données, les systèmes de stockage et les ressources Cloud pour maintenir une excellente maîtrise des coûts sans compromettre les performances et la fiabilité.
Participer à l’architecture et à la gestion de flux de données en temps réel en utilisant Apache Flink et Apache Kafka pour traiter et analyser les données, alimenter des systèmes de prise de décisions et plateformes de BI.
Créer et maintenir des processus ETL robustes qui standardisent les tâches d’intégration et de transformation des données.
Mettre en place des processus de validation et de nettoyage des données afin de respecter les normes les plus strictes en matière de qualité des données.
Contrôler et ajuster les performances des pipelines data et de l’infrastructure de stockage afin d’atteindre et de dépasser les normes de performance.
Mettre en œuvre et maintenir des mesures strictes de sécurité des données afin de protéger les informations sensibles et de garantir la conformité avec les réglementations en matière de confidentialité des données.
Maintenir une documentation complète et à jour pour les pipelines de données, les systèmes et les processus, et partager activement les connaissances au sein de l’équipe.
Collaborer de manière transparente avec des équipes interfonctionnelles pour comprendre les exigences en matière de données et fournir un soutien technique aux initiatives axées sur les données.
VOS QUALIFICATIONS :
- Licence ou master en informatique, génie informatique ou dans un domaine connexe avec 5 d’expérience.
- Solide compréhension des technologies Big Data & données temps-réel tels que Databricks, Data Lake designs, Apache Spark, Apache Kafka, Apache Flink et l’informatique distribuée.
- Maîtrise des langages de programmation tels que Python ou Scala.
- Expérience confirmée en tant qu’ingénieur data dans un environnement Big Data gérant et traitant de vastes ensembles de données et de tâches.
- Forte familiarité avec les plateformes cloud, telles que AWS, GCP ou Azure.
- Excellentes compétences en matière de résolution de problèmes et forte aptitude à travailler dans un environnement collaboratif au rythme rapide.
- Excellentes compétences en communication, avec la capacité de transmettre des concepts techniques complexes à des parties prenantes non techniques.
- Compréhension approfondie de la sécurité des données (GDPR) et des meilleures pratiques en matière de confidentialité.
- Une expérience de la mise en œuvre de stratégies d’optimisation des coûts dans un environnement Big Data basé sur le cloud est hautement souhaitable.
- Maîtrise de l’anglais et du français.
NOS VALEURS :
Care : Nous sommes justes envers tous. Nous agissons de manière transparente, responsable et durable envers les personnes et la planète.
Invent : Nous prenons des risques et nous nous mettons à l’épreuve. Nos produits sont uniques et remettent en question le statu quo.
Succeed : Nous plaçons la barre haute, travaillons ensemble et nous engageons à fournir un produit exceptionnel pour atteindre l’excellence chaque jour.
Salary: from 90K to 115K CAD depending on profile
La responsabilité sociale de notre entreprise (RSE) fait partie intégrante de notre culture et de notre stratégie globale : achat d’ordinateurs reconditionnés, partenariat avec Noos et Ecotree, bureaux à faible consommation d’énergie, dons et engagement auprès d’associations et un comité DE&I international (Diversité, équité et inclusion).
Chez Locala, nous nous engageons à assurer un recrutement diversifié et inclusif et à promouvoir une stricte égalité des chances tout au long de nos démarches et au-delà.
Nos offres sont ouvertes à toutes et à tous, quels que soient votre origine, votre genre, votre religion, que vous soyez en situation de handicap ou non, etc. N’hésitez pas à postuler !
Tags: Architecture AWS Azure Big Data CAD Databricks ETL Flink GCP Kafka Pipelines Python Scala Spark
More jobs like this
Explore more career opportunities
Find even more open roles below ordered by popularity of job title or skills/products/technologies used.