Ingénieur Big Data (H/F)
Biot, France
Nos ingĂ©nieur(e)s pilotent les activitĂ©s de « Digital Transformation ». Nous prenons actuellement en main des sujets dâenvergure dans les domaines de la dĂ©fense, du e-commerce, du mĂ©dical etc. Notre expertise sâapplique Ă la production et/ou Ă la chefferie de projet notamment dans des environnements techniques complexes comme la RPA, la CybersĂ©curitĂ©, ou encore lâintelligence artificielle.
Nous recherchons aujourdâhui un IngĂ©nieur Big Data à Nice.Â
En tant quâIngĂ©nieur Big Data, vous ĂȘtes responsable de la conception, du dĂ©ploiement, de lâautomatisation et de la maintenance de pipelines de donnĂ©es dans un environnement distribuĂ© Ă forte volumĂ©trie.
Vous travaillez en Ă©troite collaboration avec les Ă©quipes infrastructure, Data Scientists et Analysts pour fournir des chaĂźnes de traitement performantes, sĂ©curisĂ©es et maintenables. Votre rĂŽle sâinscrit dans une logique PaaS « self-service » avec un objectif fort dâoptimisation du RUN.
Vos principales missions :
- Définir, construire et maintenir les chaßnes de traitement de données (Linux)
- Automatiser la livraison, la supervision et lâaccĂšs aux datasets
- Documenter les solutions et participer à la rédaction du modÚle de responsabilité partagée
- Assurer le support N2/N3 sur les incidents de production
- Garantir la qualité, la cohérence et la sécurité des données (monitoring, supervision)
- Participer activement Ă la crĂ©ation dâun Data Lake pour 4 opĂ©rateurs tĂ©lĂ©com
- Ătre impliquĂ© dans lâastreinte sur les environnements Big Data, Kubernetes et bases de donnĂ©es
Profil recherché :
- Expérience opérationnelle en environnement Big Data, en build & run de pipelines
- Bonne connaissance des enjeux de production (sécurité, performance, incidents, qualité de données)
Compétences techniques requises :
- Linux, Spark / PySpark, SQL
- Kafka, Hive, Trino / Presto, GitLab CI/CD
- RDBMS et NoSQL (PostgreSQL, MariaDB, MongoDBâŠ)
- Outils de supervision et sécurité (firewalls, monitoring)
- Connaissance des architectures Big Data distribuées
Compétences appréciées :
- Kubernetes (notamment pour Spark sur K8s)
- Apache Iceberg, Hive Metastore
- Infrastructure as Code (Ansible, Terraform)
- Environnements de stockage objet (S3)
* Salary range is an estimate based on our AI, ML, Data Science Salary Index đ°
Tags: Ansible Architecture Big Data CI/CD E-commerce GitLab Kafka Kubernetes Linux MariaDB MongoDB NoSQL Pipelines PostgreSQL PySpark RDBMS Robotics RPA Spark SQL Terraform
More jobs like this
Explore more career opportunities
Find even more open roles below ordered by popularity of job title or skills/products/technologies used.