Ingénieur Big Data (H/F)

Biot, France

Apply now Apply later

Nos ingĂ©nieur(e)s pilotent les activitĂ©s de « Digital Transformation ». Nous prenons actuellement en main des sujets d’envergure dans les domaines de la dĂ©fense, du e-commerce, du mĂ©dical etc. Notre expertise s’applique Ă  la production et/ou Ă  la chefferie de projet notamment dans des environnements techniques complexes comme la RPA, la CybersĂ©curitĂ©, ou encore l’intelligence artificielle.


Nous recherchons aujourd’hui un IngĂ©nieur Big Data à Nice. 

En tant qu’IngĂ©nieur Big Data, vous ĂȘtes responsable de la conception, du dĂ©ploiement, de l’automatisation et de la maintenance de pipelines de donnĂ©es dans un environnement distribuĂ© Ă  forte volumĂ©trie.

Vous travaillez en Ă©troite collaboration avec les Ă©quipes infrastructure, Data Scientists et Analysts pour fournir des chaĂźnes de traitement performantes, sĂ©curisĂ©es et maintenables. Votre rĂŽle s’inscrit dans une logique PaaS « self-service » avec un objectif fort d’optimisation du RUN.


Vos principales missions :

- Définir, construire et maintenir les chaßnes de traitement de données (Linux)

- Automatiser la livraison, la supervision et l’accùs aux datasets

- Documenter les solutions et participer à la rédaction du modÚle de responsabilité partagée

- Assurer le support N2/N3 sur les incidents de production

- Garantir la qualité, la cohérence et la sécurité des données (monitoring, supervision)

- Participer activement Ă  la crĂ©ation d’un Data Lake pour 4 opĂ©rateurs tĂ©lĂ©com

- Être impliquĂ© dans l’astreinte sur les environnements Big Data, Kubernetes et bases de donnĂ©es


Profil recherché :

- Expérience opérationnelle en environnement Big Data, en build & run de pipelines

- Bonne connaissance des enjeux de production (sécurité, performance, incidents, qualité de données)


Compétences techniques requises :

- Linux, Spark / PySpark, SQL

- Kafka, Hive, Trino / Presto, GitLab CI/CD

- RDBMS et NoSQL (PostgreSQL, MariaDB, MongoDB
)

- Outils de supervision et sécurité (firewalls, monitoring)

- Connaissance des architectures Big Data distribuées


Compétences appréciées :

- Kubernetes (notamment pour Spark sur K8s)

- Apache Iceberg, Hive Metastore

- Infrastructure as Code (Ansible, Terraform)

- Environnements de stockage objet (S3)


Apply now Apply later

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Job stats:  1  0  0
Category: Big Data Jobs

Tags: Ansible Architecture Big Data CI/CD E-commerce GitLab Kafka Kubernetes Linux MariaDB MongoDB NoSQL Pipelines PostgreSQL PySpark RDBMS Robotics RPA Spark SQL Terraform

Region: Europe
Country: France

More jobs like this