DataOps Engineer Python / Scala / Spark - H/F
Neuilly-sur-Seine, France
Description de l'entreprise
Dans le TOP10 des Sociétés de Conseil en Ingénierie en France, le Groupe SCALIAN intervient sur des activités de services en management de projets industriels, supply chain, architecture et développement de systèmes numériques embarqués, applicatifs de systèmes d'information et d'Intelligence artificielle dans des secteurs d’activité aussi variés que l’aéronautique, le spatial, l’automobile, le ferroviaire, les services, le luxe ou le retail etc.
Créée en 1989, SCALIAN compte aujourd’hui plus de 5500 collaborateurs répartis dans 11 pays et 15 implantations en France pour un chiffre d’affaires de 550 millions d’euros. SCALIAN travaille pour des grands Groupes du CAC40 sur des projets en AT ou au forfait.
Labellisée Great Place to Work, SCALIAN connait une croissance de 20% chaque année.
Pourquoi SCALIAN ?
- Parce que Scalian vous accompagne dans le développement de votre carrière : programme d'onboarding complet sur 1 an avec votre manager et votre RH, programmes de formation personnalisés, communautés techniques, événements internes
- Parce que Scalian favorise la Qualité de Vie au Travail : certifications Great Place to Work® et Best Workplaces for Women, prime de cooptation, prime vacances, accord télétravail
- Parce que Scalian développe une politique RSE concrète et ambitieuse : mobilité durable, actions environnementales, accord Handicap et mission handicap avec temps dédié
Description du poste
Nous recherchons un(e) DataOps Engineer passionné(e) par les données et les infrastructures modernes. Vous jouerez un rôle clé dans la mise en place et la gestion des pipelines de données, tout en garantissant la fiabilité et l'efficacité des systèmes.
Vos missions principales
- Concevoir, développer et déployer des pipelines de données robustes et scalables (ETL/ELT).
- Optimiser les workflows et orchestrations de données en utilisant des outils comme Apache Airflow ou Luigi.
- Collaborer avec les équipes Data Engineering, DevOps et Data Science pour garantir la disponibilité des données.
- Automatiser le déploiement, la surveillance et la maintenance des pipelines.
- Superviser les performances des systèmes distribués et résoudre les problèmes liés aux données.
- Assurer la conformité des pipelines avec les politiques de sécurité et de gouvernance des données.
Compétences techniques requises
- Langages : Maîtrise de Python, bonne connaissance de SQL.
- Big Data : Expérience avec Apache Spark, Hadoop, ou autres systèmes distribués.
- ETL/Pipelines : Maîtrise des outils d’orchestration comme Apache Airflow, Luigi, ou Prefect.
- Cloud : Compétence dans l’utilisation de plateformes comme AWS, Google Cloud, ou Azure.
- DevOps : Familiarité avec Kubernetes, Docker, et les pipelines CI/CD (Jenkins, GitLab CI).
- Bases de données : Expérience avec des systèmes SQL et NoSQL.
Qualifications
- Expérience : Minimum [4-7 ans] dans un rôle similaire (DataOps, Data Engineer, ou DevOps spécialisé en données).
- Formation : Bac+5 en informatique, ingénierie, ou équivalent.
- Qualités : Bonne communication, esprit d’équipe, rigueur, et aptitude à résoudre des problèmes complexes.
Informations supplémentaires
Localisation du poste : Issy-les-Moulineaux
* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰
Tags: Airflow Architecture AWS Azure Big Data CI/CD DataOps DevOps Docker ELT Engineering ETL GCP GitLab Google Cloud Hadoop Jenkins Kubernetes NoSQL Pipelines Python Scala Spark SQL
Explore more career opportunities
Find even more open roles below ordered by popularity of job title or skills/products/technologies used.