DataOps Engineer

Madrid, Spain

Apply now Apply later

Company Description

Somos un consultora digital, internacional y ágil. En la era de la post-transformación digital, nos esforzamos para que cada uno de nuestros 28.000 profesionales pueda renovarse continuamente viviendo positivamente su propio flow digital.

Cada uno de ellos puede diseñar su itinerario profesional de acuerdo a sus preferencias, emprender junto a sus clientes para construir en la práctica un mundo más positivo, innovar en cada uno de los 27 países y conciliar su carrera profesional con su bienestar personal.

Nuestros 28.000 atletas digitales están orgullosos de haberse certificado Top Employer Europe 2024.

Job Description

The main responsibilities are:
• Data modeling and pipelines development with Spark on Scala in order to ingest and transform data from several sources (Kafka topics, APIs, HDFS, structured databases…).
• Data transformation and quality to ensure data consistency and accuracy.
• Set up CI/CD pipelines to automate deployments, unit testing and development management.
• The implementation of different orchestrators and scheduling processes to automate the data pipeline execution (Airflow as a service).
• Modifying the existing code as per business requirements and continuously improvement to achieve a better performance and maintainability.
• Ensuring the performance and security of the data infrastructure and following the best practice of Data engineering.
• Contributing to production support, incident and anomaly corrections, and to implement functional and technical evolutions to ensure the stability of production processes
• Writing technical documentation to ensure knowledge capitalization.

Qualifications

Good knowledge of

  • Spark on Scala
  • CI/CD tools (Gitlab, Jenkins…)
  • HDFS and structured databases (SQL)

Full understanding of

  • Apache Airflow
  • Streaming process (Kafka, event steam…)
  • S3 storage
  • Shell script

Some knowledge of [*]

  • Kubernetes

Optionally/ as a plus [*]

  • Elasticsearch and Kibana
  • HVault
  • Dremio as tool to virtualize data
  • Dataiku

Additional Information

¿Qué podemos ofrecerte?

  • 🙋‍♀️💻 Formarás parte de un gran equipo de profesionales con inquietud y motivación por el desarrollo y la programación.
  • ⏱ Trabajarás a jornada completa con un horario flexible bajo un modelo de trabajo remoto.
  • 🏖️🧳 22 días de vacaciones + 2 de asuntos propios.
  • 👩🏼‍🎓 Formación por parte de la empresa para que puedas seguir desarrollándote y promocionar dentro del plan de carrera que existe para ti.
  • 🎮 Podrás asistir a eventos y conferencias relevantes del sector.
  • ✍🏼 Contrato indefinido.
  • 😄 Estabilidad y buen clima laboral.
  • 💰 Salario Competitivo.
  • 🆓 Acceso a ventajas del grupo de empresa
  • 💵 Retribución flexible y más beneficios
Apply now Apply later

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Job stats:  1  0  0
Category: Engineering Jobs

Tags: Airflow APIs CI/CD DataOps Elasticsearch Engineering GitLab HDFS Jenkins Kafka Kibana Kubernetes Pipelines Scala Security Spark SQL Streaming Testing

Region: Europe
Country: Spain

More jobs like this