Big Data Expert
MADRID, ES
Construcciones y Auxiliar de Ferrocarriles
Somos CAF, un referente mundial en movilidad urbana e interurbana, incluyendo sistemas integrales, ferroviarios y de autobuses. Ofrecemos soluciones personalizadas en todas las fases, desde el estudio de viabilidad hasta la puesta en marcha y...¿Estas interesado/a en crecer como profesional, participando activamente en las decisiones del proyecto y hacerlo de la mano de un equipo experimentado y en un entorno de trabajo cercano y colaborativo? ¡Esta es tu oportunidad!
Si quieres trabajar para conseguir un mundo más sostenible y responsable con su entorno, en CAF Digital Services creemos y trabajamos en la movilidad sostenible, uno de los principales retos a los que se enfrenta la sociedad actual. En CAF Digital Services mejoramos la disponibilidad de los trenes y el bienestar de los pasajeros a través de la analítica de datos y la digitalización. Trabajamos con las tecnologías de mantenimiento y operación más innovadoras para maximizar la calidad de servicio de los trenes.
¿Qué te ofrecemos?
Ambiente de Trabajo Positivo: Podrás ser parte de un gran equipo altamente cualificado en el que estarás rodeado/a de personas con un gran espíritu colaborativo en el que te encontrarás un ambiente cercano y muy agradable.
Conciliación: Nuestro modelo híbrido te permitirá conciliar a la perfección la vida familiar y la vida laboral.
Aprendizaje y Autonomía: Te animaremos a que trabajes de manera autónoma, con el apoyo de nuestra formación, con un producto altamente tecnológico y en un mercado internacional.
Seguridad y estabilidad: CAF lleva más de 100 años trabajando en un camino que se extiende hacia el futuro, brindándote la seguridad que necesitas.
¿Qué te hará triunfar en esta posición?
- Poseer estudios de Ingeniería Informática.
- Tener experiencia en programación y arquitecturas BigData. Experiencia en nube pública (AWS, Azure, GCloud).
- Tener experiencia en trabajar con conjuntos de datos BigData, diseñar procesos ETL, para crear modelos de datos, consulta de datos, gestión de datos, limpieza de datos y vinculación de datos.
- Conocimientos en los siguientes lenguajes de programación: Java, Python, Scala, SQL.
- Saber trabajar en entorno cloud AWS y Databricks.
- Tener conocimientos en herramientas IaC como Terraform y aplicaciones BigData como Hive, Spark y Kafka.
- Tener conocimientos sobre bases de Datos relacionales y no relacionales y servicios asociados de AWS.
- Saber trabajar en en entornos ágiles y tener amplios conocimientos de testeo e integración continua.
- Tener buena capacidad analítica, creatividad y resolución de problemas.
- Capacidad para trabajar en equipo.
¿Cuál va a ser tu misión en la empresa?
Tu misión será la definición, desarrollo y puesta en producción de una arquitectura distribuida escalable para la ingesta, procesado y almacenamiento de grandes volúmenes de datos.
Responsabilidades de la posición:
- Realizar desarrollos con técnicas BigData de Ingestas, ETL, integraciones, despliegues, etc.
- Coordinación con el resto de compañeros del departamento de Ingeniería, para asegurar el correcto encaje dentro de la arquitectura de las aplicaciones de CAF DS.
- Trabajar con conjuntos de datos BigData, diseñar procesos ETL, para crear modelos de datos, consulta de datos, gestión de datos, limpieza de datos y vinculación de datos.
- Traducir casos de uso a requisitos técnicos, definiendo la arquitectura necesaria de la solución BigData.
- Codificación de aplicaciones BigData del tipo ETL, Batch y RT.
- Mantenimiento de infraestructura.
- Despliegue automatizado de Código, tanto para Aplicaciones (DevOps) como para Infraestructura.
- Capacidad de trabajar en equipo y actitud proactiva.
Por tanto, si te interesa trabajar en una empresa digital para conseguir un mundo más sostenible y responsable con su entorno, comprometida con la igualdad de oportunidades que cuenta con un Plan de Igualdad no lo dudes e inscríbete en la oferta ahora.
* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰
Tags: AWS Azure Big Data Databricks DevOps ETL Java Kafka Python Scala Spark SQL Terraform
More jobs like this
Explore more career opportunities
Find even more open roles below ordered by popularity of job title or skills/products/technologies used.