Ingeniero de Datos - GCP (AI/Tech Consulting Company)

Mexico City, Mexico City, Mexico

rocket code

rocket code offers top-tier AI software development and custom solutions. Partner with the leading software development company today!

View all jobs at rocket code

Apply now Apply later

¡Únete a la Revolución de la IA con rocket code!

En rocket code, no somos solo desarrolladores — somos soñadores, hacedores y disruptores. Estamos a la vanguardia de hacer que la IA trabaje para ti, convirtiendo el ruido del mercado en realidades innovadoras. Nuestro enfoque centrado en la IA está revolucionando el panorama tecnológico, y necesitamos individuos apasionados para unirse a nosotros en este emocionante viaje.

¿Por qué rocket code?
Imagina ser parte de un equipo que no solo lidera la frontera digital, sino que también la redefine. Con nuestra presencia global en México, Estados Unidos, España y próximamente Brasil, ofrecemos un entorno dinámico donde la innovación y la creatividad prosperan. Hemos desarrollado más de 100 plataformas en diversas industrias, incluyendo fintech, insurtech, energía, manufactura, telecomunicaciones y comercio electrónico. En Rocket Code, cada día es una oportunidad para superar límites y crear soluciones impactantes. Nuestra misión es transformar la tecnología existente en experiencias digitales que generen un impacto profundamente positivo. Nuestro objetivo es ser la constelación que guíe el universo digital, iluminando caminos hacia un progreso auténtico y próspero para nuestros clientes y sus comunidades. Cada solución que creamos es una estrella brillante de innovación y excelencia.

Nuestro Compromiso:
En rocket code, creemos en el poder de la tecnología para crear un impacto positivo en la sociedad. Estamos dedicados a la responsabilidad social y la sostenibilidad, implementando prácticas sostenibles en todos nuestros proyectos y operaciones.

Tu Futuro en rocket code:
Estamos buscando entusiastas de la tecnología brillantes, innovadores y apasionados para unirse a nuestro equipo. Si estás listo para ser parte de una empresa que no solo resuelve problemas, sino que también inspira y deja una marca duradera en el mundo digital, Rocket Code es el lugar para ti.

¡Únete a nosotros y sé parte del cambio!

Objetivo:

Como Ingeniero/a de Datos en rocket code, serás responsable de desarrollar, optimizar y mantener pipelines de datos escalables utilizando Google Cloud Platform (GCP). Tu principal objetivo será implementar soluciones modernas y eficientes basadas en Python, Docker, Airflow (Cloud Composer), y servicios serverless en GCP, garantizando alto rendimiento, automatización, escalabilidad y seguridad en los procesos críticos de datos para impulsar decisiones estratégicas en el negocio.


Responsabilidades:

  1. Diseño e Implementación de Pipelines de Datos
    • Diseñar, desarrollar y optimizar procesos ETL/ELT utilizando Apache Airflow (Cloud Composer) para orquestación eficiente.
    • Crear pipelines de datos robustos en Python integrados con Docker para facilitar despliegue, escalabilidad y mantenimiento.
    • Desarrollar procesos de ingesta, transformación y carga utilizando BigQuery, Cloud Storage y Cloud Functions.
    • Automatizar procesamiento de datos tanto en batch como en tiempo real con servicios serverless y contenedores.
  2. Optimización y Monitoreo de Procesos de Datos
    • Optimizar consultas SQL en BigQuery mediante particionamiento, clustering, y afinación de rendimiento.
    • Implementar y administrar monitoreo proactivo y estrategias de alerta en Cloud Monitoring y Logging, garantizando la estabilidad operativa de los pipelines.
    • Desplegar soluciones Dockerizadas para asegurar modularidad, eficiencia y reusabilidad del código.
  3. Despliegue de Infraestructura Serverless
    • Desarrollar e implementar soluciones serverless usando Cloud Functions y Cloud Run para procesamiento ágil y dinámico de datos.
    • Gestionar despliegues eficientes y seguros utilizando Docker y Terraform, garantizando escalabilidad y control.
    • Implementar controles sólidos de seguridad mediante IAM y cifrado de datos en todo el entorno GCP.
  4. Colaboración y Mejora Continua
    • Colaborar estrechamente con equipos multidisciplinarios (ingeniería, ciencia de datos, negocio) para optimizar y evolucionar continuamente la arquitectura de datos.
    • Documentar prácticas recomendadas, procesos técnicos y guías detalladas para mejorar la adopción interna y externa.
    • Investigar, evaluar e implementar nuevas tecnologías y herramientas que mejoren eficiencia operativa y optimización de costos.

Requirements

Formación Académica

  • Ingeniería en Sistemas Computacionales, Ciencias de la Computación, Matemáticas Aplicadas o carreras afines.

Experiencia Requerida

  • Mínimo 2 años de experiencia en ingeniería de datos o desarrollo de pipelines de datos en la nube.
  • Experiencia sólida en Python y Docker para procesamiento, empaquetado y despliegue de datos.
  • Dominio intermedio-avanzado en SQL, optimización de consultas y diseño de modelos de datos.

Habilidades Técnicas

  • Lenguajes: Python, SQL.
  • Cloud: Google Cloud Platform (BigQuery, Cloud Composer, Cloud Functions, Cloud Run, Cloud Logging, Cloud Monitoring).
  • Contenedores: Docker, Kubernetes (deseable).
  • Serverless: Cloud Functions, Cloud Run.
  • Bases de datos: BigQuery, PostgreSQL, MySQL.
  • Automatización y CI/CD: Terraform (deseable), Git, scripting en Python.
  • Orquestación: Apache Airflow (Cloud Composer).

Habilidades Blandas

  • Alta capacidad analítica y habilidad para resolución efectiva de problemas.
  • Excelente comunicación para colaborar con equipos técnicos y stakeholders del negocio.
  • Proactividad para documentar, compartir conocimientos y generar mejores prácticas internas.
  • Enfoque en optimización de costos y eficiencia operativa.

Experiencia Deseable

  • Certificación como Google Cloud Professional Data Engineer.
  • Experiencia previa en el sector seguros (altamente deseable).
  • Conocimiento en prácticas DevOps y CI/CD para la implementación de pipelines.
  • Experiencia con tecnologías de streaming de datos como Kafka o Google Pub/Sub.

Modalidad de Contratación

  • Temporal.- Contratación temporal bajo demanda de horas consumidas por día. Puede llegar a requerirse asistencia presencial para alguna reunión previamente programada.

Duración del proyecto

  • De 2 a 3 meses
Apply now Apply later

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Job stats:  0  0  0

Tags: Airflow BigQuery CI/CD Clustering Consulting DevOps Docker ELT ETL FinTech GCP Git Google Cloud Kafka Kubernetes MySQL Pipelines PostgreSQL Python SQL Streaming Terraform

Region: North America
Country: Mexico

More jobs like this