Data Engineer

Mexico City, Mexico City, Mexico - Remote

DaCodes

Empower your company's future with DaCodes' world-class software solutions and expert team. Scale efficiently, innovate, and transform your business today.

View all jobs at DaCodes

Apply now Apply later

¡Trabaja en DaCodes!

Somos una firma de expertos en software y transformación digital de alto impacto.


Durante 10 años hemos creado soluciones enfocadas en la tecnología e innovación gracias a nuestro equipo de +220 talentosos #DaCoders, Desarrolladores, arquitectos, Diseñadores UX/UI, PMs, QA testers y más, que se integran a nuestros proyectos con clientes en LATAM y Estados Unidos para lograr resultados sobresalientes.

Con nosotros lograrás impulsar y acelerar tu desarrollo profesional, colaborando en diversidad de proyectos, sectores y giros empresariales.

Trabajar en DaCodes te permitirá ser versátil y ágil al poder trabajar con diversas tecnologías y colaborar con profesionales de alto nivel.

Los DaCoders tienen gran impacto en el éxito de nuestro negocio, así como en el éxito de nuestros clientes. Serás el experto que participará en nuestros proyectos y tendrás acceso a startups disruptivas y marcas globales; ¿Te pareció interesante?

¡Estamos en busca de talento para unirse al equipo, vamos a trabajar juntos!

El candidato o candidata ideal tiene una combinación única de experiencia técnica, curiosidad, mentalidad lógica y analítica, proactividad, ownership, y gusto por el trabajo en equipo

Requirements

  • Licenciatura o ingeniería en Sistemas de Información o afín.
  • Conocimientos en prácticas de ingeniería de software, como control de versiones (Git), pruebas unitarias, integración continua (CI/CD), diseño de APIs, y patrones de diseño de software.
  • Experiencia en la manipulación y procesamiento de grandes volúmenes de datos.
  • Conocimiento solido en scrapeo de datos.
  • Amplio conocimiento de arquitecturas de datos como: data lakes ,data warehouse ,data lakehouse.
  • Base De Datos/ DWH
  • Modelado de fact tables y dimension tables
  • Conocimiento de nuevas estructuras OLAP
  • Habilidades sólidas en Redshif,BigQuery,Snowflake o similar.
  • Habilidades sólidas en índices y optimización de rendimiento.
  • Herramientas de ETL (stream-batch)
  • Experiencia sólida en herramientas de extracción, transformación y carga (ETL), como Pandas ,Apache Beam,Apache Flink,Kafka, Spark (Pyspark en especifico).
  • Experiencia en herramientas y frameworks de procesamiento de datos distribuidos
  • Dominio de servicios en la nube, (especialmente AWS) : s3, glue, athena, redshift, lambdas etc.
  • Dominio de servicios en la nube, Google Cloud : cloud storage, dataproc, bigquery, cloud functionts etc .
  • Orquestación de datos
  • Habilidades sólidas en Airflow,Nifi,Mage AI, stepfunctions o similar.
  • Integración de datos procedentes de múltiples fuentes de datos.
  • Diseñar y desarrollar pipelines de datos para extracción e ingestión de datos.
  • Gestionar el modelado de datos y pruebas de rendimiento para capas finales de consumo de datos.
  • Definir procesos y prácticas recomendadas para ingestiones, ETLs, tablas temporales, procedimientos almacenados, almacenes de datos y/o integraciones semánticas.
  • Colaborar estrechamente con desarrolladores,analistas y científicos de datos para facilitar procesos de descubrimiento y preparación de datos.
  • Ser responsable de mantener y mejorar los procesos existentes de manera autónoma.
  • Identificar áreas de mejora y desarrollar soluciones innovadoras para aumentar la escalabilidad, la fiabilidad y el rendimiento de los pipelines de datos.
  • Identificar y resolver proactivamente problemas en los procesos de datos, asegurando su eficacia y eficiencia.
  • Colaborar con otros miembros del equipo en la implementación de cambios y actualizaciones en los procesos.

Benefits

  • Integración a marcas globales y startups disruptivas.
  • Trabajo remoto/ Home office
    *Estarás informado desde la primer sesión si alguna de las posiciones llega a requerir algún formato híbrido o presencial ¡Descuida la mayoría son remotas!
  • Horario ajustado a tu célula de trabajo/proyecto asignado. (Zona horaria del cliente asignado)
  • Trabajo de Lunes a Viernes
  • Beneficios Legales. (Aplica para México)
  • Días festivos oficiales de tu célula de trabajo/proyecto asignado.
  • Vacaciones *Puedes hacer uso de éstos días posterior a los 6 meses en la empresa.
  • Día off en tu cumpleaños
  • Seguro de gastos médicos mayores. (Aplica para México)
  • Seguro de vida. (Aplica para México)
  • Eventos virtuales de integración y grupos de interés.
  • Meetup con invitados especiales de empresas y profesionales del área de IT y Universidades de prestigio.
  • Feedback constante y seguimiento a performance.
  • Acceso a cursos y certificaciones.
  • Equipos de trabajo multiculturales.
  • Clases de inglés.
  • Oportunidades en nuestras diferentes líneas de negocio.

¡Orgullosamente certificados como Great Place to Work!

Apply now Apply later

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Job stats:  1  0  0
Category: Engineering Jobs

Tags: Airflow APIs Athena AWS BigQuery CI/CD Dataproc Data warehouse ETL Flink GCP Git Google Cloud Kafka NiFi OLAP Pandas Pipelines PySpark Redshift Snowflake Spark UX

Regions: Remote/Anywhere North America
Country: Mexico

More jobs like this