Sr Data Engineer

Santiago, Santiago Metropolitan Region, Chile

Toku

Toku es una plataforma que automatiza tu proceso de recaudación a través de una plataforma segura, confiable y con una gran experiencia de pago.

View all jobs at Toku

Apply now Apply later

En Toku buscamos Data Engineers con experiencia, apasionados por su trabajo y motivados para unirse a un equipo de alto rendimiento.

Responsabilidades:

  • Implementación de soluciones para impulsar una empresa basada en datos.
  • Colaborar con otros miembros del equipo en la definición de requisitos, diseño de soluciones, pruebas y despliegue de nuevas funcionalidades.
  • Crear y mantener la infraestructura que soporta todo el flujo de datos en Toku. Combinando múltiples fuentes con diferentes complejidades
  • Crear y mantener capas de datos que puedan ser utilizadas por otras personas de la empresa.
  • Asegurar la calidad y la confianza que tenemos sobre nuestros datos
  • Trabajar en crear y mantener flujos de datos, visualizaciones y análisis de datos.

Requirements

Esencial:

  • Conocimiento en Python avanzado
  • Conocimiento en SQL avanzado
  • Conocimiento en herramientas/frameworks de procesamientos de datos batch tales como DBT, Databricks, Trino, Presto, bigquery, Apache Spark u otros.
  • Herramientas de Orquestación para pipelines de datos
  • Diseño y construcción de arquitecturas de datos escalables y robustas (Data Lake, Data Warehouse) para alto volumen de datos en la nube (AWS, GCP, Azure).
  • Conocimiento en bases de datos relacionales (PostgreSQL, MySQL) y no relacionales (MongoDB, DynamoDB, entre otros).
  • Diseño y modelado dimensional de datos
  • Conocimiento de Git y flujos de trabajo colaborativos (Git Flow)

Deseable:

  • Conocimientos en Google Cloud Platform (Bigquery, GCS, Composer)
  • Conocimientos en Airflow como orquestador de pipelines de datos
  • Data Quality y Testing
  • Fundamentos en Ciencia de Datos
  • Trazabilidad y Versionado de Datos
  • Procesamiento en Tiempo Real: Manejo de frameworks y tecnologías para procesamiento en tiempo real (Kafka, Flink, Spark Streaming, Pub/Sub, etc).
  • Habilidad para escribir código legible, sostenible y eficiente

Benefits

🏆 Stock options.

🌴 6 semanas de vacaciones.

🏠 Home office flexible, pero creemos que nuestras mejores ideas suceden cuándo estamos todos sentados en la misma mesa, por lo que tienes que tendrás que asistir a la oficina un 50% del tiempo.

🍎 Te entregamos un Macbook, después de 1 año es tuyo y no lo tienes que devolver.

🌱 Desarrollo de carrera, te damos $500 dólares al año en libros, cursos online o capacitaciones.

🏥 Seguro Complementario de Salud.

🏙 Oficina en Manquehue Nte.

✈️ Sorteamos mensualmente un bono de USD $500 para ir a trabajar a oficina de México.

🕒 Lunes a jueves de 9:00 a 18:30, viernes hasta las 16:00 (14:00 en verano).

Apply now Apply later

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Job stats:  0  0  0
Category: Engineering Jobs

Tags: Airflow AWS Azure BigQuery Databricks Data quality Data warehouse dbt DynamoDB Flink GCP Git Google Cloud Kafka MongoDB MySQL Pipelines PostgreSQL Python Spark SQL Streaming Testing

Region: South America
Country: Chile

More jobs like this