Data Engineer Trainee

Buenos Aires, Argentina

Apply now Apply later

Descripción de la empresa

Digitas (parte de Publicis Groupe) es la agencia de marketing conectado, construida sobre el principio de que existen mejores formas para que las marcas se conecten con las personas y estas entre sí. Aprovechando las capacidades integrales de datos, tecnología, creatividad, medios y estrategia.

Con un proceso de planificación patentado llamado North, Digitas ofrece resultados ambiciosos a través de soluciones que incluyen campañas conectadas, marketing social, experiencia de marca, CRM y lealtad, y transformación de marketing.

Líder en el Cuadrante Mágico de Gartner para agencias de marketing global durante seis años consecutivos, Digitas sirve a las marcas líderes del mundo a través de una red global compuesta por más de 4500 empleados en más de 40 países y 60 oficinas.

Publicis Groupe es uno de los grupos de marketing y publicidad más grandes del mundo, formando parte del Big Four de compañías de comunicación. Creadores de valor para nuestros clientes a través del manejo de medios tradicionales y digitales utilizando estrategias de inversión, inteligencia y análisis de la información, Big Data, tecnología, Performance marketing y contenido.

Descripción del empleo

Nos encontramos en búsqueda de estudiantes de las carreras de Ingeniería en Sistemas o afines para desenvolverse dentro del equipo de Data Engineering para contribuir y aportar a los desarrollos que mantienen la infraestructura y el código encargados de procesar y disponibilizar la data requerida a otras áreas o clientes de la empresa, a la vez que aprender nuevas tecnologías y conocimientos además de los ya consolidados en la universidad.

Tareas laborales

  • Colaborar con los distintos desarrollos del equipo utilizando mayormente Python, SQL y el stack de GCP (orientado principalmente a Big Data, utilizando servicios como BigQuery, Cloud Functions, Pub/Sub, Dataflow, entre otros).
  • Contribuir con el equipo en el desarrollo y mantenimiento de pipelines de datos y procesos ETL mediante servicios como Airflow y Workflows de GCP.
  • Incorporar nuevas fuentes de datos a partir de archivos externos, bases de datos y APIs de terceros, junto con el desarrollo de APIs propias basados en frameworks como Flask.
  • Asistir en el modelado y administración de bases de datos y componentes SQL/NoSQL, así como su exploración mediante queries.
  • Investigar, probar y desplegar tecnologías modernas como contenedores y serverless.

Requisitos

  • Estudiante de carreras de Ingeniaría en Sistemas o afines.
  • Ingles intermedio
  • Disponibilidad part-time (4 horas).

Información adicional

  • Modalidad híbrida.
  • Descuentos en instituciones académicas.
  • Plataforma de E-learning.
  • Guardias: semanas de las fiestas / Viernes flex.
  • Día de cumpleaños libre.
  • Días hábiles de vacaciones.
  • Subsidio por Home Office.
Apply now Apply later
Job stats:  1  2  0

Tags: Airflow APIs Big Data BigQuery Dataflow Engineering ETL Flask GCP NoSQL Pipelines Python SQL

Region: South America
Country: Argentina

More jobs like this