Data Engineering - SR/Spec - Data Ops

Remoto

Zup

A Zup é referência em transformação digital, desenvolve produtos open source, a procura dos melhores desenvolvedores para integrar seus times.

View all jobs at Zup

Apply now Apply later

🧠 Vaga: Analista de Engenharia de Dados Sr/ Spec – Data Ops

Estamos em busca de uma pessoa apaixonada por dados, arquitetura e inovação para atuar na construção e evolução da nossa plataforma de dados. Se você curte desafios técnicos, colaboração em squads multidisciplinares e impacto real nos produtos, essa vaga é pra você!

🎯 Suas principais responsabilidades:

  • Projetar arquiteturas de dados escaláveis e flexíveis na AWS, garantindo performance, governança e sustentabilidade das soluções.

  • Promover a inovação tecnológica nas entregas da squad, trazendo soluções modernas e eficientes.

  • Evoluir o Data Lake, centralizando e democratizando o acesso a dados relevantes para a companhia.

  • Desenvolver pipelines ETL/ELT com foco em qualidade, escalabilidade e performance.

  • Aplicar boas práticas de modelagem de dados, incluindo formatos, particionamento e compressão.

  • Documentar componentes arquiteturais e metadados de forma clara e acessível.

  • Garantir confiabilidade da plataforma e qualidade dos dados com testes automatizados e ferramentas de observabilidade.

  • Disseminar boas práticas de engenharia na squad: code review, testes, segurança, infraestrutura como código, esteiras de CI/CD.

O que você precisa ter:

  • Experiência em desenvolvimento de pipelines de dados, tanto batch quanto real time.

  • Conhecimento em padrões arquiteturais de plataformas de dados (integração, ingestão, orquestração, armazenamento e processamento).

  • Vivência com serviços de cloud (preferencialmente AWS, mas Azure ou GCP também são bem-vindos).

  • Experiência com ferramentas de processamento paralelo, como Spark ou Hadoop.

  • Domínio em bancos de dados relacionais e NoSQL, incluindo modelagem e otimização de queries.

  • Habilidade em linguagens como Python ou Java.

  • Familiaridade com Git e práticas de versionamento.

  • Experiência em ambientes ágeis, colaborativos e com entregas contínuas de valor.

🌟 Será um diferencial se você tiver:

  • Certificações em AWS ou soluções de dados.

  • Experiência com ferramentas de orquestração como Airflow ou Step Functions.

  • Conhecimento em segurança de dados e conformidade (LGPD, anonimização, etc).

  • Visão analítica para propor melhorias em produtos baseados em dados.

  • Boa comunicação, adaptabilidade e disposição para aprender continuamente.

Se você é uma pessoa movida por propósito, colaboração e tecnologia, vem fazer parte da nossa jornada!

Apply now Apply later

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Job stats:  0  0  0

Tags: Airflow AWS Azure CI/CD DataOps ELT Engineering ETL GCP Git Hadoop Java NoSQL Pipelines Python Spark Step Functions

Region: Remote/Anywhere

More jobs like this