Engenheiro de Dados | Remoto

Brazil - Sao Paulo

Capco

Capco is a global management and technology consultancy dedicated to the financial services and energy industries.

View all jobs at Capco

Apply now Apply later

SOBRE A CAPCO 

 

A Capco é uma consultoria global de tecnologia e gestão especializada na transformação digital, oferecendo soluções inovadoras e orientadas por dados para um portfólio crescente de mais de 100 clientes globais, entre eles bancos, pagamentos, mercados de capitais, gestão de patrimônio e ativos, seguros e setor de energia.

Nos destacamos pela abordagem personalizada, focada na construção de parcerias estratégicas de longo prazo e na aceleração de iniciativas digitais. Nossa expertise ganha vida por meio dos Innovation Labs e da cultura premiada #BeYourselfAtWork, que valoriza a diversidade e o talento.

Com presença global nos principais centros financeiros - temos 33 escritórios nas Américas, Europa e Ásia-Pacífico - estamos comprometidos em oferecer soluções práticas e integradas, promovendo colaboração e confiança em cada projeto. Se criatividade e inovação são sua paixão, a Capco é ideal para você. Vamos te apoiar e ajudar a acelerar sua carreira!

Estamos em busca de um(a) Engenheiro(a) de Dados para integrar nosso time e atuar no desenvolvimento e manutenção de arquiteturas baseadas em Microsoft Azure. O profissional será responsável por criar e otimizar pipelines de dados, garantindo eficiência, segurança e escalabilidade.

Responsabilidades:

  • Desenvolver e manter pipelines de dados utilizando Azure Databricks, estruturando informações nas camadas Bronze, Silver e Gold.
  • Trabalhar com AKS (Azure Kubernetes Service) e Docker para a containerização de aplicações.
  • Implementar mecanismos de autenticação e segurança por meio do Azure Key Vault.
  • Escrever código em Python para automação e processamento de dados.
  • Garantir a qualidade e governança dos dados em toda a pipeline.

Requisitos:

  • Experiência com Azure Databricks e notebooks para ingestão e processamento de dados.
  • Conhecimento sólido em AKS (Azure Kubernetes Service) e Docker.
  • Experiência com Azure Key Vault para segurança e integração com serviços externos.
  • Proficiência em Python para desenvolvimento e automação de workflows.
  • Familiaridade com arquitetura de Data Lakes e processamento de dados em larga escala.
  • Graduação em TI ou áreas correlatas.

Diferenciais:

  • Experiência com outras soluções do Azure Data Services.
  • Conhecimento em CI/CD para pipelines de dados.
  • Experiência com Spark e Delta Lake.

 

POR QUE CAPCO:

Juntar-se à Capco significa ingressar em uma organização comprometida com um ambiente de trabalho inclusivo onde você é incentivado a #BeYourselfAtWork (Ser Você Mesmo no Trabalho). Celebramos a individualidade e reconhecemos que a diversidade e a inclusão, em todas as formas, são fundamentais para o sucesso. Acreditamos que todos trazem algo diferente, por isso adoraríamos saber o que o torna diferente!

 

PRÓXIMOS PASSOS:

O objetivo da Capco é conduzir um processo flexível e alinhado às necessidades de cada oportunidade e talento.

  • Etapa 1: Entrevista comportamental.
  • Etapa 2: Entrevista técnica.
  • Etapa 3: Conversa com time de Projeto/ Delivery.
  • Etapa 4: Conversa com cliente.
  • Etapa 5: Proposta ou feedback.

As etapas do nosso processo seletivo descritas são essenciais para garantir uma avaliação completa e assertiva. Contudo, elas podem ser ajustadas dependendo da senioridade do(a) candidato(a), da área de atuação e do formato do projeto.

 

Apply now Apply later

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Job stats:  0  0  0

Tags: Azure CI/CD Databricks Docker Kubernetes Pipelines Python Spark

Regions: Remote/Anywhere South America
Country: Brazil

More jobs like this