Data Engineer | Inglês Avançado | Remoto

Brazil - Sao Paulo

⚠️ We'll shut down after Aug 1st - try foo🦍 for all jobs in tech ⚠️

Capco

Capco is a global management and technology consultancy dedicated to the financial services and energy industries.

View all jobs at Capco

Apply now Apply later

 

SOBRE A CAPCO 

A Capco é uma consultoria global de tecnologia e gestão especializada na transformação digital, oferecendo soluções inovadoras e orientadas por dados para um portfólio crescente de mais de 100 clientes globais, entre eles bancos, pagamentos, mercados de capitais, gestão de patrimônio e ativos, seguros e setor de energia. Nos destacamos pela abordagem personalizada, focada na construção de parcerias estratégicas de longo prazo e na aceleração de iniciativas digitais. Nossa expertise ganha vida por meio dos Innovation Labs e da cultura premiada #BeYourselfAtWork, que valoriza a diversidade e o talento. Com presença global nos principais centros financeiros - temos 33 escritórios nas Américas, Europa e Ásia-Pacífico - estamos comprometidos em oferecer soluções práticas e integradas, promovendo colaboração e confiança em cada projeto. Se criatividade e inovação são sua paixão, a Capco é ideal para você. Vamos te apoiar e ajudar a acelerar sua carreira!

  •  

 

 

POR QUE CAPCO:

Juntar-se à Capco significa ingressar em uma organização comprometida com um ambiente de trabalho inclusivo onde você é incentivado a #BeYourselfAtWork (Ser Você Mesmo no Trabalho). Celebramos a individualidade e reconhecemos que a diversidade e a inclusão, em todas as formas, são fundamentais para o sucesso. Acreditamos que todos trazem algo diferente, por isso adoraríamos saber o que o torna diferente!

 

Estamos em busca de um(a) Engenheiro(a) de Dados altamente qualificado(a) para integrar nosso time de tecnologia e apoiar iniciativas estratégicas de dados. Este(a) profissional será responsável por desenvolver, otimizar e manter pipelines de dados escaláveis, assegurando a qualidade, integridade e disponibilidade das informações para consumo analítico.

Responsabilidades:

  • Projetar, desenvolver e manter pipelines de dados utilizando PySpark Notebooks em ambiente distribuído.

  • Trabalhar com o Microsoft Fabric para orquestração de dados, modelagem e integração de fontes diversas.

  • Escrever consultas SQL eficientes para manipulação, transformação e análise de grandes volumes de dados.

  • Automatizar processos de extração, transformação e carga (ETL) com foco em performance e governança.

  • Garantir a integridade e qualidade dos dados em todas as etapas do pipeline.

  • Colaborar com equipes de Data Analysts, Cientistas de Dados e stakeholders de negócio para entender requisitos e entregar soluções eficazes.

  • Documentar processos, pipelines e práticas adotadas para reprodutibilidade e escalabilidade.

Requisitos:

  • Experiência comprovada com MS Fabric (Data Factory, Dataflows, Lakehouse ou similares).

  • Domínio de SQL para manipulação de dados complexos.

  • Sólidos conhecimentos em Python voltado para engenharia de dados.

  • Experiência prática com desenvolvimento em PySpark Notebooks.

  • Familiaridade com ambientes em nuvem e arquitetura orientada a dados.

  • Capacidade de trabalhar em equipe, boa comunicação e foco em entrega de valor ao negócio.

  • Graduação em TI ou áreas correlatas.
  • Inglês avançado.

Desejável:

  • Conhecimento em ferramentas de versionamento (como Git).

  • Experiência com pipelines CI/CD para dados.

  • Noções de modelagem dimensional e práticas de data governance.

 

PRÓXIMOS PASSOS:

O objetivo da Capco é conduzir um processo flexível e alinhado às necessidades de cada oportunidade e talento.

  • Etapa 1: Entrevista comportamental.
  • Etapa 2: Entrevista técnica.
  • Etapa 3: Conversa com time de Projeto/ Delivery.
  • Etapa 4: Conversa com cliente.
  • Etapa 5: Proposta ou feedback.

As etapas do nosso processo seletivo descritas são essenciais para garantir uma avaliação completa e assertiva. Contudo, elas podem ser ajustadas dependendo da senioridade do(a) candidato(a), da área de atuação e do formato do projeto.

Apply now Apply later

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Job stats:  0  0  0
Category: Engineering Jobs

Tags: CI/CD Data governance ETL Git Pipelines PySpark Python SQL

Regions: Remote/Anywhere South America
Country: Brazil

More jobs like this