Data Engineer | Inglês Avançado | Remoto
Brazil - Sao Paulo
⚠️ We'll shut down after Aug 1st - try foo🦍 for all jobs in tech ⚠️
Capco
Capco is a global management and technology consultancy dedicated to the financial services and energy industries.SOBRE A CAPCO
A Capco é uma consultoria global de tecnologia e gestão especializada na transformação digital, oferecendo soluções inovadoras e orientadas por dados para um portfólio crescente de mais de 100 clientes globais, entre eles bancos, pagamentos, mercados de capitais, gestão de patrimônio e ativos, seguros e setor de energia. Nos destacamos pela abordagem personalizada, focada na construção de parcerias estratégicas de longo prazo e na aceleração de iniciativas digitais. Nossa expertise ganha vida por meio dos Innovation Labs e da cultura premiada #BeYourselfAtWork, que valoriza a diversidade e o talento. Com presença global nos principais centros financeiros - temos 33 escritórios nas Américas, Europa e Ásia-Pacífico - estamos comprometidos em oferecer soluções práticas e integradas, promovendo colaboração e confiança em cada projeto. Se criatividade e inovação são sua paixão, a Capco é ideal para você. Vamos te apoiar e ajudar a acelerar sua carreira!
POR QUE CAPCO:
Juntar-se à Capco significa ingressar em uma organização comprometida com um ambiente de trabalho inclusivo onde você é incentivado a #BeYourselfAtWork (Ser Você Mesmo no Trabalho). Celebramos a individualidade e reconhecemos que a diversidade e a inclusão, em todas as formas, são fundamentais para o sucesso. Acreditamos que todos trazem algo diferente, por isso adoraríamos saber o que o torna diferente!
Estamos em busca de um(a) Engenheiro(a) de Dados altamente qualificado(a) para integrar nosso time de tecnologia e apoiar iniciativas estratégicas de dados. Este(a) profissional será responsável por desenvolver, otimizar e manter pipelines de dados escaláveis, assegurando a qualidade, integridade e disponibilidade das informações para consumo analítico.
Responsabilidades:
-
Projetar, desenvolver e manter pipelines de dados utilizando PySpark Notebooks em ambiente distribuído.
-
Trabalhar com o Microsoft Fabric para orquestração de dados, modelagem e integração de fontes diversas.
-
Escrever consultas SQL eficientes para manipulação, transformação e análise de grandes volumes de dados.
-
Automatizar processos de extração, transformação e carga (ETL) com foco em performance e governança.
-
Garantir a integridade e qualidade dos dados em todas as etapas do pipeline.
-
Colaborar com equipes de Data Analysts, Cientistas de Dados e stakeholders de negócio para entender requisitos e entregar soluções eficazes.
-
Documentar processos, pipelines e práticas adotadas para reprodutibilidade e escalabilidade.
Requisitos:
-
Experiência comprovada com MS Fabric (Data Factory, Dataflows, Lakehouse ou similares).
-
Domínio de SQL para manipulação de dados complexos.
-
Sólidos conhecimentos em Python voltado para engenharia de dados.
-
Experiência prática com desenvolvimento em PySpark Notebooks.
-
Familiaridade com ambientes em nuvem e arquitetura orientada a dados.
-
Capacidade de trabalhar em equipe, boa comunicação e foco em entrega de valor ao negócio.
- Graduação em TI ou áreas correlatas.
- Inglês avançado.
Desejável:
-
Conhecimento em ferramentas de versionamento (como Git).
-
Experiência com pipelines CI/CD para dados.
-
Noções de modelagem dimensional e práticas de data governance.
PRÓXIMOS PASSOS:
O objetivo da Capco é conduzir um processo flexível e alinhado às necessidades de cada oportunidade e talento.
- Etapa 1: Entrevista comportamental.
- Etapa 2: Entrevista técnica.
- Etapa 3: Conversa com time de Projeto/ Delivery.
- Etapa 4: Conversa com cliente.
- Etapa 5: Proposta ou feedback.
As etapas do nosso processo seletivo descritas são essenciais para garantir uma avaliação completa e assertiva. Contudo, elas podem ser ajustadas dependendo da senioridade do(a) candidato(a), da área de atuação e do formato do projeto.
* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰
Tags: CI/CD Data governance ETL Git Pipelines PySpark Python SQL
More jobs like this
Explore more career opportunities
Find even more open roles below ordered by popularity of job title or skills/products/technologies used.