[Job 23075] Master Data Developer, Brazil

Brazil

Apply now Apply later

Somos especialistas em transformação tecnológica, unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 7.400 CI&Ters ao redor do mundo, já formamos parcerias com mais de 1.000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade.
Importante: posições localizadas na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequência vigente.
Sua missão: Conduzir a empresa na jornada de transformação digital através da reestruturação da sua arquitetura de dados, assegurando maior eficiência operativa e suporte fundamentado para tomadas de decisão, participando ativamente em todos os aspectos da criação do novo Data Lakehouse usando tecnologias como AWS e Databricks.
Você será responsável por:- Implementar e padronizar ferramentas de Business Intelligence para análise e visualização de dados utilizando Power BI.- Arquitetar, implementar e manter pipelines ETL/ELT escaláveis e de alto desempenho para processar grandes volumes de dados estruturados e não estruturados.- Construir arquiteturas acionadas por eventos para permitir o processamento de dados em tempo real e a integração perfeita entre sistemas.- Aproveitar os serviços em nuvem AWS (por exemplo, S3, Redshift, Glue, - Lambda, Kinesis) para projetar e implantar uma infraestrutura de dados robusta.- Escrever código limpo, eficiente e de fácil manutenção em Python para suportar a ingestão, transformação e orquestração de dados.- Trabalhar em estreita colaboração com equipes multifuncionais, incluindo cientistas de dados, analistas e engenheiros de software, seguindo metodologias ágeis para entregar soluções iterativas.- Implementar melhores práticas para qualidade de dados, monitoramento e conformidade para garantir a integridade, consistência e segurança dos dados.- Otimizar pipelines de dados e consultas em ambientes em nuvem para desempenho, escalabilidade e eficiência de custos.- Fornecer orientação técnica aos membros juniores da equipe, promovendo uma cultura de aprendizado contínuo e melhoria contínua.- Documentação e Compartilhamento de Conhecimento: Documentar designs técnicos, processos e fluxos de trabalho para garantir a manutenção e transferência de conhecimento.
Os requisitos para o desafio são:- Experiência profissional como Engenheiro de Dados ou em papel semelhante, com forte foco no desenvolvimento de pipelines de dados e soluções de dados baseadas em nuvem.- Proficiência avançada em Python para processamento de dados, scripting e automação.- Experiência prática com Databricks para processamento de grandes dados, incluindo Spark, Delta Lake e fluxos de trabalho do Databricks.- Conhecimento profundo em serviços AWS para construir e gerenciar infraestrutura de dados.- Experiência em projetar e implementar fluxos de trabalho ETL/ELT utilizando ferramentas como Apache Airflow, AWS Glue ou semelhantes.- Experiência na construção de pipelines de dados em tempo real usando frameworks acionados por eventos.- Forte experiência em ambientes ágeis, utilizando metodologias Scrum ou Kanban.- Proficiência em bancos de dados relacionais e não-relacionais, com expertise em otimização SQL.- Sólida compreensão de técnicas de modelagem de dados para análises e relatórios.- Familiaridade com pipelines CI/CD, controle de versão e infraestrutura como código.- Habilidades analíticas excepcionais focadas na entrega de soluções escaláveis e eficientes.- Excelentes habilidades de comunicação verbal e escrita, com a capacidade de colaborar efetivamente com partes interessadas técnicas e não técnicas.
Você irá se destacar se:- Possuir certificações na área de dados, como AWS Certified Data Analytics ou Databricks Certified;- Experiência com arquiteturas Data Lakehouse, em Batch e Streaming;- Experiência com arquiteturas de dados AWS;- Tiver aptidão para identificar oportunidades de automação e melhoria de processos;- Demonstrar experiência prática em implementações complexas de integração e governança de dados;- Ter experiência com extração de dados SAP;- Ter experiência com ferramentas como DataSphere da SAP;- Ter experiência de ponta a ponta, servindo dados no PowerBI;
#LI-AR2Nossos benefícios:
- Plano de saúde e odontológico;- Vale alimentação e refeição;- Auxílio-creche;- Licença parental estendida;- Parceria com academias e profissionais de saúde e bem-estar via Wellhub (Gympass)  TotalPass;- Participação nos Lucros e Resultados (PLR);- Seguro de Vida;- Plataforma de aprendizagem contínua (CI&T University);- Clube de descontos;- Plataforma online gratuita dedicada à promoção da saúde física, mental e bem-estar;- Curso gestante e parentalidade responsável;- Parceria com plataformas de cursos online;- Plataforma para aprendizagem de idiomas;- E muitos outros
Mais detalhes sobre os nossos benefícios aqui: https://ciandt.com/br/pt-br/carreiras
Na CI&T, a inclusão começa no primeiro contato. Se você é pessoa com deficiência, é importante apresentar o seu laudo durante o processo seletivo. Assim, podemos garantir o suporte e as adaptações que você merece. Se ainda não tem o laudo caracterizador, não se preocupe: podemos te apoiar para obtê-lo.
Temos um time dedicado de Saúde e Bem-estar, especialistas em inclusão e grupos de afinidade que estarão com você em todas as etapas. Conte com a gente para fazer essa jornada lado a lado.
Apply now Apply later

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Job stats:  0  0  0
Category: Engineering Jobs

Tags: Airflow AWS AWS Glue Business Intelligence CI/CD Data Analytics Databricks ELT ETL Kanban Kinesis Lambda Pipelines Power BI Python Redshift Scrum Spark SQL Streaming

Perks/benefits: Fitness / gym

Region: South America
Country: Brazil

More jobs like this