[Job 23075] Master Data Developer, Brazil
Brazil
Somos especialistas em transformação tecnológica, unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 7.400 CI&Ters ao redor do mundo, já formamos parcerias com mais de 1.000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade.
Importante: posições localizadas na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequência vigente.
Sua missão: Conduzir a empresa na jornada de transformação digital através da reestruturação da sua arquitetura de dados, assegurando maior eficiência operativa e suporte fundamentado para tomadas de decisão, participando ativamente em todos os aspectos da criação do novo Data Lakehouse usando tecnologias como AWS e Databricks.
Você será responsável por:- Implementar e padronizar ferramentas de Business Intelligence para análise e visualização de dados utilizando Power BI.- Arquitetar, implementar e manter pipelines ETL/ELT escaláveis e de alto desempenho para processar grandes volumes de dados estruturados e não estruturados.- Construir arquiteturas acionadas por eventos para permitir o processamento de dados em tempo real e a integração perfeita entre sistemas.- Aproveitar os serviços em nuvem AWS (por exemplo, S3, Redshift, Glue, - Lambda, Kinesis) para projetar e implantar uma infraestrutura de dados robusta.- Escrever código limpo, eficiente e de fácil manutenção em Python para suportar a ingestão, transformação e orquestração de dados.- Trabalhar em estreita colaboração com equipes multifuncionais, incluindo cientistas de dados, analistas e engenheiros de software, seguindo metodologias ágeis para entregar soluções iterativas.- Implementar melhores práticas para qualidade de dados, monitoramento e conformidade para garantir a integridade, consistência e segurança dos dados.- Otimizar pipelines de dados e consultas em ambientes em nuvem para desempenho, escalabilidade e eficiência de custos.- Fornecer orientação técnica aos membros juniores da equipe, promovendo uma cultura de aprendizado contínuo e melhoria contínua.- Documentação e Compartilhamento de Conhecimento: Documentar designs técnicos, processos e fluxos de trabalho para garantir a manutenção e transferência de conhecimento.
Os requisitos para o desafio são:- Experiência profissional como Engenheiro de Dados ou em papel semelhante, com forte foco no desenvolvimento de pipelines de dados e soluções de dados baseadas em nuvem.- Proficiência avançada em Python para processamento de dados, scripting e automação.- Experiência prática com Databricks para processamento de grandes dados, incluindo Spark, Delta Lake e fluxos de trabalho do Databricks.- Conhecimento profundo em serviços AWS para construir e gerenciar infraestrutura de dados.- Experiência em projetar e implementar fluxos de trabalho ETL/ELT utilizando ferramentas como Apache Airflow, AWS Glue ou semelhantes.- Experiência na construção de pipelines de dados em tempo real usando frameworks acionados por eventos.- Forte experiência em ambientes ágeis, utilizando metodologias Scrum ou Kanban.- Proficiência em bancos de dados relacionais e não-relacionais, com expertise em otimização SQL.- Sólida compreensão de técnicas de modelagem de dados para análises e relatórios.- Familiaridade com pipelines CI/CD, controle de versão e infraestrutura como código.- Habilidades analíticas excepcionais focadas na entrega de soluções escaláveis e eficientes.- Excelentes habilidades de comunicação verbal e escrita, com a capacidade de colaborar efetivamente com partes interessadas técnicas e não técnicas.
Você irá se destacar se:- Possuir certificações na área de dados, como AWS Certified Data Analytics ou Databricks Certified;- Experiência com arquiteturas Data Lakehouse, em Batch e Streaming;- Experiência com arquiteturas de dados AWS;- Tiver aptidão para identificar oportunidades de automação e melhoria de processos;- Demonstrar experiência prática em implementações complexas de integração e governança de dados;- Ter experiência com extração de dados SAP;- Ter experiência com ferramentas como DataSphere da SAP;- Ter experiência de ponta a ponta, servindo dados no PowerBI;
#LI-AR2Nossos benefícios:
- Plano de saúde e odontológico;- Vale alimentação e refeição;- Auxílio-creche;- Licença parental estendida;- Parceria com academias e profissionais de saúde e bem-estar via Wellhub (Gympass) TotalPass;- Participação nos Lucros e Resultados (PLR);- Seguro de Vida;- Plataforma de aprendizagem contínua (CI&T University);- Clube de descontos;- Plataforma online gratuita dedicada à promoção da saúde física, mental e bem-estar;- Curso gestante e parentalidade responsável;- Parceria com plataformas de cursos online;- Plataforma para aprendizagem de idiomas;- E muitos outros
Mais detalhes sobre os nossos benefícios aqui: https://ciandt.com/br/pt-br/carreiras
Na CI&T, a inclusão começa no primeiro contato. Se você é pessoa com deficiência, é importante apresentar o seu laudo durante o processo seletivo. Assim, podemos garantir o suporte e as adaptações que você merece. Se ainda não tem o laudo caracterizador, não se preocupe: podemos te apoiar para obtê-lo.
Temos um time dedicado de Saúde e Bem-estar, especialistas em inclusão e grupos de afinidade que estarão com você em todas as etapas. Conte com a gente para fazer essa jornada lado a lado.
Importante: posições localizadas na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequência vigente.
Sua missão: Conduzir a empresa na jornada de transformação digital através da reestruturação da sua arquitetura de dados, assegurando maior eficiência operativa e suporte fundamentado para tomadas de decisão, participando ativamente em todos os aspectos da criação do novo Data Lakehouse usando tecnologias como AWS e Databricks.
Você será responsável por:- Implementar e padronizar ferramentas de Business Intelligence para análise e visualização de dados utilizando Power BI.- Arquitetar, implementar e manter pipelines ETL/ELT escaláveis e de alto desempenho para processar grandes volumes de dados estruturados e não estruturados.- Construir arquiteturas acionadas por eventos para permitir o processamento de dados em tempo real e a integração perfeita entre sistemas.- Aproveitar os serviços em nuvem AWS (por exemplo, S3, Redshift, Glue, - Lambda, Kinesis) para projetar e implantar uma infraestrutura de dados robusta.- Escrever código limpo, eficiente e de fácil manutenção em Python para suportar a ingestão, transformação e orquestração de dados.- Trabalhar em estreita colaboração com equipes multifuncionais, incluindo cientistas de dados, analistas e engenheiros de software, seguindo metodologias ágeis para entregar soluções iterativas.- Implementar melhores práticas para qualidade de dados, monitoramento e conformidade para garantir a integridade, consistência e segurança dos dados.- Otimizar pipelines de dados e consultas em ambientes em nuvem para desempenho, escalabilidade e eficiência de custos.- Fornecer orientação técnica aos membros juniores da equipe, promovendo uma cultura de aprendizado contínuo e melhoria contínua.- Documentação e Compartilhamento de Conhecimento: Documentar designs técnicos, processos e fluxos de trabalho para garantir a manutenção e transferência de conhecimento.
Os requisitos para o desafio são:- Experiência profissional como Engenheiro de Dados ou em papel semelhante, com forte foco no desenvolvimento de pipelines de dados e soluções de dados baseadas em nuvem.- Proficiência avançada em Python para processamento de dados, scripting e automação.- Experiência prática com Databricks para processamento de grandes dados, incluindo Spark, Delta Lake e fluxos de trabalho do Databricks.- Conhecimento profundo em serviços AWS para construir e gerenciar infraestrutura de dados.- Experiência em projetar e implementar fluxos de trabalho ETL/ELT utilizando ferramentas como Apache Airflow, AWS Glue ou semelhantes.- Experiência na construção de pipelines de dados em tempo real usando frameworks acionados por eventos.- Forte experiência em ambientes ágeis, utilizando metodologias Scrum ou Kanban.- Proficiência em bancos de dados relacionais e não-relacionais, com expertise em otimização SQL.- Sólida compreensão de técnicas de modelagem de dados para análises e relatórios.- Familiaridade com pipelines CI/CD, controle de versão e infraestrutura como código.- Habilidades analíticas excepcionais focadas na entrega de soluções escaláveis e eficientes.- Excelentes habilidades de comunicação verbal e escrita, com a capacidade de colaborar efetivamente com partes interessadas técnicas e não técnicas.
Você irá se destacar se:- Possuir certificações na área de dados, como AWS Certified Data Analytics ou Databricks Certified;- Experiência com arquiteturas Data Lakehouse, em Batch e Streaming;- Experiência com arquiteturas de dados AWS;- Tiver aptidão para identificar oportunidades de automação e melhoria de processos;- Demonstrar experiência prática em implementações complexas de integração e governança de dados;- Ter experiência com extração de dados SAP;- Ter experiência com ferramentas como DataSphere da SAP;- Ter experiência de ponta a ponta, servindo dados no PowerBI;
#LI-AR2Nossos benefícios:
- Plano de saúde e odontológico;- Vale alimentação e refeição;- Auxílio-creche;- Licença parental estendida;- Parceria com academias e profissionais de saúde e bem-estar via Wellhub (Gympass) TotalPass;- Participação nos Lucros e Resultados (PLR);- Seguro de Vida;- Plataforma de aprendizagem contínua (CI&T University);- Clube de descontos;- Plataforma online gratuita dedicada à promoção da saúde física, mental e bem-estar;- Curso gestante e parentalidade responsável;- Parceria com plataformas de cursos online;- Plataforma para aprendizagem de idiomas;- E muitos outros
Mais detalhes sobre os nossos benefícios aqui: https://ciandt.com/br/pt-br/carreiras
Na CI&T, a inclusão começa no primeiro contato. Se você é pessoa com deficiência, é importante apresentar o seu laudo durante o processo seletivo. Assim, podemos garantir o suporte e as adaptações que você merece. Se ainda não tem o laudo caracterizador, não se preocupe: podemos te apoiar para obtê-lo.
Temos um time dedicado de Saúde e Bem-estar, especialistas em inclusão e grupos de afinidade que estarão com você em todas as etapas. Conte com a gente para fazer essa jornada lado a lado.
* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰
Job stats:
0
0
0
Category:
Engineering Jobs
Tags: Airflow AWS AWS Glue Business Intelligence CI/CD Data Analytics Databricks ELT ETL Kanban Kinesis Lambda Pipelines Power BI Python Redshift Scrum Spark SQL Streaming
Perks/benefits: Fitness / gym
Region:
South America
Country:
Brazil
More jobs like this
Explore more career opportunities
Find even more open roles below ordered by popularity of job title or skills/products/technologies used.
Sr. Data Engineer jobsBusiness Intelligence Developer jobsPower BI Developer jobsBI Developer jobsStaff Data Scientist jobsStaff Machine Learning Engineer jobsPrincipal Software Engineer jobsData Science Intern jobsDevOps Engineer jobsJunior Data Analyst jobsData Science Manager jobsSoftware Engineer II jobsData Manager jobsData Analyst Intern jobsLead Data Analyst jobsStaff Software Engineer jobsBusiness Data Analyst jobsAI/ML Engineer jobsAccount Executive jobsSr. Data Scientist jobsData Specialist jobsData Governance Analyst jobsSenior Backend Engineer jobsBusiness Intelligence Analyst jobsData Engineer III jobs
Consulting jobsMLOps jobsAirflow jobsOpen Source jobsEconomics jobsLinux jobsKPIs jobsKafka jobsTerraform jobsJavaScript jobsGitHub jobsData Warehousing jobsPostgreSQL jobsRDBMS jobsNoSQL jobsScikit-learn jobsStreaming jobsComputer Vision jobsClassification jobsBanking jobsPrompt engineering jobsPhysics jobsGoogle Cloud jobsRAG jobsOracle jobs
Pandas jobsHadoop jobsdbt jobsBigQuery jobsScala jobsR&D jobsLooker jobsData warehouse jobsGPT jobsReact jobsScrum jobsLangChain jobsPySpark jobsDistributed Systems jobsELT jobsMicroservices jobsIndustrial jobsCX jobsJira jobsSAS jobsRedshift jobsOpenAI jobsModel training jobsTypeScript jobsJenkins jobs