[Job 22692] Senior/Master Data Developer, Brazil
Brazil
Somos especialistas em transformação tecnológica, unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 6.500 CI&Ters ao redor do mundo, já formamos parcerias com mais de 1.000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade.
Importante: posições localizadas na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequência vigente.
Estamos em busca de um Senior Data Developer altamente qualificado para se juntar à nossa equipe dinâmica de dados. Este papel é fundamental na concepção, construção e manutenção de pipelines de dados e infraestrutura escaláveis para suportar nossos processos de tomada de decisão baseados em dados.
Responsabilidades: - Projetar e Desenvolver Pipelines de Dados: Arquitetar, implementar e manter pipelines ETL/ELT escaláveis e de alto desempenho para processar grandes volumes de dados estruturados e não estruturados.- Integração e Processamento de Dados: Construir arquiteturas acionadas por eventos para permitir o processamento de dados em tempo real e a integração perfeita entre sistemas.- Gerenciamento da Infraestrutura em Nuvem: Aproveitar os serviços em nuvem AWS (por exemplo, S3, Redshift, Glue, Lambda, Kinesis, Pentaho) para projetar e implantar uma infraestrutura de dados robusta.- Desenvolvimento e Otimização de Código: Escrever código limpo, eficiente e de fácil manutenção em Python para suportar a ingestão, transformação e orquestração de dados.- Colaboração em Ambientes Ágeis: Trabalhar em estreita colaboração com equipes multifuncionais, incluindo cientistas de dados, analistas e engenheiros de software, seguindo metodologias ágeis para entregar soluções iterativas.- Qualidade e Governança de Dados: Implementar melhores práticas para qualidade de dados, monitoramento e conformidade para garantir a integridade, consistência e segurança dos dados.- Otimização de Desempenho: Otimizar pipelines de dados e consultas em ambientes em nuvem para desempenho, escalabilidade e eficiência de custos.- Mentoria e Liderança: Fornecer orientação técnica aos membros juniores da equipe, promovendo uma cultura de aprendizado contínuo e melhoria.- Documentação e Compartilhamento de Conhecimento: Documentar designs técnicos, processos e fluxos de trabalho para garantir a manutenção e transferência de conhecimento.
Requisitos: - Experiência profissional como Engenheiro de Dados ou em papel semelhante, com forte foco no desenvolvimento de pipelines de dados e soluções de dados baseadas em nuvem.- Proficiência avançada em Python para processamento de dados, scripting e automação.- Experiência prática com Databricks para processamento de grandes dados, incluindo Spark, Delta Lake e fluxos de trabalho do Databricks.- Conhecimento profundo em serviços AWS para construir e gerenciar infraestrutura de dados.- Expertise em projetar e implementar fluxos de trabalho ETL/ELT utilizando ferramentas como Apache Airflow, AWS Glue ou semelhantes.- Experiência na construção de pipelines de dados em tempo real usando frameworks acionados por eventos.- Forte experiência em ambientes ágeis, utilizando metodologias Scrum ou Kanban.- Proficiência em bancos de dados relacionais e não-relacionais, com expertise em otimização SQL.- Sólida compreensão de técnicas de modelagem de dados para análises e relatórios.- Familiaridade com pipelines CI/CD, controle de versão e infraestrutura como código.- Habilidades analíticas excepcionais focadas na entrega de soluções escaláveis e eficientes.- Excelentes habilidades de comunicação verbal e escrita, com a capacidade de colaborar efetivamente com partes interessadas técnicas e não técnicas.
Qualificações Preferenciais:- Inglês: Nível intermediário a avançado.- Experiência com tecnologias de conteinerização (por exemplo, Docker, Kubernetes) para implantar aplicações de dados.- Conhecimento de frameworks de governança de dados e normas de conformidade (por exemplo, GDPR, CCPA).- Familiaridade com ferramentas de grandes dados como Apache Spark, Hadoop ou Snowflake.- Certificações em AWS ou Databricks.
#LI-AR2Nossos benefícios:
- Plano de saúde e odontológico;- Vale alimentação e refeição;- Auxílio-creche;- Licença paternagem estendida;- Wellhub (Gympass)- TotalPass- PLR;- Seguro de Vida;- CI&T University;- Clube de descontos;- Plataforma online gratuita dedicada à promoção da saúde física, mental e bem-estar. - Curso gestante e paternagem responsável;- Parceria com plataformas de cursos online;- Plataforma para aprendizagem de idiomas;- E muitos outros.
Mais detalhes sobre os nossos benefícios aqui: https://ciandt.com/br/pt-br/carreiras
A colaboração é nosso superpoder, diversidade nos une, e a excelência é nosso padrão.Valorizamos a diversidade de identidades e experiências de vida, fomentando um ambiente de trabalho diverso, inclusivo e seguro. Incentivamos a candidatura de pessoas de comunidades diversas e sub-representadas às nossas vagas.
Importante: posições localizadas na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequência vigente.
Estamos em busca de um Senior Data Developer altamente qualificado para se juntar à nossa equipe dinâmica de dados. Este papel é fundamental na concepção, construção e manutenção de pipelines de dados e infraestrutura escaláveis para suportar nossos processos de tomada de decisão baseados em dados.
Responsabilidades: - Projetar e Desenvolver Pipelines de Dados: Arquitetar, implementar e manter pipelines ETL/ELT escaláveis e de alto desempenho para processar grandes volumes de dados estruturados e não estruturados.- Integração e Processamento de Dados: Construir arquiteturas acionadas por eventos para permitir o processamento de dados em tempo real e a integração perfeita entre sistemas.- Gerenciamento da Infraestrutura em Nuvem: Aproveitar os serviços em nuvem AWS (por exemplo, S3, Redshift, Glue, Lambda, Kinesis, Pentaho) para projetar e implantar uma infraestrutura de dados robusta.- Desenvolvimento e Otimização de Código: Escrever código limpo, eficiente e de fácil manutenção em Python para suportar a ingestão, transformação e orquestração de dados.- Colaboração em Ambientes Ágeis: Trabalhar em estreita colaboração com equipes multifuncionais, incluindo cientistas de dados, analistas e engenheiros de software, seguindo metodologias ágeis para entregar soluções iterativas.- Qualidade e Governança de Dados: Implementar melhores práticas para qualidade de dados, monitoramento e conformidade para garantir a integridade, consistência e segurança dos dados.- Otimização de Desempenho: Otimizar pipelines de dados e consultas em ambientes em nuvem para desempenho, escalabilidade e eficiência de custos.- Mentoria e Liderança: Fornecer orientação técnica aos membros juniores da equipe, promovendo uma cultura de aprendizado contínuo e melhoria.- Documentação e Compartilhamento de Conhecimento: Documentar designs técnicos, processos e fluxos de trabalho para garantir a manutenção e transferência de conhecimento.
Requisitos: - Experiência profissional como Engenheiro de Dados ou em papel semelhante, com forte foco no desenvolvimento de pipelines de dados e soluções de dados baseadas em nuvem.- Proficiência avançada em Python para processamento de dados, scripting e automação.- Experiência prática com Databricks para processamento de grandes dados, incluindo Spark, Delta Lake e fluxos de trabalho do Databricks.- Conhecimento profundo em serviços AWS para construir e gerenciar infraestrutura de dados.- Expertise em projetar e implementar fluxos de trabalho ETL/ELT utilizando ferramentas como Apache Airflow, AWS Glue ou semelhantes.- Experiência na construção de pipelines de dados em tempo real usando frameworks acionados por eventos.- Forte experiência em ambientes ágeis, utilizando metodologias Scrum ou Kanban.- Proficiência em bancos de dados relacionais e não-relacionais, com expertise em otimização SQL.- Sólida compreensão de técnicas de modelagem de dados para análises e relatórios.- Familiaridade com pipelines CI/CD, controle de versão e infraestrutura como código.- Habilidades analíticas excepcionais focadas na entrega de soluções escaláveis e eficientes.- Excelentes habilidades de comunicação verbal e escrita, com a capacidade de colaborar efetivamente com partes interessadas técnicas e não técnicas.
Qualificações Preferenciais:- Inglês: Nível intermediário a avançado.- Experiência com tecnologias de conteinerização (por exemplo, Docker, Kubernetes) para implantar aplicações de dados.- Conhecimento de frameworks de governança de dados e normas de conformidade (por exemplo, GDPR, CCPA).- Familiaridade com ferramentas de grandes dados como Apache Spark, Hadoop ou Snowflake.- Certificações em AWS ou Databricks.
#LI-AR2Nossos benefícios:
- Plano de saúde e odontológico;- Vale alimentação e refeição;- Auxílio-creche;- Licença paternagem estendida;- Wellhub (Gympass)- TotalPass- PLR;- Seguro de Vida;- CI&T University;- Clube de descontos;- Plataforma online gratuita dedicada à promoção da saúde física, mental e bem-estar. - Curso gestante e paternagem responsável;- Parceria com plataformas de cursos online;- Plataforma para aprendizagem de idiomas;- E muitos outros.
Mais detalhes sobre os nossos benefícios aqui: https://ciandt.com/br/pt-br/carreiras
A colaboração é nosso superpoder, diversidade nos une, e a excelência é nosso padrão.Valorizamos a diversidade de identidades e experiências de vida, fomentando um ambiente de trabalho diverso, inclusivo e seguro. Incentivamos a candidatura de pessoas de comunidades diversas e sub-representadas às nossas vagas.
* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰
Job stats:
0
0
0
Category:
Engineering Jobs
Tags: Airflow AWS AWS Glue CI/CD Databricks Docker ELT ETL Hadoop Kanban Kinesis Kubernetes Lambda Pentaho Pipelines Python Redshift Scrum Snowflake Spark SQL
Perks/benefits: Fitness / gym
Region:
South America
Country:
Brazil
More jobs like this
Explore more career opportunities
Find even more open roles below ordered by popularity of job title or skills/products/technologies used.
Data Engineer II jobsBI Developer jobsPrincipal Data Engineer jobsStaff Data Scientist jobsSr. Data Engineer jobsPrincipal Software Engineer jobsStaff Machine Learning Engineer jobsData Science Manager jobsDevOps Engineer jobsData Science Intern jobsData Manager jobsSoftware Engineer II jobsJunior Data Analyst jobsData Analyst Intern jobsLead Data Analyst jobsAccount Executive jobsData Specialist jobsBusiness Data Analyst jobsStaff Software Engineer jobsAI/ML Engineer jobsSr. Data Scientist jobsSenior Backend Engineer jobsData Governance Analyst jobsBusiness Intelligence Analyst jobsData Engineer III jobs
Consulting jobsAirflow jobsMLOps jobsOpen Source jobsLinux jobsKPIs jobsEconomics jobsTerraform jobsJavaScript jobsKafka jobsData Warehousing jobsRDBMS jobsGitHub jobsNoSQL jobsPostgreSQL jobsComputer Vision jobsGoogle Cloud jobsStreaming jobsClassification jobsScikit-learn jobsPhysics jobsPrompt engineering jobsHadoop jobsR&D jobsBanking jobs
Oracle jobsdbt jobsData warehouse jobsRAG jobsBigQuery jobsLooker jobsPandas jobsGPT jobsScala jobsReact jobsScrum jobsPySpark jobsDistributed Systems jobsIndustrial jobsCX jobsELT jobsJira jobsMicroservices jobsLangChain jobsRedshift jobsSAS jobsOpenAI jobsJenkins jobsModel training jobsTypeScript jobs