[Job 22692] Senior/Master Data Developer, Brazil
Brazil
Somos especialistas em transformação tecnológica, unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 6.500 CI&Ters ao redor do mundo, já formamos parcerias com mais de 1.000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade.
Importante: posições localizadas na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequência vigente.
Estamos em busca de um Senior Data Developer altamente qualificado para se juntar à nossa equipe dinâmica de dados. Este papel é fundamental na concepção, construção e manutenção de pipelines de dados e infraestrutura escaláveis para suportar nossos processos de tomada de decisão baseados em dados.
Responsabilidades: - Projetar e Desenvolver Pipelines de Dados: Arquitetar, implementar e manter pipelines ETL/ELT escaláveis e de alto desempenho para processar grandes volumes de dados estruturados e não estruturados.- Integração e Processamento de Dados: Construir arquiteturas acionadas por eventos para permitir o processamento de dados em tempo real e a integração perfeita entre sistemas.- Gerenciamento da Infraestrutura em Nuvem: Aproveitar os serviços em nuvem AWS (por exemplo, S3, Redshift, Glue, Lambda, Kinesis, Pentaho) para projetar e implantar uma infraestrutura de dados robusta.- Desenvolvimento e Otimização de Código: Escrever código limpo, eficiente e de fácil manutenção em Python para suportar a ingestão, transformação e orquestração de dados.- Colaboração em Ambientes Ágeis: Trabalhar em estreita colaboração com equipes multifuncionais, incluindo cientistas de dados, analistas e engenheiros de software, seguindo metodologias ágeis para entregar soluções iterativas.- Qualidade e Governança de Dados: Implementar melhores práticas para qualidade de dados, monitoramento e conformidade para garantir a integridade, consistência e segurança dos dados.- Otimização de Desempenho: Otimizar pipelines de dados e consultas em ambientes em nuvem para desempenho, escalabilidade e eficiência de custos.- Mentoria e Liderança: Fornecer orientação técnica aos membros juniores da equipe, promovendo uma cultura de aprendizado contínuo e melhoria.- Documentação e Compartilhamento de Conhecimento: Documentar designs técnicos, processos e fluxos de trabalho para garantir a manutenção e transferência de conhecimento.
Requisitos: - Experiência profissional como Engenheiro de Dados ou em papel semelhante, com forte foco no desenvolvimento de pipelines de dados e soluções de dados baseadas em nuvem.- Proficiência avançada em Python para processamento de dados, scripting e automação.- Experiência prática com Databricks para processamento de grandes dados, incluindo Spark, Delta Lake e fluxos de trabalho do Databricks.- Conhecimento profundo em serviços AWS para construir e gerenciar infraestrutura de dados.- Expertise em projetar e implementar fluxos de trabalho ETL/ELT utilizando ferramentas como Apache Airflow, AWS Glue ou semelhantes.- Experiência na construção de pipelines de dados em tempo real usando frameworks acionados por eventos.- Forte experiência em ambientes ágeis, utilizando metodologias Scrum ou Kanban.- Proficiência em bancos de dados relacionais e não-relacionais, com expertise em otimização SQL.- Sólida compreensão de técnicas de modelagem de dados para análises e relatórios.- Familiaridade com pipelines CI/CD, controle de versão e infraestrutura como código.- Habilidades analíticas excepcionais focadas na entrega de soluções escaláveis e eficientes.- Excelentes habilidades de comunicação verbal e escrita, com a capacidade de colaborar efetivamente com partes interessadas técnicas e não técnicas.
Qualificações Preferenciais:- Inglês: Nível intermediário a avançado.- Experiência com tecnologias de conteinerização (por exemplo, Docker, Kubernetes) para implantar aplicações de dados.- Conhecimento de frameworks de governança de dados e normas de conformidade (por exemplo, GDPR, CCPA).- Familiaridade com ferramentas de grandes dados como Apache Spark, Hadoop ou Snowflake.- Certificações em AWS ou Databricks.
#LI-AR2Nossos benefícios:
- Plano de saúde e odontológico;- Vale alimentação e refeição;- Auxílio-creche;- Licença paternagem estendida;- Wellhub (Gympass)- TotalPass- PLR;- Seguro de Vida;- CI&T University;- Clube de descontos;- Plataforma online gratuita dedicada à promoção da saúde física, mental e bem-estar. - Curso gestante e paternagem responsável;- Parceria com plataformas de cursos online;- Plataforma para aprendizagem de idiomas;- E muitos outros.
Mais detalhes sobre os nossos benefícios aqui: https://ciandt.com/br/pt-br/carreiras
A colaboração é nosso superpoder, diversidade nos une, e a excelência é nosso padrão.Valorizamos a diversidade de identidades e experiências de vida, fomentando um ambiente de trabalho diverso, inclusivo e seguro. Incentivamos a candidatura de pessoas de comunidades diversas e sub-representadas às nossas vagas.
Importante: posições localizadas na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequência vigente.
Estamos em busca de um Senior Data Developer altamente qualificado para se juntar à nossa equipe dinâmica de dados. Este papel é fundamental na concepção, construção e manutenção de pipelines de dados e infraestrutura escaláveis para suportar nossos processos de tomada de decisão baseados em dados.
Responsabilidades: - Projetar e Desenvolver Pipelines de Dados: Arquitetar, implementar e manter pipelines ETL/ELT escaláveis e de alto desempenho para processar grandes volumes de dados estruturados e não estruturados.- Integração e Processamento de Dados: Construir arquiteturas acionadas por eventos para permitir o processamento de dados em tempo real e a integração perfeita entre sistemas.- Gerenciamento da Infraestrutura em Nuvem: Aproveitar os serviços em nuvem AWS (por exemplo, S3, Redshift, Glue, Lambda, Kinesis, Pentaho) para projetar e implantar uma infraestrutura de dados robusta.- Desenvolvimento e Otimização de Código: Escrever código limpo, eficiente e de fácil manutenção em Python para suportar a ingestão, transformação e orquestração de dados.- Colaboração em Ambientes Ágeis: Trabalhar em estreita colaboração com equipes multifuncionais, incluindo cientistas de dados, analistas e engenheiros de software, seguindo metodologias ágeis para entregar soluções iterativas.- Qualidade e Governança de Dados: Implementar melhores práticas para qualidade de dados, monitoramento e conformidade para garantir a integridade, consistência e segurança dos dados.- Otimização de Desempenho: Otimizar pipelines de dados e consultas em ambientes em nuvem para desempenho, escalabilidade e eficiência de custos.- Mentoria e Liderança: Fornecer orientação técnica aos membros juniores da equipe, promovendo uma cultura de aprendizado contínuo e melhoria.- Documentação e Compartilhamento de Conhecimento: Documentar designs técnicos, processos e fluxos de trabalho para garantir a manutenção e transferência de conhecimento.
Requisitos: - Experiência profissional como Engenheiro de Dados ou em papel semelhante, com forte foco no desenvolvimento de pipelines de dados e soluções de dados baseadas em nuvem.- Proficiência avançada em Python para processamento de dados, scripting e automação.- Experiência prática com Databricks para processamento de grandes dados, incluindo Spark, Delta Lake e fluxos de trabalho do Databricks.- Conhecimento profundo em serviços AWS para construir e gerenciar infraestrutura de dados.- Expertise em projetar e implementar fluxos de trabalho ETL/ELT utilizando ferramentas como Apache Airflow, AWS Glue ou semelhantes.- Experiência na construção de pipelines de dados em tempo real usando frameworks acionados por eventos.- Forte experiência em ambientes ágeis, utilizando metodologias Scrum ou Kanban.- Proficiência em bancos de dados relacionais e não-relacionais, com expertise em otimização SQL.- Sólida compreensão de técnicas de modelagem de dados para análises e relatórios.- Familiaridade com pipelines CI/CD, controle de versão e infraestrutura como código.- Habilidades analíticas excepcionais focadas na entrega de soluções escaláveis e eficientes.- Excelentes habilidades de comunicação verbal e escrita, com a capacidade de colaborar efetivamente com partes interessadas técnicas e não técnicas.
Qualificações Preferenciais:- Inglês: Nível intermediário a avançado.- Experiência com tecnologias de conteinerização (por exemplo, Docker, Kubernetes) para implantar aplicações de dados.- Conhecimento de frameworks de governança de dados e normas de conformidade (por exemplo, GDPR, CCPA).- Familiaridade com ferramentas de grandes dados como Apache Spark, Hadoop ou Snowflake.- Certificações em AWS ou Databricks.
#LI-AR2Nossos benefícios:
- Plano de saúde e odontológico;- Vale alimentação e refeição;- Auxílio-creche;- Licença paternagem estendida;- Wellhub (Gympass)- TotalPass- PLR;- Seguro de Vida;- CI&T University;- Clube de descontos;- Plataforma online gratuita dedicada à promoção da saúde física, mental e bem-estar. - Curso gestante e paternagem responsável;- Parceria com plataformas de cursos online;- Plataforma para aprendizagem de idiomas;- E muitos outros.
Mais detalhes sobre os nossos benefícios aqui: https://ciandt.com/br/pt-br/carreiras
A colaboração é nosso superpoder, diversidade nos une, e a excelência é nosso padrão.Valorizamos a diversidade de identidades e experiências de vida, fomentando um ambiente de trabalho diverso, inclusivo e seguro. Incentivamos a candidatura de pessoas de comunidades diversas e sub-representadas às nossas vagas.
* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰
Job stats:
0
0
0
Category:
Engineering Jobs
Tags: Airflow AWS AWS Glue CI/CD Databricks Docker ELT ETL Hadoop Kanban Kinesis Kubernetes Lambda Pentaho Pipelines Python Redshift Scrum Snowflake Spark SQL
Perks/benefits: Fitness / gym
Region:
South America
Country:
Brazil
More jobs like this
Explore more career opportunities
Find even more open roles below ordered by popularity of job title or skills/products/technologies used.
Power BI Developer jobsBusiness Intelligence Developer jobsPrincipal Data Engineer jobsBI Developer jobsStaff Data Scientist jobsStaff Machine Learning Engineer jobsPrincipal Software Engineer jobsJunior Data Analyst jobsData Science Intern jobsDevOps Engineer jobsData Manager jobsData Science Manager jobsSoftware Engineer II jobsAccount Executive jobsStaff Software Engineer jobsData Analyst Intern jobsLead Data Analyst jobsBusiness Data Analyst jobsAI/ML Engineer jobsSr. Data Scientist jobsData Specialist jobsData Governance Analyst jobsSenior Backend Engineer jobsData Engineer III jobsBusiness Intelligence Analyst jobs
Consulting jobsMLOps jobsAirflow jobsOpen Source jobsEconomics jobsLinux jobsKPIs jobsKafka jobsTerraform jobsGitHub jobsJavaScript jobsPostgreSQL jobsRDBMS jobsData Warehousing jobsNoSQL jobsClassification jobsBanking jobsStreaming jobsScikit-learn jobsPrompt engineering jobsRAG jobsComputer Vision jobsPhysics jobsGoogle Cloud jobsPandas jobs
Hadoop jobsOracle jobsScala jobsdbt jobsBigQuery jobsLooker jobsReact jobsGPT jobsData warehouse jobsR&D jobsLangChain jobsScrum jobsPySpark jobsDistributed Systems jobsMicroservices jobsCX jobsELT jobsIndustrial jobsSAS jobsOpenAI jobsJira jobsRedshift jobsModel training jobsTypeScript jobsJenkins jobs