[Job-18950] Senior Data Developer, Brazil
São Paulo, SP
Nós somos especialistas em tech transformation, nós somos a CI&T.
Combinamos a força disruptiva da Inteligência Artificial com a expertise humana para apoiar grandes companhias a navegar as mudanças na tecnologia e nos negócios. Temos 30 anos de experiência, 6.000 pessoas, escritórios em 10 países e talentos distribuídos em 5 continentes. Atuamos nas frentes de design, estratégia e engenharia para marcas globais, apoiando clientes a alcançarem o máximo potencial da tecnologia como uma força para o bem. Impacto é o que entregamos.
Importante: Nossas posições para a Região Metropolitana de Campinas* requerem a presença nos escritórios da cidade, com quantidade e quais dias combinados com o seu projeto. Converse com o nosso time de recrutamento para saber mais informações sobre política de frequência vigente.
Buscamos pessoas localizadas no Brasil para trabalhar como Data Developer e atuar em um projeto do ramo financeiro.
Responsabilidades: - Projetar, construir e manter arquiteturas de dados robustas e escaláveis na plataforma Azure;- Desenvolver e otimizar pipelines de ETL/ELT utilizando Databricks;- Implementar soluções de processamento de dados em batch e streaming usando Apache Spark no Databricks;- Colaborar com analistas de dados e cientistas de dados para entender e atender às necessidades analíticas do negócio;- Construir e otimizar data lakes e data warehouses na Azure, garantindo eficiência e facilidade de acesso aos dados;- Implementar práticas de Data Mesh para melhorar a governança e o acesso descentralizado aos dados;- Desenvolver scripts e aplicações em Python e PySpark para processamento e análise de dados;- Projetar e implementar soluções de ingestão de dados, tanto em batch quanto em streaming;- Trabalhar com bancos de dados SQL e NoSQL na Azure (Azure SQL Database, Cosmos DB);- Configurar e manter pipelines de CI/CD para automação de deployments e testes;- Monitorar e otimizar o desempenho dos pipelines de dados e clusters Databricks;- Documentar arquiteturas, processos e melhores práticas para garantir a padronização e eficiência da equipe.
Requisitos para este desafio:- Experiência em engenharia de dados;- Experiência com Azure Databricks e Apache Spark;- Experiência em desenvolvimento Python e PySpark;- Experiência de SQL para manipulação de dados e criação de queries complexas;- Experiência com orquestração de pipelines de dados;- Conhecimento de Azure Storage (Blob Storage, Data Lake Storage Gen2);- Familiaridade com conceitos e implementações de Data Lakes e Data Mesh;- Experiência com bancos de dados SQL (Azure SQL Database) e NoSQL (Cosmos DB);- Conhecimento em práticas de Infraestrutura como Código (IaC), preferencialmente com ARM templates ou Terraform;- Experiência com ferramentas de CI/CD (Azure DevOps, GitHub Actions);- Habilidade em otimização de performance de queries e jobs Spark;- Experiência com ingestão de dados em batch e streaming na Azure;- Conhecimento em práticas de governança de dados e segurança na nuvem.
Diferencias:- Certificações da Microsoft Azure (Azure Data Engineer Associate, Azure Solutions Architect);- Experiência com Azure Synapse Analytics;- Conhecimento em Delta Lake e Databricks Delta;- Familiaridade com ferramentas de visualização de dados como Power BI;- Experiência com arquiteturas de microsserviços e containers (Docker, Kubernetes);- Conhecimento em técnicas de machine learning e sua integração com pipelines de dados;- Experiência com ferramentas de observabilidade e monitoramento na Azure.
#MidSenior#LI-CB1Nossos benefícios:
- Plano de saúde e odontológico;- Vale alimentação e refeição;- Auxílio-creche;- Licença paternagem estendida;- Gympass- PLR;- Seguro de Vida;- Parceria com plataforma online de saúde mental;- CI&T University;- Clube de descontos;- Programa de Apoio: orientação psicológica; nutricionista e mais;- Curso gestante e paternagem responsável;- Parceria com plataformas de cursos online;- Plataforma para aprendizagem de idiomas;- E muitos outros.
Mais detalhes sobre os nossos benefícios aqui: https://ciandt.com/br/pt-br/carreiras
Por aqui, celebramos e valorizamos a diversidade de identidades e experiências de vida. Reconhecemos que inovação e transformação só acontecem em ambientes de trabalho diversificados, inclusivos e seguros. Por isso, incentivamos fortemente pessoas de comunidades diversas e sub-representadas a se candidatarem às nossas vagas.
Antes de se candidatar às nossas oportunidades confira a Política de Conflito de Interesse em nosso site.
*Cidades que compõem a Região Metropolitana de Campinas: Americana, Artur Nogueira, Campinas, Cosmópolis, Engenheiro Coelho, Holambra, Hortolândia, Indaiatuba, Itatiba, Jaguariúna. Monte Mor, Morungaba, Nova Odessa, Paulínia, Pedreira, Santa Bárbara d'Oeste, Santo, Antônio de Posse, Sumaré, Valinhos, Vinhedo
Combinamos a força disruptiva da Inteligência Artificial com a expertise humana para apoiar grandes companhias a navegar as mudanças na tecnologia e nos negócios. Temos 30 anos de experiência, 6.000 pessoas, escritórios em 10 países e talentos distribuídos em 5 continentes. Atuamos nas frentes de design, estratégia e engenharia para marcas globais, apoiando clientes a alcançarem o máximo potencial da tecnologia como uma força para o bem. Impacto é o que entregamos.
Importante: Nossas posições para a Região Metropolitana de Campinas* requerem a presença nos escritórios da cidade, com quantidade e quais dias combinados com o seu projeto. Converse com o nosso time de recrutamento para saber mais informações sobre política de frequência vigente.
Buscamos pessoas localizadas no Brasil para trabalhar como Data Developer e atuar em um projeto do ramo financeiro.
Responsabilidades: - Projetar, construir e manter arquiteturas de dados robustas e escaláveis na plataforma Azure;- Desenvolver e otimizar pipelines de ETL/ELT utilizando Databricks;- Implementar soluções de processamento de dados em batch e streaming usando Apache Spark no Databricks;- Colaborar com analistas de dados e cientistas de dados para entender e atender às necessidades analíticas do negócio;- Construir e otimizar data lakes e data warehouses na Azure, garantindo eficiência e facilidade de acesso aos dados;- Implementar práticas de Data Mesh para melhorar a governança e o acesso descentralizado aos dados;- Desenvolver scripts e aplicações em Python e PySpark para processamento e análise de dados;- Projetar e implementar soluções de ingestão de dados, tanto em batch quanto em streaming;- Trabalhar com bancos de dados SQL e NoSQL na Azure (Azure SQL Database, Cosmos DB);- Configurar e manter pipelines de CI/CD para automação de deployments e testes;- Monitorar e otimizar o desempenho dos pipelines de dados e clusters Databricks;- Documentar arquiteturas, processos e melhores práticas para garantir a padronização e eficiência da equipe.
Requisitos para este desafio:- Experiência em engenharia de dados;- Experiência com Azure Databricks e Apache Spark;- Experiência em desenvolvimento Python e PySpark;- Experiência de SQL para manipulação de dados e criação de queries complexas;- Experiência com orquestração de pipelines de dados;- Conhecimento de Azure Storage (Blob Storage, Data Lake Storage Gen2);- Familiaridade com conceitos e implementações de Data Lakes e Data Mesh;- Experiência com bancos de dados SQL (Azure SQL Database) e NoSQL (Cosmos DB);- Conhecimento em práticas de Infraestrutura como Código (IaC), preferencialmente com ARM templates ou Terraform;- Experiência com ferramentas de CI/CD (Azure DevOps, GitHub Actions);- Habilidade em otimização de performance de queries e jobs Spark;- Experiência com ingestão de dados em batch e streaming na Azure;- Conhecimento em práticas de governança de dados e segurança na nuvem.
Diferencias:- Certificações da Microsoft Azure (Azure Data Engineer Associate, Azure Solutions Architect);- Experiência com Azure Synapse Analytics;- Conhecimento em Delta Lake e Databricks Delta;- Familiaridade com ferramentas de visualização de dados como Power BI;- Experiência com arquiteturas de microsserviços e containers (Docker, Kubernetes);- Conhecimento em técnicas de machine learning e sua integração com pipelines de dados;- Experiência com ferramentas de observabilidade e monitoramento na Azure.
#MidSenior#LI-CB1Nossos benefícios:
- Plano de saúde e odontológico;- Vale alimentação e refeição;- Auxílio-creche;- Licença paternagem estendida;- Gympass- PLR;- Seguro de Vida;- Parceria com plataforma online de saúde mental;- CI&T University;- Clube de descontos;- Programa de Apoio: orientação psicológica; nutricionista e mais;- Curso gestante e paternagem responsável;- Parceria com plataformas de cursos online;- Plataforma para aprendizagem de idiomas;- E muitos outros.
Mais detalhes sobre os nossos benefícios aqui: https://ciandt.com/br/pt-br/carreiras
Por aqui, celebramos e valorizamos a diversidade de identidades e experiências de vida. Reconhecemos que inovação e transformação só acontecem em ambientes de trabalho diversificados, inclusivos e seguros. Por isso, incentivamos fortemente pessoas de comunidades diversas e sub-representadas a se candidatarem às nossas vagas.
Antes de se candidatar às nossas oportunidades confira a Política de Conflito de Interesse em nosso site.
*Cidades que compõem a Região Metropolitana de Campinas: Americana, Artur Nogueira, Campinas, Cosmópolis, Engenheiro Coelho, Holambra, Hortolândia, Indaiatuba, Itatiba, Jaguariúna. Monte Mor, Morungaba, Nova Odessa, Paulínia, Pedreira, Santa Bárbara d'Oeste, Santo, Antônio de Posse, Sumaré, Valinhos, Vinhedo
* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰
Job stats:
0
0
0
Category:
Engineering Jobs
Tags: Azure CI/CD Cosmos DB Databricks DevOps Docker ELT ETL GitHub Kubernetes Machine Learning NoSQL Pipelines Power BI PySpark Python Spark SQL Streaming Terraform
Perks/benefits: Fitness / gym
Region:
South America
Country:
Brazil
More jobs like this
Explore more career opportunities
Find even more open roles below ordered by popularity of job title or skills/products/technologies used.
Data Engineer II jobsData Scientist II jobsBI Developer jobsStaff Data Scientist jobsPrincipal Data Engineer jobsData Manager jobsJunior Data Analyst jobsResearch Scientist jobsData Science Manager jobsLead Data Analyst jobsBusiness Data Analyst jobsSenior AI Engineer jobsData Engineer III jobsSr. Data Scientist jobsData Science Intern jobsData Specialist jobsSoftware Engineer, Machine Learning jobsJunior Data Engineer jobsSenior Data Scientist, Performance Marketing jobsData Analyst II jobsSoftware Engineer II jobsBI Analyst jobsData Analyst Intern jobsSr Data Engineer jobsSenior Artificial Intelligence/Machine Learning Engineer - Remote, Latin America jobs
Databricks jobsSnowflake jobsLinux jobsHadoop jobsComputer Vision jobsOpen Source jobsJavaScript jobsPhysics jobsRDBMS jobsAirflow jobsKafka jobsMLOps jobsBanking jobsNoSQL jobsData Warehousing jobsScala jobsGoogle Cloud jobsR&D jobsStreaming jobsKPIs jobsData warehouse jobsGitHub jobsClassification jobsOracle jobsCX jobs
PostgreSQL jobsSAS jobsScikit-learn jobsData Mining jobsScrum jobsE-commerce jobsPandas jobsTerraform jobsDistributed Systems jobsLooker jobsPySpark jobsBigQuery jobsRobotics jobsIndustrial jobsJira jobsJenkins jobsRedshift jobsUnstructured data jobsReact jobsdbt jobsMicroservices jobsMySQL jobsData strategy jobsNumPy jobsMatlab jobs