[Job - 19485] MidLevel Data Developer (Databricks), Brazil
Brazil
Nós somos especialistas em tech transformation, nós somos a CI&T.
Combinamos a força disruptiva da Inteligência Artificial com a expertise humana para apoiar grandes companhias a navegar as mudanças na tecnologia e nos negócios. Temos 30 anos de experiência, 6.000 pessoas, escritórios em 10 países e talentos distribuídos em 5 continentes. Atuamos nas frentes de design, estratégia e engenharia para marcas globais, apoiando clientes a alcançarem o máximo potencial da tecnologia como uma força para o bem. Impacto é o que entregamos.
Importante: Nossas posições para a Região Metropolitana de Campinas* requerem a presença nos escritórios da cidade, com quantidade e quais dias combinados com o seu projeto. Converse com o nosso time de recrutamento para saber mais informações sobre política de frequência vigente.
Estamos buscando um Data Developer apaixonado por tecnologia e com expertise em construir e manter pipelines de dados robustos e escaláveis. Se você possui um profundo conhecimento de engenharia de dados, domínio de ferramentas como Databricks e Azure, e paixão por trabalhar com dados, esta é a oportunidade perfeita para você!
Suas responsabilidades serão:
- Projetar e implementar pipelines de dados complexos e eficientes utilizando Databricks e Azure Data Factory, seguindo padrões de arquitetura Medalhão.- Dominar o processo ETL, garantindo a qualidade dos dados em todas as etapas, desde a extração até a carga.Modelar dados dimensionalmente e implementar políticas de governança de dados rigorosas.- Desenvolver e manter código em Spark/PySpark e Python, com foco em orientação a objetos, utilizando boas práticas de engenharia de dados.- Escrever e otimizar consultas SQL para garantir o acesso eficiente aos dados.- Diagnosticar e solucionar problemas relacionados aos dados, garantindo a estabilidade e o desempenho dos pipelines.- Colaborar com diferentes áreas de negócio para entender as necessidades de dados e traduzi-las em soluções eficazes.- Implementar testes unitários e testes de integração para garantir a qualidade do código e dos pipelines de dados.- Aplicar princípios de FinOps para otimizar os custos relacionados à infraestrutura e aos serviços de dados.- Orquestrar pipelines de dados complexos utilizando workflows e Azure Data Factory.- Comunicar-se de forma clara e eficiente com a equipe, contribuindo para um ambiente colaborativo e de alto desempenho.
Requisitos essenciais para a posição:
- Experiência comprovada em engenharia de dados, incluindo o desenvolvimento de pipelines de dados complexos.- Sólida experiência em SQL, Python e Spark/PySpark, com domínio de serviços em nuvem Azure.- Conhecimento de bancos de dados, governança de dados e modelagem de dados.- Experiência com processos ETL, particularmente utilizando Databricks e Azure Data Factory.- Capacidade de se manter atualizado com as últimas tendências e tecnologias em engenharia de dados.- Experiência com testes automatizados e familiaridade com frameworks de testes.
Diferenciais para se destacar:
- Sólida experiência em desenvolvimento com Python, com ênfase em programação orientada a objetos.- Experiência com outras linguagens de programação.- Certificações ou treinamento formal em serviços em nuvem Azure e Databricks.- Habilidades de comunicação, com capacidade de explicar conceitos técnicos complexos de forma clara e concisa.- Experiência na implementação de processos de governança de dados, utilizando ferramentas de data quality, profiling, catálogo e linhagem de dados.- Experiência com processamento em streaming de dados, com capacidade de escolher a melhor abordagem para cada cenário.
Se você está pronto para assumir desafios e fazer a diferença em uma empresa inovadora, envie seu currículo!
Junte-se à nossa equipe e ajude-nos a transformar dados em insights valiosos!
#MidLevel#LI-DR3
Nossos benefícios:
- Plano de saúde e odontológico;- Vale alimentação e refeição;- Auxílio-creche;- Licença paternagem estendida;- Gympass- PLR;- Seguro de Vida;- Parceria com plataforma online de saúde mental;- CI&T University;- Clube de descontos;- Programa de Apoio: orientação psicológica; nutricionista e mais;- Curso gestante e paternagem responsável;- Parceria com plataformas de cursos online;- Plataforma para aprendizagem de idiomas;- E muitos outros.
Mais detalhes sobre os nossos benefícios aqui: https://ciandt.com/br/pt-br/carreiras
Por aqui, celebramos e valorizamos a diversidade de identidades e experiências de vida. Reconhecemos que inovação e transformação só acontecem em ambientes de trabalho diversificados, inclusivos e seguros. Por isso, incentivamos fortemente pessoas de comunidades diversas e sub-representadas a se candidatarem às nossas vagas.
Antes de se candidatar às nossas oportunidades confira a Política de Conflito de Interesse em nosso site.
*Cidades que compõem a Região Metropolitana de Campinas: Americana, Artur Nogueira, Campinas, Cosmópolis, Engenheiro Coelho, Holambra, Hortolândia, Indaiatuba, Itatiba, Jaguariúna. Monte Mor, Morungaba, Nova Odessa, Paulínia, Pedreira, Santa Bárbara d'Oeste, Santo, Antônio de Posse, Sumaré, Valinhos, Vinhedo
Combinamos a força disruptiva da Inteligência Artificial com a expertise humana para apoiar grandes companhias a navegar as mudanças na tecnologia e nos negócios. Temos 30 anos de experiência, 6.000 pessoas, escritórios em 10 países e talentos distribuídos em 5 continentes. Atuamos nas frentes de design, estratégia e engenharia para marcas globais, apoiando clientes a alcançarem o máximo potencial da tecnologia como uma força para o bem. Impacto é o que entregamos.
Importante: Nossas posições para a Região Metropolitana de Campinas* requerem a presença nos escritórios da cidade, com quantidade e quais dias combinados com o seu projeto. Converse com o nosso time de recrutamento para saber mais informações sobre política de frequência vigente.
Estamos buscando um Data Developer apaixonado por tecnologia e com expertise em construir e manter pipelines de dados robustos e escaláveis. Se você possui um profundo conhecimento de engenharia de dados, domínio de ferramentas como Databricks e Azure, e paixão por trabalhar com dados, esta é a oportunidade perfeita para você!
Suas responsabilidades serão:
- Projetar e implementar pipelines de dados complexos e eficientes utilizando Databricks e Azure Data Factory, seguindo padrões de arquitetura Medalhão.- Dominar o processo ETL, garantindo a qualidade dos dados em todas as etapas, desde a extração até a carga.Modelar dados dimensionalmente e implementar políticas de governança de dados rigorosas.- Desenvolver e manter código em Spark/PySpark e Python, com foco em orientação a objetos, utilizando boas práticas de engenharia de dados.- Escrever e otimizar consultas SQL para garantir o acesso eficiente aos dados.- Diagnosticar e solucionar problemas relacionados aos dados, garantindo a estabilidade e o desempenho dos pipelines.- Colaborar com diferentes áreas de negócio para entender as necessidades de dados e traduzi-las em soluções eficazes.- Implementar testes unitários e testes de integração para garantir a qualidade do código e dos pipelines de dados.- Aplicar princípios de FinOps para otimizar os custos relacionados à infraestrutura e aos serviços de dados.- Orquestrar pipelines de dados complexos utilizando workflows e Azure Data Factory.- Comunicar-se de forma clara e eficiente com a equipe, contribuindo para um ambiente colaborativo e de alto desempenho.
Requisitos essenciais para a posição:
- Experiência comprovada em engenharia de dados, incluindo o desenvolvimento de pipelines de dados complexos.- Sólida experiência em SQL, Python e Spark/PySpark, com domínio de serviços em nuvem Azure.- Conhecimento de bancos de dados, governança de dados e modelagem de dados.- Experiência com processos ETL, particularmente utilizando Databricks e Azure Data Factory.- Capacidade de se manter atualizado com as últimas tendências e tecnologias em engenharia de dados.- Experiência com testes automatizados e familiaridade com frameworks de testes.
Diferenciais para se destacar:
- Sólida experiência em desenvolvimento com Python, com ênfase em programação orientada a objetos.- Experiência com outras linguagens de programação.- Certificações ou treinamento formal em serviços em nuvem Azure e Databricks.- Habilidades de comunicação, com capacidade de explicar conceitos técnicos complexos de forma clara e concisa.- Experiência na implementação de processos de governança de dados, utilizando ferramentas de data quality, profiling, catálogo e linhagem de dados.- Experiência com processamento em streaming de dados, com capacidade de escolher a melhor abordagem para cada cenário.
Se você está pronto para assumir desafios e fazer a diferença em uma empresa inovadora, envie seu currículo!
Junte-se à nossa equipe e ajude-nos a transformar dados em insights valiosos!
#MidLevel#LI-DR3
Nossos benefícios:
- Plano de saúde e odontológico;- Vale alimentação e refeição;- Auxílio-creche;- Licença paternagem estendida;- Gympass- PLR;- Seguro de Vida;- Parceria com plataforma online de saúde mental;- CI&T University;- Clube de descontos;- Programa de Apoio: orientação psicológica; nutricionista e mais;- Curso gestante e paternagem responsável;- Parceria com plataformas de cursos online;- Plataforma para aprendizagem de idiomas;- E muitos outros.
Mais detalhes sobre os nossos benefícios aqui: https://ciandt.com/br/pt-br/carreiras
Por aqui, celebramos e valorizamos a diversidade de identidades e experiências de vida. Reconhecemos que inovação e transformação só acontecem em ambientes de trabalho diversificados, inclusivos e seguros. Por isso, incentivamos fortemente pessoas de comunidades diversas e sub-representadas a se candidatarem às nossas vagas.
Antes de se candidatar às nossas oportunidades confira a Política de Conflito de Interesse em nosso site.
*Cidades que compõem a Região Metropolitana de Campinas: Americana, Artur Nogueira, Campinas, Cosmópolis, Engenheiro Coelho, Holambra, Hortolândia, Indaiatuba, Itatiba, Jaguariúna. Monte Mor, Morungaba, Nova Odessa, Paulínia, Pedreira, Santa Bárbara d'Oeste, Santo, Antônio de Posse, Sumaré, Valinhos, Vinhedo
* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰
Job stats:
0
0
0
Category:
Engineering Jobs
Tags: Azure Databricks Data quality ETL Pipelines PySpark Python Spark SQL Streaming
Perks/benefits: Fitness / gym
Region:
South America
Country:
Brazil
More jobs like this
Explore more career opportunities
Find even more open roles below ordered by popularity of job title or skills/products/technologies used.
Staff Machine Learning Engineer jobsStaff Data Scientist jobsData Scientist II jobsPrincipal Data Engineer jobsBI Developer jobsData Manager jobsJunior Data Analyst jobsResearch Scientist jobsData Science Manager jobsBusiness Data Analyst jobsSenior AI Engineer jobsData Engineer III jobsLead Data Analyst jobsData Specialist jobsData Science Intern jobsSr. Data Scientist jobsPrincipal Software Engineer jobsSoftware Engineer II jobsBI Analyst jobsData Analyst Intern jobsData Analyst II jobsSoftware Engineer, Machine Learning jobsAzure Data Engineer jobsJunior Data Engineer jobsSenior Data Scientist, Performance Marketing jobs
Snowflake jobsLinux jobsEconomics jobsOpen Source jobsBanking jobsHadoop jobsRDBMS jobsComputer Vision jobsJavaScript jobsPhysics jobsData Warehousing jobsKafka jobsNoSQL jobsGoogle Cloud jobsR&D jobsAirflow jobsKPIs jobsMLOps jobsScala jobsStreaming jobsClassification jobsData warehouse jobsOracle jobsPostgreSQL jobsGitHub jobs
Scikit-learn jobsTerraform jobsCX jobsScrum jobsSAS jobsPySpark jobsData Mining jobsPandas jobsIndustrial jobsDistributed Systems jobsRobotics jobsBigQuery jobsJira jobsRedshift jobsUnstructured data jobsJenkins jobsE-commerce jobsLooker jobsMicroservices jobsData strategy jobsdbt jobsPharma jobsReact jobsMySQL jobsNumPy jobs