[Job- 23531] Mid-Level Data Developer Vaga para pessoas com deficiência
Brazil
⚠️ We'll shut down after Aug 1st - try foo🦍 for all jobs in tech ⚠️
Somos especialistas em transformação tecnológica, unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 7.400 CI&Ters ao redor do mundo, já formamos parcerias com mais de 1.000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade.
Importante: posições localizadas na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequência vigente.Estamos em busca de uma pessoa Mid-Level Data Developer para se juntar à nossa equipe de desenvolvimento e impulsionar nossa busca pela excelência técnica e inovação contínua.Se deseja atuar na criação de soluções inovadoras e participar de um time multidisciplinar, esta pode ser a oportunidade perfeita para você.
Missão:Participar ativamente de iniciativas de transformação digital através da implementação e manutenção de componentes da nova arquitetura de dados (Data Lakehouse) usando tecnologias AWS e Databricks. A pessoa trabalhará com autonomia em tarefas específicas, contando com orientação em decisões arquitetônicas mais complexas.
Responsabilidades:- Implementação de dashboards e relatórios usando Power BI- Desenvolvimento e manutenção de pipelines ETL/ELT seguindo padrões estabelecidos- Contribuição para arquiteturas de processamento em tempo real- Utilização de serviços AWS (S3, Redshift, Glue, Lambda, Kinesis) para operações de dados- Escrita de código Python para ingestão e transformação de dados- Participação em equipes multifuncionais em ambiente ágil- Aplicação de práticas definidas para garantia de qualidade dos dados- Otimização de queries e pipelines para melhor desempenho- Documentação de processos e soluções implementadas
Requisitos:- Experiência prévia com Engenharia de Dados- Bom conhecimento de Python para processamento de dados- Experiência com Databricks (Spark, Delta Lake)- Familiaridade com serviços AWS, Azure ou GCP para manipulação de dados- Experiência com ferramentas ETL/ELT como Airflow ou AWS Glue- Conhecimento de metodologias ágeis (Scrum/Kanban)- Experiência com bancos de dados relacionais e não-relacionais- Bons conhecimentos de SQL e otimização básica de consultas- Capacidade de trabalhar com orientação e alguma autonomia- Conhecer e já ter atuado na construção e manutenção de catálogo de dados.
Diferenciais:- Certificações básicas em AWS ou Databricks- Experiência inicial com arquiteturas Data Lakehouse- Conhecimento de arquiteturas de dados AWS- Interesse em automação e melhoria de processos- Experiência com ferramentas de visualização de dados (Power BI)- Experiência com construção e manutenção de catálogo de dados
Nossos benefícios:
- Plano de saúde e odontológico;- Vale alimentação e refeição;- Auxílio-creche;- Licença parental estendida;- Parceria com academias e profissionais de saúde e bem-estar via Wellhub (Gympass) TotalPass;- Participação nos Lucros e Resultados (PLR);- Seguro de Vida;- Plataforma de aprendizagem contínua (CI&T University);- Clube de descontos;- Plataforma online gratuita dedicada à promoção da saúde física, mental e bem-estar;- Curso gestante e parentalidade responsável;- Parceria com plataformas de cursos online;- Plataforma para aprendizagem de idiomas;- E muitos outros
Mais detalhes sobre os nossos benefícios aqui: https://ciandt.com/br/pt-br/carreiras
Na CI&T, a inclusão começa no primeiro contato. Se você é pessoa com deficiência, é importante apresentar o seu laudo durante o processo seletivo. Assim, podemos garantir o suporte e as adaptações que você merece. Se ainda não tem o laudo caracterizador, não se preocupe: podemos te apoiar para obtê-lo.
Temos um time dedicado de Saúde e Bem-estar, especialistas em inclusão e grupos de afinidade que estarão com você em todas as etapas. Conte com a gente para fazer essa jornada lado a lado.
Importante: posições localizadas na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequência vigente.Estamos em busca de uma pessoa Mid-Level Data Developer para se juntar à nossa equipe de desenvolvimento e impulsionar nossa busca pela excelência técnica e inovação contínua.Se deseja atuar na criação de soluções inovadoras e participar de um time multidisciplinar, esta pode ser a oportunidade perfeita para você.
Missão:Participar ativamente de iniciativas de transformação digital através da implementação e manutenção de componentes da nova arquitetura de dados (Data Lakehouse) usando tecnologias AWS e Databricks. A pessoa trabalhará com autonomia em tarefas específicas, contando com orientação em decisões arquitetônicas mais complexas.
Responsabilidades:- Implementação de dashboards e relatórios usando Power BI- Desenvolvimento e manutenção de pipelines ETL/ELT seguindo padrões estabelecidos- Contribuição para arquiteturas de processamento em tempo real- Utilização de serviços AWS (S3, Redshift, Glue, Lambda, Kinesis) para operações de dados- Escrita de código Python para ingestão e transformação de dados- Participação em equipes multifuncionais em ambiente ágil- Aplicação de práticas definidas para garantia de qualidade dos dados- Otimização de queries e pipelines para melhor desempenho- Documentação de processos e soluções implementadas
Requisitos:- Experiência prévia com Engenharia de Dados- Bom conhecimento de Python para processamento de dados- Experiência com Databricks (Spark, Delta Lake)- Familiaridade com serviços AWS, Azure ou GCP para manipulação de dados- Experiência com ferramentas ETL/ELT como Airflow ou AWS Glue- Conhecimento de metodologias ágeis (Scrum/Kanban)- Experiência com bancos de dados relacionais e não-relacionais- Bons conhecimentos de SQL e otimização básica de consultas- Capacidade de trabalhar com orientação e alguma autonomia- Conhecer e já ter atuado na construção e manutenção de catálogo de dados.
Diferenciais:- Certificações básicas em AWS ou Databricks- Experiência inicial com arquiteturas Data Lakehouse- Conhecimento de arquiteturas de dados AWS- Interesse em automação e melhoria de processos- Experiência com ferramentas de visualização de dados (Power BI)- Experiência com construção e manutenção de catálogo de dados
Nossos benefícios:
- Plano de saúde e odontológico;- Vale alimentação e refeição;- Auxílio-creche;- Licença parental estendida;- Parceria com academias e profissionais de saúde e bem-estar via Wellhub (Gympass) TotalPass;- Participação nos Lucros e Resultados (PLR);- Seguro de Vida;- Plataforma de aprendizagem contínua (CI&T University);- Clube de descontos;- Plataforma online gratuita dedicada à promoção da saúde física, mental e bem-estar;- Curso gestante e parentalidade responsável;- Parceria com plataformas de cursos online;- Plataforma para aprendizagem de idiomas;- E muitos outros
Mais detalhes sobre os nossos benefícios aqui: https://ciandt.com/br/pt-br/carreiras
Na CI&T, a inclusão começa no primeiro contato. Se você é pessoa com deficiência, é importante apresentar o seu laudo durante o processo seletivo. Assim, podemos garantir o suporte e as adaptações que você merece. Se ainda não tem o laudo caracterizador, não se preocupe: podemos te apoiar para obtê-lo.
Temos um time dedicado de Saúde e Bem-estar, especialistas em inclusão e grupos de afinidade que estarão com você em todas as etapas. Conte com a gente para fazer essa jornada lado a lado.
* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰
Job stats:
1
0
0
Category:
Engineering Jobs
Tags: Airflow AWS AWS Glue Azure Databricks ELT ETL GCP Kanban Kinesis Lambda Pipelines Power BI Python Redshift Scrum Spark SQL
Perks/benefits: Fitness / gym
Region:
South America
Country:
Brazil
More jobs like this
Explore more career opportunities
Find even more open roles below ordered by popularity of job title or skills/products/technologies used.
Sr. Data Engineer jobsPower BI Developer jobsPrincipal Data Engineer jobsData Scientist II jobsBI Developer jobsStaff Data Scientist jobsPrincipal Software Engineer jobsStaff Machine Learning Engineer jobsDevOps Engineer jobsData Science Intern jobsJunior Data Analyst jobsSoftware Engineer II jobsAI/ML Engineer jobsStaff Software Engineer jobsData Science Manager jobsData Manager jobsLead Data Analyst jobsData Analyst Intern jobsData Specialist jobsSr. Data Scientist jobsBusiness Data Analyst jobsBusiness Intelligence Analyst jobsData Governance Analyst jobsData Engineer III jobsSenior Backend Engineer jobs
Consulting jobsMLOps jobsAirflow jobsOpen Source jobsKafka jobsEconomics jobsKPIs jobsGitHub jobsLinux jobsJavaScript jobsTerraform jobsPostgreSQL jobsRAG jobsPrompt engineering jobsBanking jobsStreaming jobsData Warehousing jobsScikit-learn jobsNoSQL jobsClassification jobsRDBMS jobsComputer Vision jobsPhysics jobsdbt jobsHadoop jobs
Pandas jobsScala jobsGoogle Cloud jobsGPT jobsData warehouse jobsR&D jobsLangChain jobsMicroservices jobsBigQuery jobsCX jobsELT jobsOracle jobsDistributed Systems jobsScrum jobsLooker jobsReact jobsIndustrial jobsPySpark jobsRedshift jobsJira jobsOpenAI jobsRobotics jobsSAS jobsUnstructured data jobsSalesforce jobs