Engenharia de Dados - 119941

Alphaville - Barueri, BR, 06.454-000

GFT Technologies

Wir unterstützen unsere Kunden mit modernsten IT-Lösungen, Technologien und Beratung in der digitalen Transformation.

View all jobs at GFT Technologies

Apply now Apply later

"Job Description – Data Engineer Pleno Sobre a oportunidade: Desenvolver soluções de big data no âmbito corporativo, em conformidade com boas práticas de desenvolvimento e de governança de dados; Contribuir em projetos de migração de dados e otimizar processos de ETL; Colaborar no desenho de arquiteturas para processamento de dados, seja para novos pipelines ou para melhoria do atual; Garantir que a solução comporte necessidades e requisitos técnicos do time de execução, trabalhando em conjunto com times de TI (Arquitetura, Segurança, Infraestrutura, Governança, Engenharia) e com áreas de negócio; Requisitos Essenciais: Experiência na utilização de soluções cloud e vivência com ferramentas de cloud providers (AWS, Azure, GCP); Experiência com ferramentas/cultura DevOps (CI/CD e Infraestrutura como código); Experiência em banco de dados (SQL e NoSQL); Ter postura proativa, observadora, organizada e comunicativa; Experiência no desenvolvimento de aplicações numa pipeline de dados com Spark utilizando Scala, Airflow com Python, considerando boas práticas de desenvolvimento, testes unitários, devops, deploy e entre outras etapas do ciclo de desenvolvimento de software; Graduação completa em cursos relacionados à Tecnologia da Informação e/ou Ciência de Dados, tais como: Análise de Sistemas, Sistemas de Informação, Engenharia da Computação, Ciência da Computação, Estatística, entre outros; Inglês técnico. Requisitos Desejáveis:  Conhecimento em ETL e UML; Conhecimento em Streaming de Dados usando Kafka e/ou SQS; Conhecimento em esteira DevOps (Jenkins). Certificações AWS / Big Data; Vivência com a cultura Agile; Vivência com assuntos relacionados a LGPD. ". Requisitos: Data Engineer Pleno Sobre a oportunidade: Desenvolver soluções de big data no âmbito corporativo, em conformidade com boas práticas de desenvolvimento e de governança de dados; Contribuir em projetos de migração de dados e otimizar processos de ETL; Colaborar no desenho de arquiteturas para processamento de dados, seja para novos pipelines ou para melhoria do atual; Garantir que a solução comporte necessidades e requisitos técnicos do time de execução, trabalhando em conjunto com times de TI (Arquitetura, Segurança, Infraestrutura, Governança, Engenharia) e com áreas de negócio; Requisitos Essenciais: Experiência na utilização de soluções cloud e vivência com ferramentas de cloud providers (AWS, Azure, GCP); Experiência com ferramentas/cultura DevOps (CI/CD e Infraestrutura como código); Experiência em banco de dados (SQL e NoSQL); Ter postura proativa, observadora, organizada e comunicativa; Experiência no desenvolvimento de aplicações numa pipeline de dados com Spark utilizando Scala, Airflow com Python, considerando boas práticas de desenvolvimento, testes unitários, devops, deploy e entre outras etapas do ciclo de desenvolvimento de software; Graduação completa em cursos relacionados à Tecnologia da Informação e/ou Ciência de Dados, tais como: Análise de Sistemas, Sistemas de Informação, Engenharia da Computação, Ciência da Computação, Estatística, entre outros; Inglês técnico. Requisitos Desejáveis:  Conhecimento em ETL e UML; Conhecimento em Streaming de Dados usando Kafka e/ou SQS; Conhecimento em esteira DevOps (Jenkins). Certificações AWS / Big Data; Vivência com a cultura Agile; Vivência com assuntos relacionados a LGPD. " Testes de UI (Espresso, UI Automator); Debugging com Logcat e ferramentas de inspeção de Android Studio; Profiler para análise de desempenho (CPU, memória, network); Ferramentas de CI/CD (Jenkins, GitLab CI, ou similares);" Soft skills (habilidades interpessoais): Proatividade Resiliência Comunicação Organização Resolução de Conflitos Protagonismo Disciplina Colaboração Comprometimento e positividade Planejamento e organização Perfil analítico Raciocínio lógico Ser consultor

Apply now Apply later
  • Share this job via
  • 𝕏
  • or

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Job stats:  0  0  0

Tags: Agile Airflow AWS Azure Big Data CI/CD DevOps ETL GCP GitLab Jenkins Kafka NoSQL Pipelines Python Scala Spark SQL Streaming

Region: South America
Country: Brazil

More jobs like this