Engenharia de Dados - 122486

Alphaville - Barueri, BR, 06.454-000

GFT Technologies

Wir unterstützen unsere Kunden mit modernsten IT-Lösungen, Technologien und Beratung in der digitalen Transformation.

View all jobs at GFT Technologies

Apply now Apply later

O que buscamos:

Estamos em busca de um profissional que atue com Engenharia de dados

 

Responsabilidades:

  • Ser o ponto focal técnico da squad, orientando e suportando a equipe em decisões e implementações técnicas.
  • Desenvolver, implementar e otimizar pipelines de dados utilizando PySpark e Python.
  • Trabalhar com arquiteturas de dados na AWS para garantir a escalabilidade e eficiência do processamento de dados.
  • Monitorar e manter a integridade e performance dos sistemas de dados, utilizando serviços como CloudWatch.
  • Colaborar com outras equipes para entender requisitos de dados e entregar soluções de alta qualidade.
  • Documentar processos e criar relatórios detalhados sobre o status e performance dos sistemas de dados.
  • Aplicar metodologias ágeis para garantir entregas contínuas e incrementais de valor.

 

Requisitos e Qualificações:

  • Capacidade comprovada de liderar tecnicamente projetos complexos e colaborar efetivamente com equipes multifuncionais.
  • Sólidos conhecimentos em PySpark e Python: Proficiência no uso dessas linguagens e frameworks para manipulação e análise de dados.
  • Experiência com processamento de grandes volumes de dados: Habilidade demonstrada na gestão e otimização de fluxos de trabalho envolvendo grandes quantidades de dados.
  • Experiência com serviços AWS: Familiaridade com uma variedade de serviços em nuvem da Amazon Web Services, incluindo:  EventBridge: Para arquiteturas de eventos escaláveis.  Lambda: Para execução de código em resposta a eventos de forma serverless.  EMR (Elastic MapReduce): Para processamento de grandes volumes de dados utilizando frameworks como Apache Hadoop e Apache Spark.  Step Functions: Para orquestração de fluxos de trabalho complexos.  CloudWatch: Para monitoramento e logging de recursos e aplicações.  S3 (Simple Storage Service): Para armazenamento escalável de dados.  EC2 (Elastic Compute Cloud): Para provisionamento e gerenciamento de capacidade computacional na nuvem.
  • Metodologias ágeis: Experiência em trabalhar com metodologias ágeis, como Scrum ou Kanban.
  • SQL: Conhecimento avançado em SQL para manipulação e consulta de bancos de dados.
  • Apache Parquet: Experiência com o formato de armazenamento de dados colunar de alto desempenho.

 

Desejáveis:

  • Certificação AWS Cloud Practitioner: Certificação AWS é um diferencial que demonstra conhecimento e competência na plataforma de serviços em nuvem da AWS.

 

Descrição comportamental:

Procuramos uma pessoa que:

  • Goste de trabalhar em equipe e seja colaborativa em suas atribuições;
  • Tenha coragem para se desafiar e ir além, abraçando novas oportunidades de crescimento;
  • Transforme ideias em soluções criativas e busque qualidade em toda sua rotina;
  • Tenha habilidades de resolução de problemas;
  • Possua habilidade e se sinta confortável para trabalhar de forma independente e gerenciar o próprio tempo;
  • Tenha interesse em lidar com situações adversas e inovadoras no âmbito tecnológico.

 

 

Big enough to deliver – small enough to care.

#VempraGFT

#VamosVoarJuntos

#ProudToBeGFT

 

Apply now Apply later

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Job stats:  0  0  0

Tags: AWS EC2 Hadoop Kanban Lambda Lidar Parquet Pipelines PySpark Python Scrum Spark SQL Step Functions

Region: South America
Country: Brazil

More jobs like this