Pessoa de Engenharia de Dados - PL
Remote
Spassu
Soluções digitais de ponta a ponta que resolvem problemas e criam oportundiades de negócio.Este é um cargo remoto.
Você é apaixonado por tecnologia, busca sempre inovar na sua área e está super atento às práticas ágeis?Achou seu próximo time!! ;)
Um grande projeto, pronto para receber talentos únicos!
Você é uma PPessoa de Engenharia de Dados PL?! Se sim, se inscreva para esta posição!
Nos projetos que a Spassu desenvolve sempre tem lugar para mentes inquietas como a sua!
Venha expandir seus conhecimentos conosco!
Os CV's permanecerão em poder da empresa enquanto perdurar o processo seletivo e pelo período adicional de 2 anos, para eventuais processos seletivos futuros, em atendimento a Lei Geral de Proteção de Dados.
Principais responsabilidades:
Responsável pelo desenvolvimento e adequação de aplicações analíticas realizando a automatização dos insights e que os mesmos sejam devidamente entregues no ambiente dos principais interessados.
Criação do workflow dos dados, desde a coleta, até a entrega para análise ou para alimentar um produto ou serviço.
Avaliação e detalhamento da especificação técnica de requisitos para ambientes utilizando ecossistema Hadoop.
Garantir que a arquitetura e os dados estejam disponíveis de forma performática para os Cientistas de Dados. Manutenção, configuração e equalização de ambientes de experimentação, desenvolvimento e teste que compõe Arquitetura Tecnológica, Plataforma Business Intelligence, Business Analytics e de Ciência de Dados.
Requisitos
Escolaridade Mínima: Graduação em curso de nível superior na área de Tecnologia da Informação, ou conclusão de qualquer curso de nível superior acompanhado de certificado de curso de pósgraduação (especialização, mestrado ou doutorado) na área de Tecnologia da Informação de, no mínimo, 360 horas.Conhecimentos: Python, Scala, Java, R e SQL. a) Auxiliar na identificação e aproveitamento de recursos para atender aos requisitos técnicos e objetivos da implementação; b) Conhecimento de Design Patterns e Boas Práticas (TDD, SOLID…); c) Experiência em Modelagem de dados, Data Warehouse e bancos de dados MPP (Massively Parallel Processing); d) Conhecimentos na plataforma Hadoop (HDFS, Hive, Sqoop, Spark, Hbase, Pig), incluindo MapReduce e Yarn; e) Habilidade para definir e construir bancos de dados relacionais com arquitetura distribuída para processamento usando ecossistema Hadoop com MapReduce; f) Orientar e dar suporte à criação de bases de dados estruturadas e não estruturadas e aplicar técnicas de análise e extração de informação; g) Conhecimento de bancos de dados NoSQL (K/V, BigTable, Document Oriented – Riak, Cassandra, HBASE, MongoDB, etc); h) Experiência em codificação de scripts de consulta a dados (SQL-like); i) Orientar e dar suporte no trabalho com o framework Spark, j) Auxiliar nas análises e processamento de dados em tempo real; k) Habilidade de orientação técnica a equipes de desenvolvimento, modeladores de dados e analistas funcionais; l) Conhecimento na definição e desenvolvimento de mecanismos de integração de dados com fontes e formatos diversos; m) Conhecimento de métodos e técnicas para melhorar a eficiência, a qualidade e a confiabilidade dos dados; n) Conhecimento em processos de ingestão de dados utilizando armazenamento e processamento distribuído de dados; o) Conhecimento de codificação de rotinas de transformação e movimentação/transposição de dados e arquivos; p) Conhecimento e experiência na utilização de ferramentas de ETL (extração, transformação e carga); q) Orientar e dar suporte no processo de desenvolvimento e teste/revisão de sistemas e aplicações analíticas; r) Conhecimentos em ferramentas de Business Intelligence e visualização; s) Conhecimento na elaboração de visualização de dados utilizando SAP BO, Pentaho, Tableau e PowerBI; t) Desenvolvimento de sistemas frontend e backend que ajudam a coletar e processar dados; u) Conhecimento na elaboração de frameworks de desenvolvimento de software, quality assurance e automação; v) Desenvolvimento de aplicações analíticas que podem ser usadas para operações do dia a dia, bem como para a tomada de decisões; w) Conhecimento no desenvolvimento de aplicação utilizando bancos in-memory; x) Conhecimento sobre a utilização Elastic Search em Ambientes Distribuídos; y) Conhecimento sobre modelos de programação que permite análise e processamento de dados massivos em um algoritmo paralelo e distribuído (MapReduce ou tecnologia semelhante); z) Desenhar, desenvolver e testar aplicações usando modelo de programação que permite análise e processamento de dados massivos em um algoritmo paralelo e distribuído (MapReduce ou tecnologia semelhante); aa) Conhecimentos nas linguagens Shell, Java, SQL e Python, R e Scala; bb) Conhecimento de arquiteturas de integração e mensageria (SOA, EAI, MOM); cc) Conhecimento de Aplicações Web, Backends e APIs REST; dd) Conhecimento na construção de APIs para acesso das aplicações via microserviços; ee) Execução de testes unitários e integrados; ff) Orientar e dar suporte nas ferramentas de machine learning do ecossistema Hadoop; gg) Orientar e dar suporte na utilização dos frameworks para Deep Learning: Theano, Mahout, Spark MLlib, TensorFlow, Keras, Caffe e Microsoft CNTK, ou outros recomendados pelo mercado; hh) Orientação e suporte na utilização de machine learning com algoritmos para coleta dados, aprendizado realizando determinação ou predição sobre negócios; ii) Orientação em questões relacionadas segurança e suas integrações; jj) Conhecimento em análise de desempenho em plataforma Hadoop, tuning de aplicações e componentes; kk) Orientação e assistência na criação de monitoração das soluções que usam o Ecossistema Hadoop; ll) Auxiliar na integração dos produtos de monitoração (ex. Grafana, Zabbix), utilizados pela CAIXA ao Ecossistema Hadoop; mm) Acompanhament o e suporte nos processos de implantação de soluções nos ambientes da CAIXA; nn) Orientação no processo de construção, migração, e atualização do Ecossistema Hadoop oo) Experiência em projetos de Dados, BI, BIG DATA e Analytics. pp) Conhecimentos em Engenharia, Ciências da Computação, Administração, Estatística, Matemática ou cursos relacionados à Tecnologia da Informação; qq) Conhecimentos em Business Intelligence, Big Data ou Arquitetura de Software Distribuídos; rr) Experiência em integração, processamento e armazenamento de grandes volumes de dados; ss) Atuação em projetos de BI, Big Data; tt) Experiências em ferramentas ETL’s; uu) Conhecimento em modelagem de dados relacionais e dimensionais (Data WareHouse); vv) Compreensão da arquitetura lambda; ww) Experiência com bancos de dados relacionais como: SQL Server, Sybase IQ, Oracle, PostgreSQL e DB2; xx) Experiência com bancos de dados não relacionais como: Apache Hawq, HBase, DynamoDB, Cassandra ou MongoDB; yy) Experiências em tecnologias relacionadas ao ecossistema Hadoop tais como: Hdfs, HBase, MapReduce, Spark, Hive; zz) Conhecimento em sistemas baseados no Unix; aaa) Conhecimento em ferramentas de provisionamento de infraestrutura em cloud via código tais como: Terraform,OpenTF e CloudFormation. bbb) Experiência no domínio do problema, conhecendo os requisitos funcionais e não funcionais, as regras de negócio para suporte a tomada de decisão ccc) Execução de atividades de inovação, tais como a realização estudos de prospecção e avaliação do mercado na busca das melhores práticas, tendências e soluções, bem como a orientação, prospecção, padronização e implantação de governança de serviços objetos deste documento; ddd) Colaborar na definição de arquitetura de novas soluções e manutenções das arquiteturas atuais. eee) Conhecimento dos princípios e práticas de desenvolvimento de software ágil, incluindo o Manifesto Ágil, Scrum, Extreme Programming (XP) e Kanban. fff) Desenvolver conforme padrões de projetos adotados, suportando os requisitos exigidos, prezando pela qualidade, estabilidade, desempenho e manutenibilidade. ggg) Conhecimento de modelagem conceitual, lógica e física das informações necessárias para atender o negócio. hhh) Experiência em modelagem relacional e multidimensional; iii) Conhecimento e experiencia no tratamento de diversas fontes de dados (VSAM, CSV, txt, bancos relacionais e nosql) jjj) Experiência na utilização de Interfaces de acesso CICS, CICS/WEB, MTS, Broker/MQ, GED e Workflow; kkk) Conhecimento no processo integração entre sistemas: Mensageria, JMS, WebSphere MQ, Web services, Barramento de serviços (WebSphere Message Broker), REST, EJB 3 lll) Conhecimento desenvolvimento de API RESTFUL (JSON), Experiência com ferramenta de gestão de API; mmm) Conhecimento de controle de versão de código-fonte e uso das ferramentas Clearcase (BASE e UCM), Subversion e GIT(plataforma baixa/intermediária); nnn) Conhecimento de ferramentas de devops: GIT, Jenkins, Maven, Nexus, Docker, Jenkins, Cloud Computing (OpenShift); ooo) Experiência em programação de rotina usando BMC CONTROL-M. ppp) Experiência no desenho e na construção de cubos OLAP; qqq) Experiência em plataformas de BI como Pentaho, Oracle BI Foundation, SAP Business Objects, Microsoft SQL Server e Power BI. rrr) Experiência em revisão de segurança de projetos de dados e Analytics. sss) Conhecimento em análise de desempenho em plataforma Hadoop, tunning de aplicações e componentes.
CERTIFICAÇÕES DESEJÁVEIS: Pelo menos uma certificação na área de datasciense concedidos pelas seguintes empresas: Microsoft, IBM, Cloudera, HortonWorks, Dell/EMC, MongoDB, SAS ou Amazon.
AWS Certified Big Data / AWS Certified Data Analytics, GCP Professional Data Engineer, Microsoft Certified: Azure Data Engineer Associate, CCP Data Engineer Exam.
Disponibilidade para atuação híbrida: RJ, SP, DF.
Benefícios
Plano de SaúdePlano Odontológico
Seguro de Vida
Vale Alimentação ou Refeição
Gympass
Vale Transporte
* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰
Tags: APIs AWS Azure Big Data Bigtable Business Analytics Business Intelligence Caffe Cassandra CloudFormation CSV Data Analytics Data warehouse DB2 Deep Learning DevOps Docker DynamoDB ETL GCP Git Grafana Hadoop HBase HDFS Java Jenkins JSON Kanban Keras Lambda Machine Learning Maven MongoDB MPP NoSQL OLAP Oracle Pentaho PostgreSQL Power BI Python R SAS Scala Scrum Spark SQL Tableau TDD TensorFlow Terraform Theano
Perks/benefits: Fitness / gym
More jobs like this
Explore more career opportunities
Find even more open roles below ordered by popularity of job title or skills/products/technologies used.