ETL/Data Engineer

Warszawa, mazowieckie

PKO Bank Polski

PKO Bank Polski - Twoje bezpieczne i wygodne rozwiązania finansowe. Oferujemy darmowe konto osobiste, kredyty, lokaty, ubezpieczenia oraz usługi dodatkowe

View all jobs at PKO Bank Polski

Apply now Apply later

Na co dzień w naszym zespole:

  • budujemy procesy zasilania operacyjnej składnicy danych zarówno on-line jak i off-line,
  • projektujemy i realizujemy rozwiązania informatyczne w obszarze zasilania danych,
  • analizujemy dane oraz przygotowujemy dla nich modele logiczne i fizyczne,
  • stroimy zapytania SQL na bazach relacyjnych, hurtowianych w on-prem i na Chmurze GCP,
  • tworzymy przepływy off-linowe zarówno w narzędziach on-prem jak i GCP,
  • tworzymy rozwiązania ładowania danych w Python,
  • tworzymy przepływy strumieniowowe danych,
  • przygotowujemy datamarty tematyczne na bazach relacyjnych i kolumnowych,
  • tworzymy koncepcje rozwiązań i implementacje rozwiązań w oparciu o wymagania i potrzeby biznesu,
  • usuwamy incydenty i bierzemy udział w rozwiązywaniu problemów,
  • wspieramy testy i wdrażania zmian w zakresie procesów zasilania danych,
  • pomagamy przy serwisowaniu wdrożonego oprogramowania,
  • pracujemy zgodnie z modelem DevOps.

To stanowisko może być Twoje, jeśli:

  • masz minimum 5 lat doświadczenia jako Developer ETL w obszarze procesów integracji danych na on-prem, w szczególności oczekujemy:

- eksperckiej znajomości relacyjnych baz danych Oracle, PostgeSQL (projektowanie, budowa i tiuning baz danych),
- znajomości narzędzi ETL na on-prem na poziomie zaawansowanym (Informatic Power Center),
- bardzo dobrej znajomości narzędzi harmonogramujących,
- umiejętności wystawiania usług Rest API,

  • masz minimum 3 lata doświadczenia jako Data Engineer GCP w obszarze procesów integracji danych na GCP, w tym:

- dobrej znajomości baz danych GCP - GCP Big Query, GCP Big Table, Scylla Cloud (projektowanie, budowa i tiuning baz danych),
- dobrej znajomości narzędzi ETL Flow na GCP (Apache AirFlow , GCP Data Flow, GCP Data Proc),
- znajomości Pythona/ PySparka na poziomie potrzebnym do pracy z danymi,

  • umiesz programować w językach: Rust i/lub Java - mile widziane. 
Apply now Apply later

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Job stats:  1  0  0
Category: Engineering Jobs

Tags: Airflow APIs BigQuery Bigtable DevOps ETL GCP Java Oracle PySpark Python REST API Rust SQL

Region: Europe
Country: Poland

More jobs like this