Pracuj.pl Hybrydowo Mid New

Data Engineer (GCP)

Britenet Sp. z o.o.

⚲ Warszawa

100–130 zł netto (+ VAT) / godz.

Wymagania

  • GCP Big Query
  • GCP Big Table
  • Apache AirFlow
  • GCP Data Flow
  • GCP Data Proc
  • Kafka
  • Python
  • PySpark
  • Rust
  • Oracle
  • PostgreSQL
  • ScyllaDB
  • Rest API
  • Informatica PowerCenter
  • NIFI
  • Automate Now
  • JAVA
  • GIT
  • Grafana
  • Apache JMeter

Opis stanowiska

Nasze wymagania: Co najmniej 5-letniego doświadczenia jako Data Engineer GCP w obszarze procesów integracji danych na GCP Bardzo dobra znajomość baz danych GCP: GCP Big Query, GCP Big Table, Scylla Cloud (projektowanie, budowa i tuning baz danych) Dobra znajomość narzędzi ETL Flow na GCP: Apache AirFlow, GCP Data Flow, GCP Data Proc Korzystanie z kolejek: Kafka, GCP Pub/Sub Co najmniej 4-letnie doświadczenie jako Developer ETL w obszarze procesów integracji danych na on-prem Biegłe posługiwanie się narzędziami ETL na on-prem na poziomie zaawansowanym: Informatica PowerCenter, NIFI Ekspercka znajomość relacyjnych baz danych Oracle, PostgreSQL, ScyllaDB (projektowanie, budowa i tuning baz danych) Bardzo dobra znajomość narzędzia harmonogramującego Automate Now firmy Infinity Data Umiejętność wystawiania usług Rest API Biegła znajomość Python (w obszarze integracji i analizy danych) oraz framework PySpark Znajomość języka Rust do pisania narzędzi i frameworków wspomagających wydajne ładowanie danych Z czasem przejęcie odpowiedzialności za wybrany obszar przetwarzania i wystawiania danych pod usługi w wysokim reżimie wydajnościowym Mile widziane: Podstawowa wiedza w zakresie programowania MicroServices w języku JAVA Korzystanie z systemu operacyjnego Linux na poziomie zaawansowanego użytkownika Doświadczenie w pracy z dużymi wolumenami danych ~100TB Umiejętności analitycznego myślenia i szybkiego przyswajania wiedzy Samodzielność i kreatywność w rozwiązywaniu problemów Terminowość i rzetelność w realizacji projektów Mile widziana znajomość narzędzi pomocniczych: repozytorium GIT, narzędzi do monitorowania jak np. Grafana, narzędzia do testów wydajności jak Apache JMeter O projekcie: Praca w obszarze przetwarzania i wystawiania danych pod usługi w wysokim reżimie wydajnościowym Integracja dużych wolumenów danych (~100TB) Praca z procesami ETL zarówno na GCP (chmura), jak i on-prem Zakres obowiązków: Rozwój projektu bankowego