NoFluffJobs Stacjonarnie Senior New

Data Engineer (Senior)

Scalo

⚲ Warszawa

26 040 - 27 720 PLN (B2B)

Wymagania

  • GCP
  • Cloud
  • ETL
  • Apache Airflow
  • Kafka
  • PUB
  • Informatica
  • Oracle
  • PostgreSQL
  • REST API
  • Python
  • PySpark
  • Rust
  • Microservices (nice to have)
  • Java (nice to have)
  • Linux (nice to have)
  • Git (nice to have)
  • Grafana (nice to have)
  • JMeter (nice to have)

Opis stanowiska

O projekcie: Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Co dla Ciebie mamy: -  Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt -  Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych -  Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób -  Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort -  Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci -  Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Wymagania: Ta oferta jest dla Ciebie, jeśli: - masz co najmniej 5-letnie doświadczenie jako Data Engineer GCP w obszarze procesów integracji danych na GCP, - bardzo dobrze znasz bazy danych GCP: GCP Big Query, GCP Big Table, Scylla Cloud, - dobrze znasz narzędzia ETL Flow na GCP: Apache AirFlow, GCP Data Flow, GCP Data Proc, - korzystasz z kolejek Kafka oraz GCP Pub / Sub, - masz co najmniej 4-letnie doświadczenie jako Developer ETL w obszarze procesów integracji danych on-prem, - biegle posługujesz się narzędziami ETL on-prem na poziomie zaawansowanym: Informatica Power Center, NIFI, - posiadasz ekspercką znajomość relacyjnych baz danych Oracle, PostgreSQL, ScyllaDB, - bardzo dobrze znasz narzędzie harmonogramujące Automate Now firmy Infinity Data, - potrafisz wystawiać usługi Rest API, - masz co najmniej 3-letnie doświadczenie jako programista, - biegle znasz Python w obszarze integracji i analizy danych oraz framework PySpark, - znasz język Rust do pisania narzędzi i frameworków wspomagających wydajne ładowanie danych. Mile widziane: - podstawowa wiedza w zakresie programowania MicroServices w języku JAVA, - korzystanie z systemu operacyjnego Linux na poziomie zaawansowanego użytkownika, - doświadczenie w pracy z dużymi wolumenami danych ~100TB, - umiejętności analitycznego myślenia i szybkiego przyswajania wiedzy, - samodzielność i kreatywność w rozwiązywaniu problemów, - terminowość i rzetelność w realizacji projektów, - znajomość narzędzi pomocniczych: repozytorium GIT, narzędzi do monitorowania jak np. Grafana, narzędzi do testów wydajności jak Apache JMeter Codzienne zadania: - praca w obszarze procesów integracji danych na GCP, - praca w obszarze procesów integracji danych on-prem, - projektowanie, budowa i tuning baz danych, - korzystanie z narzędzi ETL na GCP i on-prem, - korzystanie z kolejek Kafka oraz GCP Pub / Sub, - wystawianie usług Rest API, - praca w języku Python oraz z frameworkiem PySpark, - wykorzystanie języka Rust do pisania narzędzi i frameworków wspomagających wydajne ładowanie danych, - z czasem przejęcie odpowiedzialności za wybrany obszar przetwarzania i wystawiania danych pod usługi w wysokim reżimie wydajnościowym, - praca w modelu hybrydowym 1 raz w tygodniu z biura w Warszawie.