NoFluffJobs Stacjonarnie Senior

Data Engineer

Scalo

⚲ Warszawa

26 040 - 27 720 PLN (B2B)

Wymagania

  • GCP
  • BigQuery
  • Cloud
  • Apache Airflow
  • Kafka
  • PUB
  • ETL
  • Informatica PowerCenter
  • NiFi
  • Oracle
  • PostgreSQL
  • REST API
  • Python
  • PySpark
  • Rust
  • Linux
  • Java (nice to have)
  • Microservices (nice to have)
  • Git (nice to have)
  • Grafana (nice to have)
  • JMeter (nice to have)

Opis stanowiska

O projekcie: Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Co dla Ciebie mamy: -  Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt -  Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych -  Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób -  Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort -  Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci -  Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Wymagania: Ta oferta jest dla Ciebie, jeśli: - posiadasz min. 5-letnie doświadczenie jako Data Engineer w GCP w obszarze integracji danych, - bardzo dobrze znasz GCP BigQuery, BigTable oraz Scylla Cloud (projektowanie, budowa, tuning), - masz doświadczenie z Apache Airflow, GCP DataFlow oraz DataProc, - pracowałeś z systemami kolejkowymi (Kafka, GCP Pub/Sub), - posiadasz min. 4-letnie doświadczenie w ETL na środowiskach on-prem, - bardzo dobrze znasz narzędzia ETL (Informatica PowerCenter, NiFi), - posiadasz ekspercką wiedzę z zakresu baz danych (Oracle, PostgreSQL, ScyllaDB), - masz doświadczenie z narzędziem Automate Now firmy Infinity Data, - potrafisz tworzyć i wystawiać usługi REST API, - posiadasz min. 3-letnie doświadczenie w Python (w tym PySpark), - znasz język Rust w kontekście budowy wydajnych narzędzi, - znasz Linux na poziomie zaawansowanym, - masz doświadczenie w pracy z dużymi wolumenami danych, - cechuje Cię analityczne myślenie, samodzielność i kreatywność, - mile widziane: znajomość Java (microservices), Git, Grafana oraz Apache JMeter. Codzienne zadania: - uczestnictwo w projekcie z branży bankowej, obejmującym przetwarzanie dużych wolumenów danych (~100TB) oraz budowę rozwiązań do wysokowydajnej integracji i udostępniania danych. Wykorzystywany stos technologiczny w projekcie: GCP (BigQuery, DataFlow, DataProc), Kafka / PubSub, Python (PySpark), Airflow, - projektowanie, budowa i tuning rozwiązań data engineeringowych w środowisku GCP, - tworzenie i rozwój procesów integracji danych (ETL/ELT) w chmurze i środowisku on-prem, - utrzymanie i rozwój pipeline’ów danych z wykorzystaniem Apache Airflow oraz DataFlow, - optymalizacja wydajności przetwarzania i ładowania danych (BigQuery, BigTable, ScyllaDB), - praca z systemami kolejkowymi (Kafka, Pub/Sub), - tworzenie i utrzymywanie usług REST API, - rozwój narzędzi wspierających przetwarzanie danych (Python, PySpark, Rust), - zarządzanie harmonogramowaniem procesów (Automate Now), - współpraca przy migracji i integracji rozwiązań on-prem z GCP, - praca w modelu hybrydowym: 1 dzień w tygodniu w biurze w Warszawie, - stawka do 165 zł/h przy B2B w zależności od doświadczenia.