NoFluffJobs Stacjonarnie Senior

Data Warehouse/ETL Engineer

Scalo

⚲ Warszawa

23 520 - 26 880 PLN (B2B)

Wymagania

  • ETL
  • ELT
  • Oracle
  • PostgreSQL
  • Google BigQuery
  • Informatica
  • Kafka
  • PUB
  • SUB
  • Linux
  • AutomateNow (nice to have)
  • Python (nice to have)
  • Airflow (nice to have)
  • Spark (nice to have)
  • Rust (nice to have)

Opis stanowiska

O projekcie: Cześć!  U nas znajdziesz to, czego szukasz - przekonaj się! W Scalo czeka na Ciebie  - praca w modelu hybrydowym: minimum 2 razy w tygodniu prawa w biurze (Warszawa),  - stawka do 160 zł przy współpracy B2B, zależnie od doświadczenia i zakresu kompetencji. Co dla Ciebie mamy? - Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt - Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych - Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób - Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort - Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci - Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Brzmi interesująco? Aplikuj – czekamy na Twoje CV! Wymagania: Ta oferta jest dla Ciebie, jeśli: - masz znajomość zasad projektowania i budowy nowoczesnych hurtowni danych, - znasz aspekty związane z budową pipeline’ów zasilających ETL/ELT, - posiadasz ekspercką znajomość relacyjnych baz danych Oracle oraz PostgeSQL (projektowanie, budowa i tuning baz danych), - znasz Google BigQuery, - znasz Informatica Power Center, - rozumiesz technologie wykorzystywane w architekturze sterowanej zdarzeniami (np. Kafka, Pub/Sub), - swobodnie pracujesz z systemem Linux na poziomie zaawansowanego użytkownika. Mile widziane: - AutomatenNow, - Python, - AirFlow, - Rust2, - Apache Spark. Codzienne zadania: - projektowanie i budowa nowoczesnych hurtowni danych oraz rozwiązań klasy Data Lake, - tworzenie i rozwijanie procesów zasilania danych on-line i off-line (ETL/ELT), - analiza danych oraz przygotowanie dla nich modeli logicznych i fizycznych, - strojenie zapytań SQL na bazach relacyjnych i hurtownianych - on perm oraz w GCP, - tworzenie przepływów off-linowych i on-linowych zarówno w narzędziach on-perm, jak i GCP, - tworzenie rozwiązań ładowania danych w Python oraz Rust dla danych strukturalnych i niestrukturalnych, - przygotowywanie datamartów tematycznych na bazach relacyjnych i kolumnowych, - tworzenie koncepcji praz implementacji rozwiązań w oparciu o wymagania i potrzeby biznesu, - usuwanie incydentów i udział w rozwiązywaniu problemów, - wsparcie testów i wdrożeń w zakresie procesów zasilania danych, - pomoc przy serwisowaniu wdrożonego oprogramowania, - praca zgodnie z modelem DevSecOps,