Data Warehouse/ETL Engineer
Scalo
⚲ Warszawa
23 520 - 26 880 PLN (B2B)
Wymagania
- ETL
- ELT
- Oracle
- PostgreSQL
- Google BigQuery
- Informatica
- Kafka
- PUB
- SUB
- Linux
- AutomateNow (nice to have)
- Python (nice to have)
- Airflow (nice to have)
- Spark (nice to have)
- Rust (nice to have)
Opis stanowiska
O projekcie: Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! W Scalo czeka na Ciebie - praca w modelu hybrydowym: minimum 2 razy w tygodniu prawa w biurze (Warszawa), - stawka do 160 zł przy współpracy B2B, zależnie od doświadczenia i zakresu kompetencji. Co dla Ciebie mamy? - Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt - Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych - Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób - Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort - Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci - Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Brzmi interesująco? Aplikuj – czekamy na Twoje CV! Wymagania: Ta oferta jest dla Ciebie, jeśli: - masz znajomość zasad projektowania i budowy nowoczesnych hurtowni danych, - znasz aspekty związane z budową pipeline’ów zasilających ETL/ELT, - posiadasz ekspercką znajomość relacyjnych baz danych Oracle oraz PostgeSQL (projektowanie, budowa i tuning baz danych), - znasz Google BigQuery, - znasz Informatica Power Center, - rozumiesz technologie wykorzystywane w architekturze sterowanej zdarzeniami (np. Kafka, Pub/Sub), - swobodnie pracujesz z systemem Linux na poziomie zaawansowanego użytkownika. Mile widziane: - AutomatenNow, - Python, - AirFlow, - Rust2, - Apache Spark. Codzienne zadania: - projektowanie i budowa nowoczesnych hurtowni danych oraz rozwiązań klasy Data Lake, - tworzenie i rozwijanie procesów zasilania danych on-line i off-line (ETL/ELT), - analiza danych oraz przygotowanie dla nich modeli logicznych i fizycznych, - strojenie zapytań SQL na bazach relacyjnych i hurtownianych - on perm oraz w GCP, - tworzenie przepływów off-linowych i on-linowych zarówno w narzędziach on-perm, jak i GCP, - tworzenie rozwiązań ładowania danych w Python oraz Rust dla danych strukturalnych i niestrukturalnych, - przygotowywanie datamartów tematycznych na bazach relacyjnych i kolumnowych, - tworzenie koncepcji praz implementacji rozwiązań w oparciu o wymagania i potrzeby biznesu, - usuwanie incydentów i udział w rozwiązywaniu problemów, - wsparcie testów i wdrożeń w zakresie procesów zasilania danych, - pomoc przy serwisowaniu wdrożonego oprogramowania, - praca zgodnie z modelem DevSecOps,