Senior Data Engineer
Scalo
⚲ Warszawa, Łódź
23 520 - 25 200 PLN (B2B)
Wymagania
- ETL
- ELT
- Oracle
- PostgreSQL
- Google BigQuery
- Informatica PowerCenter
- Kafka
- PUB
- Linux
- Python
- Apache Airflow (nice to have)
- Rust (nice to have)
- Apache Spark (nice to have)
Opis stanowiska
O projekcie: Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Co dla Ciebie mamy: - Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt - Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych - Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób - Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort - Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci - Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Wymagania: Ta oferta jest dla Ciebie, jeśli: - posiadasz doświadczenie w projektowaniu i budowie nowoczesnych hurtowni danych, - masz doświadczenie w budowie pipeline’ów ETL/ELT, - bardzo dobrze znasz relacyjne bazy danych Oracle oraz PostgreSQL (projektowanie, budowa i tuning baz danych), - znasz Google BigQuery, - posiadasz doświadczenie z Informatica PowerCenter, - znasz technologie wykorzystywane w architekturze event-driven (np. Kafka, Pub/Sub), - pracujesz swobodnie w środowisku Linux, - pracujesz w Pythonie, - mile widziane doświadczenie z Apache Airflow, Rust, Apache Spark. Codzienne zadania: - uczestnictwo w projekcie związanym z budową i rozwojem platformy danych (Data Lake / Data Warehouse) z wykorzystaniem technologii takich jak Oracle, PostgreSQL, Google BigQuery, Informatica PowerCenter, Kafka, Pub/Sub, Python oraz narzędzi chmurowych GCP, - praca w zespole data / data platform odpowiedzialnym za rozwój i utrzymanie procesów zasilania danych oraz architektury przetwarzania danych, - zadania obejmujące m.in.: projektowanie i rozwój pipeline’ów ETL/ELT, budowę i rozwój hurtowni danych oraz Data Lake, analizę danych, modelowanie logiczne i fizyczne, optymalizację zapytań SQL, tworzenie procesów przetwarzania danych on-line i off-line, wsparcie testów oraz wdrożeń, a także rozwiązywanie incydentów i problemów produkcyjnych, - praca w modelu hybrydowym: 1 raz w tygodniu praca z biura w Warszawie, - stawka do 150 zł/h przy B2B w zależności od doświadczenia.