Architect/ Senior Data Engineer
Scalo
⚲ Warszawa, Łódź
26 544 - 28 224 PLN (B2B)
Wymagania
- Data Lake
- ETL
- Kafka
- PUB
- Big Data
- Google BigQuery
- Kubernetes
- OpenShift
- Relacyjne Bazy Danych
- PostgreSQL
- Python
- Rust
- Apache Airflow
- Apache Spark (nice to have)
- GCP (nice to have)
- Apache Beam (nice to have)
- Informatica PowerCenter (nice to have)
Opis stanowiska
O projekcie: Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Co dla Ciebie mamy: - Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt - Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych - Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób - Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort - Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci - Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Wymagania: Ta oferta jest dla Ciebie, jeśli: - masz doświadczenie w budowaniu i projektowaniu rozwiązań Data Lake i DWH, - znasz aspekty związane z budową pipeline’ów zasilających ETL/ELT, - znasz technologie wykorzystywane w ramach architektury sterowanej zdarzeniami, np. Kafka lub Pub/Sub, - znasz aspekty związane z budową rozwiązań Big Data wykorzystujących możliwości GenAI, - znasz Google BigQuery, - znasz Kubernetes, najlepiej Google Kubernetes Engine i OpenShift, - znasz relacyjne bazy danych Oracle i PostgreSQL w zakresie projektowania, budowy i tuningu baz danych, - biegle znasz Python i/lub Rust, - dobrze znasz Apache Airflow. mile widziane: - znajomość koncepcji data mesh, - znajomość baz wektorowych i grafowych, - znajomość Apache Spark, najlepiej GCP Data Proc, - znajomość Apache Beam, najlepiej GCP DataFlow, - znajomość AutomateNow, - znajomość Informatica PowerCenter. Codzienne zadania: - projektowanie i budowa rozwiązań Data Lake i DWH, - projektowanie pipeline’ów zasilających ETL/ELT, - projektowanie rozwiązań wykorzystujących architekturę sterowaną zdarzeniami, - projektowanie rozwiązań Big Data wykorzystujących możliwości GenAI, - praca z rozwiązaniami opartymi o Google BigQuery, - projektowanie rozwiązań z wykorzystaniem Kubernetes, - praca z relacyjnymi bazami danych Oracle i PostgreSQL, - wykorzystanie Python i/lub Rust w budowie rozwiązań, - praca z Apache Airflow, - praca w modelu hybrydowym, raz w tygodniu z biura w Warszawie.