Senior Data Engineer/Architekt
ITFS
⚲ Warszawa
140 - 170 PLN/h netto (B2B)
Wymagania
- SQL
- Python
- ETL
- GCP
- Oracle
- PostgreSQL
- Kubernetes
- Airflow
- BigQuery
Opis stanowiska
Miejsce pracy: hybrydowo (Warszawa) - praca z biura min 1 raz w tygodniu lub raz na 2 tygodnie - dla osób z dalszych lokalizacji Start pracy: czerwiec 2026 (akceptowalny max 1 miesiąc okresu wypowiedzenia) Forma współpracy: B2B Stawka: 140-170 zł/h netto + VAT Wymagania: • min 6 lat doświadczenia w obszarze Data Engineering • bardzo dobra znajomość aspektów związanych z budową pipeline-ów zasilających ETL/ELT • doświadczenie w budowaniu i projektowaniu rozwiązań Data Lake i DWH • znajomość technologii wykorzystywanych w ramach architektury sterowanej zdarzeniami takich jak np. Kafka, Pub/Sub • znajomość aspektów związanych z budową rozwiązań BigData wykorzystujących możliwości GenAI • znajomość Google BigQuery • znajomość Kubernetes (Google Kubernetes Engine i OpenShift) • znajomość relacyjnych baz danych Oracle i PostgreSQL (projektowanie, budowa i tuning baz danych) • znajomość Python i/lub Rust • znajomość Apache AirFlow Mile widziane: • znajomość koncepcji data mesh, baz wektorowych i grafowych • znajomość Apache Spark - najlepiej GCP Data Proc, Apache Beam – najlepiej GCP DataFlow, AutomateNow, Informatica Power Center Zadania: • budowa rozwiązań klasy Data Lake i DWH (procesy zasilania on-line i off-line) • projektowanie modeli logicznych i fizycznych danych • tuning zapytań SQL w środowiskach on-premise oraz w chmurze GCP • tworzenie przepływów danych w Python i Rust (dane strukturalne i niestrukturalne) • budowa tematycznych datamartów (relacyjne i kolumnowe) • praca w modelu DevSecOps: serwisowanie oprogramowania, usuwanie incydentów i wsparcie testów Proces rekrutacji: • Krótka rozmowa telefoniczna z ITFS • Rozmowa techniczna • Decyzja