NoFluffJobs Stacjonarnie Senior

Architect/ Senior Data Engineer

Scalo

⚲ Warszawa, Łódź

26 544 - 28 224 PLN (B2B)

Wymagania

  • Data Lake
  • ETL
  • Kafka
  • PUB
  • Big Data
  • Google BigQuery
  • Kubernetes
  • OpenShift
  • Relacyjne Bazy Danych
  • PostgreSQL
  • Python
  • Rust
  • Apache Airflow
  • Apache Spark (nice to have)
  • GCP (nice to have)
  • Apache Beam (nice to have)
  • Informatica PowerCenter (nice to have)

Opis stanowiska

O projekcie: Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Co dla Ciebie mamy: -  Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt -  Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych -  Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób -  Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort -  Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci -  Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Wymagania: Ta oferta jest dla Ciebie, jeśli: - masz doświadczenie w budowaniu i projektowaniu rozwiązań Data Lake i DWH, - znasz aspekty związane z budową pipeline’ów zasilających ETL/ELT, - znasz technologie wykorzystywane w ramach architektury sterowanej zdarzeniami, np. Kafka lub Pub/Sub, - znasz aspekty związane z budową rozwiązań Big Data wykorzystujących możliwości GenAI, - znasz Google BigQuery, - znasz Kubernetes, najlepiej Google Kubernetes Engine i OpenShift, - znasz relacyjne bazy danych Oracle i PostgreSQL w zakresie projektowania, budowy i tuningu baz danych, - biegle znasz Python i/lub Rust, - dobrze znasz Apache Airflow. mile widziane:  - znajomość koncepcji data mesh, - znajomość baz wektorowych i grafowych, - znajomość Apache Spark, najlepiej GCP Data Proc, - znajomość Apache Beam, najlepiej GCP DataFlow, - znajomość AutomateNow, - znajomość Informatica PowerCenter. Codzienne zadania: - projektowanie i budowa rozwiązań Data Lake i DWH, - projektowanie pipeline’ów zasilających ETL/ELT, - projektowanie rozwiązań wykorzystujących architekturę sterowaną zdarzeniami, - projektowanie rozwiązań Big Data wykorzystujących możliwości GenAI, - praca z rozwiązaniami opartymi o Google BigQuery, - projektowanie rozwiązań z wykorzystaniem Kubernetes, - praca z relacyjnymi bazami danych Oracle i PostgreSQL, - wykorzystanie Python i/lub Rust w budowie rozwiązań, - praca z Apache Airflow, - praca w modelu hybrydowym, raz w tygodniu z biura w Warszawie.