JustJoin.IT Hybrydowo Mid

Data Architect

RITS Professional Services

⚲ Warszawa

150 - 190 PLN/h netto (B2B)

Wymagania

  • GenAI
  • PostgreSQL
  • Google BigQuerty
  • Data Lake / DWH
  • Rust
  • Kubernetes (GKE / OpenShift)
  • ELT/ETL
  • Apache Airflow
  • Oracle SQL
  • Python

Opis stanowiska

RITS Group to firma informatyczna, która oferuje najwyższej jakości usługi programistyczne zarówno dla rynku polskiego, jak i międzynarodowego. Jesteśmy dumni, że należymy do grona najszybciej rozwijających się spółek technologicznych. Naszym priorytetem jest jakość oraz innowacyjność dostarczanych rozwiązań, a nasza kultura organizacyjna opiera się na zaufaniu, współpracy i ciągłym doskonaleniu. Praca hybrydowa z Warszawy 1 raz w tygodniu   Budżet do 190 zł/g netto + VAT  Opis projektu:Budujemy i rozwijamy platformę danych opartą o Data Lake i DWH, obsługującą zarówno procesy on-line, jak i off-line. Pracujemy w architekturze sterowanej zdarzeniami, projektujemy skalowalne pipeline’y danych oraz integrujemy rozwiązania Big Data i GenAI w chmurze GCP. Zakres zadań: • projektowanie i rozwój pipeline’ów ETL/ELT, • budowa i utrzymanie rozwiązań Data Lake i DWH, • implementacja procesów przetwarzania danych w architekturze zdarzeniowej (Kafka, Pub/Sub), • praca z Google BigQuery – projektowanie struktur, optymalizacja i tuning, • tworzenie i utrzymanie workflowów w Apache Airflow, • rozwój rozwiązań Big Data z wykorzystaniem GenAI (w tym dane niestrukturalne), • praca z relacyjnymi bazami danych Oracle i PostgreSQL (projektowanie, tuning), • rozwój i utrzymanie komponentów uruchamianych na Kubernetes (GKE / OpenShift), • programowanie w Python i/lub Rust.   Wymagania (must-have): • doświadczenie w budowie pipeline’ów zasilających ETL/ELT, • praktyczne doświadczenie w projektowaniu rozwiązań Data Lake i DWH, • znajomość architektury zdarzeniowej (Kafka, Pub/Sub), • doświadczenie w rozwiązaniach Big Data z wykorzystaniem GenAI, • bardzo dobra znajomość Google BigQuery, • znajomość Kubernetes (preferowane GKE i/lub OpenShift), • dobra znajomość Oracle i PostgreSQL (projektowanie, tuning), • biegła znajomość Python i/lub Rust, • bardzo dobra znajomość Apache Airflow.   Mile widziane: • znajomość koncepcji Data Mesh, • doświadczenie z bazami wektorowymi i grafowymi, • Apache Spark (preferowane GCP DataProc), • Apache Beam (preferowane GCP DataFlow), • AutomateNow, • Informatica Power Center. Ta rola nie jest dla Ciebie, ale masz znajomego, który by się sprawdził? Poleć go i zgarnij nawet 5000 zł. Referral Program: Talent from your network