JustJoin.IT Hybrydowo Senior New

Corporate Senior Data Platform Engineer f/m

Medicover

⚲ Warszawa

Wymagania

  • data governance
  • Azure Data Factory
  • Azure Databricks
  • ETL
  • SQL
  • Python
  • Spark

Opis stanowiska

Opis stanowiska • Forma współpracy: Kontrakt Gospodarczy (B2B) • Model pracy: praca hybrydowa (możliwość 100% pracy zdalnej) • Rekrutacja: 100% zdalna • English: B2-C1 • Doświadczenie: minimum 5 lat Zakres zadań na tym stanowisku będzie obejmował: • Projektowanie i wdrażanie nowych rozwiązań w ramach dużej platformy danych opartej na technologii Azure Databricks • Tworzenie i optymalizacja kodu SQL i Python w celu zapewnienia efektywnego przetwarzania w środowisku chmurowym platformy danych • Budowanie przepływów danych zgodnie z aktualnym frameworkiem oraz wymaganiami funkcjonalnymi i niefunkcjonalnymi • Opracowywanie i wdrażanie procesów oraz najlepszych praktyk w zakresie zarządzania i nadzoru nad danymi • Optymalizacja i usprawnianie konfiguracji systemu oraz poprawa struktur danych zgodnie z najlepszymi praktykami branżowymi • Współpraca z administratorami systemu w celu identyfikacji i projektowania optymalnych interfejsów do komunikacji z platformą danych w środowisku chmurowym • Efektywna współpraca z zespołem inżynierów danych oraz ścisła współpraca z analitykami i architektem platformy danych Wymagania • Minimum 5-letnie doświadczenie w pracy w środowisku chmurowym na stanowiskach inżyniera danych, programisty lub pokrewne • Bardzo dobra znajomość języków Python oraz ANSI‑SQL • Praktyczna znajomość Azure Databricks Lakehouse • Doświadczenie w korzystaniu z konektorów Databricks (REST API, JDBC, SaaS, pliki) • Doświadczenie w przetwarzaniu strumieniowym (Structured Streaming, Auto Loader) • Umiejętność projektowania i orkiestracji złożonych pipelinów danych (ETL/ELT) w architekturze medalionu (Databricks / Azure Data Factory) • Znajomość zasad data governance i security (Unity Catalog, RBAC) • Znajomość przetwarzania rozproszonego i optymalizacji Spark (tuning zapytań, zarządzanie plikami, Z-ORDER, OPTIMIZE/VACUUM) • Doświadczenie ze Spark Declarative Pipelines oraz Declarative Automation Bundles • Wykorzystanie modeli LLM/AI do generowania kodu dla transformacji i pobierania danych w Databricks • Dokładność, proaktywna postawa i doświadczenie z dokumentacją projektową Oferujemy • Zatrudnienie w oparciu o umowę B2B • Elastyczna forma pracy (stacjonarna, zdalna lub hybrydowa) – dostęp do biura w Warszawie przy Alejach Jerozolimskich 96 • Udział w strategicznym projekcie Medicover opartym o rozwiązania chmurowe Microsoft oraz Databricks • Możliwość realnego wpływu na kształt budowanego rozwiązania • Międzynarodowe środowisko pracy • Praca z zespołem ekspertów (analitycy, QA, DevOps, Architekt) Lokalizacja: Warszawa, Biuro Główne, Al. Jerozolimskie 96 Numer referencyjny: REK/01172/2026