Pracuj.pl Hybrydowo Mid

DWH Developer / Data Engineer

Netcredit

⚲ Warszawa, Wola

Wymagania

  • SQL
  • PostgreSQL
  • Python
  • dbt
  • Apache Airflow
  • Docker
  • Git
  • Jenkins
  • Bash
  • Jinja2
  • Apache Superset / Preset BI
  • Data Lake
  • CI / automatyzacja testów

Opis stanowiska

Nasze wymagania: Min. rok doświadczenia w pracy z data lake i/lub data streaming Swobodne programowanie w Pythonie Bardzo dobra znajomość SQL (PostgreSQL) Budowanie i utrzymywanie pipeline’y ETL / ELT Rozumienie cyklu życia modeli Machine Learning i umiejętność współpracy z zespołem Data Science Znajomość praktyki CI i automatyzacji testów Język angielski na poziomie min. C1 Mile widziane: Doświadczenie z dbt oraz rozwiązaniami headless BI O projekcie: Buduj systemy danych, które podejmują decyzje kredytowe w czasie rzeczywistym. Szukamy osoby, która nie tylko buduje pipeline’y, ale rozumie, że dane = realne decyzje biznesowe. U nas Twoje rozwiązania będą bezpośrednio wpływać na automatyczne decyzje kredytowe i rozwój nowych produktów finansowych. Jeśli chcesz mieć realny wpływ, end-to-end ownership i współpracować blisko z zespołami Data Science, Ryzyka Kredytowego oraz Produktu — to jest rola dla Ciebie! Zakres obowiązków: Projektowanie i rozwój nowoczesnej architektury data lake + ELT z produkcyjnych baz danych Budowa wydajnych, skalowalnych pipeline’ów danych (ETL/ELT, automatyzacja, monitoring) Rozwój modeli transformacji danych w SQL / dbt Współtworzenie produkcyjnych API wspierających decyzje kredytowe oparte na danych Implementacja zaawansowanych mechanizmów data quality i walidacji danych Automatyzacja procesów decyzyjnych dla nowych produktów finansowych Ścisła współpraca z zespołem Data Science (wdrażanie modeli ML) i Ryzyka Kredytowego Realna odpowiedzialność za obszar data engineering w rozwijanych rozwiązaniach, bo to nie jest rola „od pipeline’ów” - to rola, w której dane napędzają biznes Oferujemy: Realny wpływ na decyzje kredytowe i strategie ryzyka Pracę przy produktach, które rosną dynamicznie i wymagają skalowalnej architektury danych Dużą autonomię i odpowiedzialność end-to-end Nowoczesne narzędzia i otwartość na usprawnienia technologiczne Współpracę z doświadczonymi zespołami Data Science i Engineering Umowę o pracę lub B2B Pracę hybrydową Budżet rozwojowy (szkolenia, konferencje) Dodatkowy dzień wolny z okazji urodzin Kulturę współpracy i realnego wpływu — bez korporacyjnej warstwy pośredniej