Data Engineer
Devire
⚲ Warszawa
18 480 - 23 520 PLN (B2B)
Wymagania
- Data
- SQL
- Python
- Data warehouse
- ETL/ELT
- Data modelling
- Azure
- AWS
- OVH
- Databricks
- Azure Data Factory
- Lakehouse architecture (nice to have)
- Cloudera on-premnise (nice to have)
- Agile/Scrum (nice to have)
- Data governance (nice to have)
- Data Quality (nice to have)
Opis stanowiska
O projekcie: Devire Outsourcing IT to forma współpracy dedykowana dla specjalistów z branży IT, oparta na zasadach własnej działalności gospodarczej - B2B, realizująca projekty dla Klientów prowadzących innowacyjne i nowoczesne projekty. Dla naszego Klienta z branży ubezpieczeniowej poszukujemy kandydatów/kandydatek na stanowisko: Data Engineer Kluczowe informacje: - Praca hybrydowa (wizyty w warszawskim biurze dwa razy w miesiącu) - Wynagrodzenie: 110-140 PLN + VAT/h B2B za pośrednictwem Devire - Model: praca hybrydowa z Warszawy (wizyty w biurze dwa razy w miesiącu) - Długofalowa współpraca Wymagania: - min 4 letnie doświadczenie w roli Data Engineer / Data Developer - bardzo dobra znajomość SQL oraz języka programowania Python - doświadczenie w pracy z hurtowniami danych / platformami danych - znajomość zagadnień ETL/ELT, modelowania danych - praktyczne doświadczenie w środowisku chmurowym (Azure / AWS / OVH) - doskonała znajomość środowiska Databricks w chmurze Azure - doskonała znajomość Azure Data Factory - umiejętność pracy zespołowej i komunikacji z biznesem - inżynierskie podejście do jakości, wydajności i bezpieczeństwa danych Mile widziane - znajomość architektury Lakehouse (architektura medalionowa) - doświadczenie z migracji ze środowiska on-premise do Databricks - znajomość środowiska Cloudera on-premnise - doświadczenie w pracy w Agile / Scrum - podstawowa znajomość zagadnień Data Governance / Data Quality Codzienne zadania: - projektowanie, budowa i utrzymanie pipeline’ów danych (ETL / ELT) - integracja danych z różnych źródeł (systemy transakcyjne, API, pliki, hurtownie) - rozwój i optymalizacja hurtowni danych / lakehouse/ data lake - dbanie o jakość, spójność i dostępność danych - współpraca z Tribem odpowiedzialnym za dane worganizacji - automatyzacja procesów przetwarzania danych - udział w projektowaniu architektury danych i standardów inżynierskich