JustJoin.IT Hybrydowo Mid New

Data Engineer

dentsu Polska

⚲ Warszawa

Wymagania

  • Data
  • API
  • Airflow
  • Python

Opis stanowiska

Grupa dentsu to globalna sieć komunikacji marketingowej stworzona z myślą o przyszłości. W jej skład wchodzą marki: Carat, iProspect, Amplifi, dentsu X i Dentsu Creative. Przyjmując skoncentrowane na ludziach podejście do transformacji biznesowej, wykorzystujemy naszą wnikliwość do łączenia marki, contentu, handlu i doświadczenia - wszystko w oparciu o innowacyjną kreatywność. Nasza główna siedziba znajduje się w Tokio, a 65 000 ekspertów pracuje w czterech regionach (Japonia, Ameryka, EMEA i APAC). dentsu łączy japońską innowacyjność ze zróżnicowaną, globalną perspektywą, aby napędzać rozwój klientów i kształtować społeczeństwo.   Do zespołu Data Engineering dentsu Polska poszukujemy Data Engineera (K/M), który będzie rozwijał i utrzymywał platformę danych dentsu opartą na Google Cloud Platform.    ZADANIA • Projektowanie i rozwój pipeline’ów danych w Pythonie, uruchamianych w Airflow / Cloud Composer.  • Budowa i utrzymanie warstw danych bronze i silver, zgodnych ze standardami platformy.  • Integracja danych z różnych źródeł (API, systemy marketingowe, pliki, dane semi‑/nieustrukturyzowane).  • Praca z BigQuery - modelowanie danych, zapytania, optymalizacja oraz przygotowanie danych do raportowania i modeli.  • Utrzymanie i rozwój przetwarzania w środowisku GCP (Cloud Run, Cloud Functions, Pub/Sub, GCS).  • Implementacja mechanizmów stabilności: monitoring, alerting, retry, walidacje danych.  • Praca z repozytorium kodu (GitHub).  • Współpraca z Analytics, Data Science i Research w przygotowaniu danych do analiz i produktów danych.  • Udział w projektach integracyjnych i migracyjnych po stronie klientów (m.in. konsolidacja źródeł, przenoszenie procesów danych, integracje API).  • Tworzenie dokumentacji technicznej kodu, pipeline’ów i procesów.   WYMAGANIA • Min. 3 lata doświadczenia w obszarze Data Engineeringu  • Bardzo dobra znajomość Python w zastosowaniach inżynierskich (pipeline’y danych, integracje, lekkie serwisy backendowe).  • Doświadczenie w budowie pipeline’ów w Airflow   • Praktyczne doświadczenie w pozyskiwaniu danych z różnych źródeł, w szczególności API (REST), ale również z innych form integracji  • Praktyczna praca z repozytorium kodu Git/GitHub   • Doświadczenie z chmurą (GCP/AWS/Azure) u nas preferowana Google Cloud Platform, ale otwarci jesteśmy na osoby z innym doświadczeniem chmurowym.  • Praca z analitycznym DWH (BigQuery lub odpowiednik).  • Umiejętność debuggowania, diagnozowania i rozwiązywania problemów w pipeline’ach danych.  • Angielski min. B2.  Mile widziane ·       Znajomość usług serverless (np. Cloud Run, Cloud Functions, AWS Lambda, Azure Functions etc.) stosowanych do budowy skalowalnych komponentów przetwarzania i integracji danych.  ·       Doświadczenie z Infrastructure as Code (Terraform lub inne narzędzia do automatyzacji infrastruktury chmurowej).  ·       Znajomość Dockera i pracy z kontenerami  ·       Przetwarzanie big‑data (PySpark / Spark / GCP DataProc lub analogiczne środowiska rozproszone).  ·       Przetwarzanie streaming i event‑driven (Kafka / Pub/Sub etc,).  ·       Praktyczna znajomość pracy w środowiskach Linux oraz narzędziach CLI (bash / shell / PowerShell), w tym praca z GCP/AWS CLI, logami i lokalnym debugowaniem pipeline’ów  ·       Doświadczenie z elementami DataOps (tworzenie powtarzalnych procesów danych: CI/CD dla pipeline’ów, automatyzacje, quality gates, standaryzacja przepływów danych)  ·       Doświadczenie z danymi nieustrukturyzowanymi  ·       Znajmość frameworków warstwy analitycznej (np. Dataform lub podobne narzędzia budujące warstwy SQL/analytics)  ·       Doświadczenie z testowaniem i kontrolą jakości danych (testy integracyjne, walidacje, data quality checks etc.)  ·       Doświadczenie z monitoringiem i observability (logowanie, alerting, analiza awarii pipeline’ów)  ·       Znajomość różnych środowisk chmurowych   ·       Podstawy MLOps (np. MLflow, Vertex AI, pipeline’y ML, wersjonowanie modeli/artefaktów)  ·       Doświadczenie w pracy z narzędziami AI‑assisted development (np. Cursor, Claude Code etc)  ·       Doświadczenie w pracy z danymi marketingowymi, mediowymi lub CRM.  ·       Doświadczenie w pracy agencyjnej   OFERUJEMY • Pracę w globalnej, dynamicznie rozwijającej się grupie z obszaru komunikacji marketingowej; • Samodzielność w działaniu w zakresie powierzonych zadań; • Możliwość rozwoju w ramach grupy dentsu w Polsce i na świecie; • Szkolenie on-boardingowe i programy rozwojowe; • 3 dodatkowe, wolne dni płatne - tzw. „Wellness days”; • 2 dodatkowe dni przeznaczone na wolontariat pracowniczy; • Summer Fridays - w okresie wakacyjnym (od czerwca do września, w piątki kończymy pracę 2 godziny wcześniej); • Hybrydowy tryb pracy – zależnie od ustaleń w zespole; • Wewnętrzne programy szkoleniowe • Nowoczesne i komfortowe biuro zgodnie z ideą work-life-balance, oferujące między innymi takie udogodnienia jak siłownia i sala fitness, punkt opieki dziennej dla dzieci DAY CARE; • Finansowany przez pracodawcę abonament medyczny w Medicover z możliwością rozszerzenia o dodatkowe usługi; • Finansowane przez pracodawcę Ubezpieczenie na życie UNUM z możliwością rozszerzenia o dodatkowe pakiety; • Kafeteria NAIS;