NoFluffJobs Stacjonarnie Mid

Data Engineer

Scalo

⚲ Warszawa

21 840 - 23 520 PLN (B2B)

Wymagania

  • Big Data
  • Spark
  • Python
  • R
  • JSON
  • Hive
  • Kudu
  • HBase
  • SQL
  • Jira
  • Confluence
  • Kanban
  • Kubeflow (nice to have)
  • CI/CD (nice to have)

Opis stanowiska

O projekcie: Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Co dla Ciebie mamy: -  Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt -  Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych -  Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób -  Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort -  Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci -  Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Wymagania: Ta oferta jest dla Ciebie, jeśli: - masz minimum 3 lata doświadczenia na stanowisku Big Data Developer, - posiadasz wiedzę z zakresu Big Data, Hurtowni Danych i Zarządzania Danymi, - masz minimum 2-3 lata doświadczenia w programowaniu procesów Spark w Pythonie (lub Scali), - pracowałeś(-aś) z różnymi formatami danych: JSON, PARQUET, ORC, AVRO, - rozumiesz typy baz danych i scenariusze ich użycia (np. Hive, Kudu, HBase), - znasz SQL,  - masz doświadczenie w integracji danych z wielu źródeł, - posiadasz praktyczną znajomość procesów i narzędzi Agile (Jira, Confluence, Kanban, Scrum) – mile widziane, - stosujesz dobre praktyki przetwarzania dużych zbiorów danych, w tym standardy kodowania, dokumentowania, testowania i wdrażania – mile widziane, - znasz platformę Kubeflow i masz praktyczne doświadczenie w automatyzacji CI/CD – mile widziane. Codzienne zadania: - uczestnictwo w projekcie dot. branży bankowej, - projektowanie architektury i wdrażanie nowoczesnych systemów przetwarzania danych w obszarze Big Data, - dbanie o wysoką jakość procesu rozwojowo-wdrożeniowego, - dbanie o wysoką jakość dokumentacji technicznej, - poszukiwanie nowych rozwiązań oraz ich implementację (R&D), - współpraca z innymi zespołami w celu wsparcia developmentu, - praca w modelu hybrydowym: 2 razy w miesiącu w biurze w Warszawie, - stawka do 140 zł/h przy B2B w zależności od doświadczenia.