NoFluffJobs Praca zdalna Senior New

Big Data Developer (PySpark / Spark / Hadoop)

Scalo

⚲ Warszawa

24 360 - 26 040 PLN (B2B)

Wymagania

  • Big data
  • Spark
  • PySpark
  • Scala
  • SQL
  • Hadoop
  • Cloudera
  • JSON
  • Hive
  • HBase
  • Kudu
  • GCP (nice to have)
  • Azure (nice to have)
  • Kafka (nice to have)
  • Spark Streaming (nice to have)
  • Kanban (nice to have)
  • Jira (nice to have)
  • Confluence (nice to have)

Opis stanowiska

O projekcie: Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Co dla Ciebie mamy: -  Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt -  Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych -  Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób -  Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort -  Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci -  Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Wymagania: Ta oferta jest dla Ciebie, jeśli: - Masz min. 4 lata doświadczenia jako Big Data Developer - Pracujesz ze Spark (PySpark lub Scala) od co najmniej 3 lat - Bardzo dobrze znasz SQL i swobodnie operujesz na dużych zbiorach danych - Masz doświadczenie w pracy z Hadoop (Cloudera / Hortonworks) - Pracowałeś/aś z formatami danych: JSON, Parquet, ORC, Avro - Dobrze rozumiesz ekosystem Hadoop (Hive, HBase, Kudu lub podobne rozwiązania) - Masz doświadczenie w integracji danych z wielu źródeł - Posiadasz wykształcenie wyższe kierunkowe (IT lub pokrewne) - Pracowałeś/aś z chmurą (GCP lub Azure) - mile widziane - Masz doświadczenie ze streamingiem (np. Kafka, Spark Streaming) - mile widziane - Pracujesz w metodykach Agile (Scrum, Kanban, Jira, Confluence) - mile widziane Codzienne zadania: - Projektowanie i rozwój systemów przetwarzania danych w środowisku Big Data - Tworzenie i rozwijanie procesów ETL/ELT w oparciu o Spark (PySpark) - Praca z dużymi wolumenami danych (Hadoop ecosystem) - Integracja danych z wielu źródełUdział w migracji rozwiązań do chmury (GCP) - Dbanie o jakość kodu, dokumentację oraz procesy wdrożeniowe - Współpraca z zespołami developerskimi i architektonicznymi - Udział w inicjatywach R&D - Model pracy: hybrydowy - Warszawa (2 dni w biurze w miesiącu) - Stawka: do 155 zł netto + VAT/H/B2B