NoFluffJobs Stacjonarnie Senior

Scala/Spark Developer

Antal

⚲ Kraków

25 200 - 33 600 PLN (B2B)

Wymagania

  • Scala
  • Spark
  • GitHub
  • Airflow
  • Python
  • Jira
  • Confluence
  • Apache Airflow (nice to have)
  • GCP (nice to have)
  • Jenkins (nice to have)
  • JUnit (nice to have)
  • TDD (nice to have)
  • BDD (nice to have)
  • Clean Code (nice to have)
  • DRY (nice to have)
  • Elasticsearch (nice to have)
  • AWS (nice to have)
  • Azure (nice to have)

Opis stanowiska

O projekcie: Scala/Spark Developer Kraków (Hybrid, 2 days in office) O projekcie: Pracując nad Global Social Network Analytics (GSNA) platform, wykorzystujemy Big Data, AI i Google Cloud Platform (GCP), aby identyfikować potencjalne ryzyka przestępstw finansowych. Nasz zespół wspiera globalną sieć Investigatorów, Intelligence Analystów i Data Scientistów w prowadzeniu skutecznych dochodzeń opartych na inteligencji danych. Dlaczego warto do nas dołączyć: - Jesteśmy zespołem 150+ osób, pracującym zgodnie z Agile Scrum w lokalizacjach w Polsce, Chinach i Wielkiej Brytanii. - Świetna kultura współpracy, otwartość i regularne wspólne wyjścia, aby celebrować sukcesy i uczyć się na porażkach. - Będziesz pracować hybrydowo, 2 dni w tygodniu w biurze w Krakowie, resztę czasu zdalnie. Co wyróżnia tę rolę: - Realny wpływ na globalną walkę z przestępczością finansową - Praca nad nowoczesnymi technologiami Big Data i AI - Świetna hybrydowa kultura pracy w Krakowie i kontakt z zespołami międzynarodowymi Dołącz do nas i twórz rozwiązania, które realnie zmieniają sposób prowadzenia dochodzeń finansowych! Wymagania: - Bardzo dobra znajomość Scala/Spark - Doświadczenie z GitHub, AirFlow, podstawy Python - Praca w Scrum i znajomość Jira/Confluence - Dobre umiejętności komunikacyjne w języku angielskim Mile widziane: - Doświadczenie z GCP, Apache AirFlow, Jenkins - Znajomość JUnit, TDD, BDD - Praktyki Clean Code, SOLID, KISS, DRY, wzorce projektowe - Elasticsearch i doświadczenie w chmurze (AWS, Azure) - Certyfikaty Secure Code Warrior Codzienne zadania: - Tworzenie pipeline’ów w Scala/Spark w Google Cloud Platform (GCP), analiza danych w jednym z największych Datalakes na świecie. - Wdrażanie testów przy użyciu AirFlow, dbanie o jakość kodu i zgodność z regulacjami. - Współpraca z innymi programistami w Polsce, UK i Chinach. - Utrzymanie kodu: testowanie, refaktoryzacja, poprawki. - Pomoc Product Ownerom w zrozumieniu i doprecyzowaniu backlogu technicznego. - Dzielenie się wiedzą w zespole i na poziomie globalnym. - Udział w pełnym cyklu rozwoju produktu, w tym w release’ach do produkcji.