NoFluffJobs Stacjonarnie Senior New

Big Data Engineer

Connectis_

⚲ Warszawa

30 000 - 35 000 PLN (B2B)

Wymagania

  • Spark
  • Data engineering
  • Apache Spark
  • Hive
  • SQL
  • Scala
  • TDD
  • Jenkins (nice to have)
  • Git flow (nice to have)
  • Airflow (nice to have)
  • Azure AD (nice to have)
  • ADLS (nice to have)
  • Databricks (nice to have)
  • SAFe (nice to have)
  • REST API (nice to have)
  • CI/CD (nice to have)
  • GitLab CI (nice to have)
  • Java (nice to have)

Opis stanowiska

O projekcie: Razem z naszym Partnerem, jednym z europejskich liderów w branży bankowej, poszukujemy dwóch osób na stanowisko Big Data Engineer. Projekty dotyczą bankowości B2B i B2C ➡️ platform dla dużych kredytów, pożyczek profesjonalnych oraz aplikacji wspierających transformację cyfrową. OFERUJEMY: - 🤖 Nowoczesny proces rekrutacji z AI Rekruterem (AIR) - podczas aplikacji możesz odbyć rozmowę z wirtualnym rekruterem 24/7, bez czekania na telefon, z natychmiastowym feedbackiem i możliwością powtórzenia rozmowy (liczy się ostatnia wersja). Finalną decyzję zawsze podejmuje Rekruter Connectis.- Udział w spotkaniach integracyjnych i meetupach technologicznych, dzielenie się wiedzą i doświadczeniem z szerszą społecznością inżynierską.- Wsparcie dedykowanej osoby po stronie Connectis, która zawsze jest dostępna, by pomóc Ci w sprawach związanych z projektem.- Pracę w międzynarodowym środowisku inżynierskim z wysoką kulturą jakości kodu (TDD, code review, clean code).- Udział w dużym, wieloletnim projekcie modernizacji i migracji do chmury, realny wpływ na architekturę systemu.- Codzienny kontakt z nowoczesnym stackiem Big Data w kontekście bankowości inwestycyjnej.- Pracę hybrydową w Warszawie (3 dni z biura, 2 dni zdalnie / tyg.)- Nowoczesne, komfortowe biuro w Warszawie. Dziękujemy za wszystkie zgłoszenia. Uprzejmie informujemy, że skontaktujemy się z wybranymi osobami. 12837/RJ Wymagania: - Minimum 4 lata komercyjnego doświadczenia w obszarze Data Engineering lub Software Engineering w środowisku Big Data.- Zaawansowana znajomość oraz praktyczne doświadczenie w pracy z Apache Spark, Hive oraz SQL.- Głębokie zrozumienie i doświadczenie w tworzeniu testowalnego kodu zgodnie z podejściem TDD.- Solidne doświadczenie w programowaniu w Scali (wyraźnie preferowane) lub Javie.- Wykształcenie wyższe: Computer Science, Software Engineering lub pokrewne.- Bardzo dobra znajomość języka angielskiego (min. C1). Nice to Have: - CI/CD (Jenkins, GitLab CI lub podobne), Git flow, branching strategies.- Python (szczególnie w kontekście Airflow i orkiestracji pipeline'ów).- Doświadczenie z Azure (ADF, ADLS, Databricks lub pokrewne usługi).- Doświadczenie w środowiskach SAFe / release train.- Znajomość architektury mikroserwisowej i REST API. Codzienne zadania: - Projektowanie i implementacja pipeline’ów do ingestu, transformacji i przetwarzania dużych wolumenów danych. - Industrializacja rozwiązań data processing z naciskiem na skalowalność, niezawodność i odporność na błędy. - Rozwój i optymalizacja jobów Spark/Scala (przetwarzanie wsadowe, data mapping, tuning wydajności). - Udział w projektowaniu architektury Big Data oraz rekomendowanie rozwiązań technologicznych. - Analiza źródeł danych oraz przekładanie wymagań biznesowych na specyfikacje techniczne. - Code review oraz dbałość o jakość kodu, standardy TDD/BDD i dobre praktyki DevOps. - Wsparcie produkcyjne (L3), troubleshooting i identyfikacja ryzyk technicznych. - Tworzenie dokumentacji i test planów w środowisku Agile/Scrum.