Big Data Engineer
Connectis_
⚲ Warszawa
30 000 - 35 000 PLN (B2B)
Wymagania
- Spark
- Data engineering
- Apache Spark
- Hive
- SQL
- Scala
- TDD
- Jenkins (nice to have)
- Git flow (nice to have)
- Airflow (nice to have)
- Azure AD (nice to have)
- ADLS (nice to have)
- Databricks (nice to have)
- SAFe (nice to have)
- REST API (nice to have)
- CI/CD (nice to have)
- GitLab CI (nice to have)
- Java (nice to have)
Opis stanowiska
O projekcie: Razem z naszym Partnerem, jednym z europejskich liderów w branży bankowej, poszukujemy dwóch osób na stanowisko Big Data Engineer. Projekty dotyczą bankowości B2B i B2C ➡️ platform dla dużych kredytów, pożyczek profesjonalnych oraz aplikacji wspierających transformację cyfrową. OFERUJEMY: - 🤖 Nowoczesny proces rekrutacji z AI Rekruterem (AIR) - podczas aplikacji możesz odbyć rozmowę z wirtualnym rekruterem 24/7, bez czekania na telefon, z natychmiastowym feedbackiem i możliwością powtórzenia rozmowy (liczy się ostatnia wersja). Finalną decyzję zawsze podejmuje Rekruter Connectis.- Udział w spotkaniach integracyjnych i meetupach technologicznych, dzielenie się wiedzą i doświadczeniem z szerszą społecznością inżynierską.- Wsparcie dedykowanej osoby po stronie Connectis, która zawsze jest dostępna, by pomóc Ci w sprawach związanych z projektem.- Pracę w międzynarodowym środowisku inżynierskim z wysoką kulturą jakości kodu (TDD, code review, clean code).- Udział w dużym, wieloletnim projekcie modernizacji i migracji do chmury, realny wpływ na architekturę systemu.- Codzienny kontakt z nowoczesnym stackiem Big Data w kontekście bankowości inwestycyjnej.- Pracę hybrydową w Warszawie (3 dni z biura, 2 dni zdalnie / tyg.)- Nowoczesne, komfortowe biuro w Warszawie. Dziękujemy za wszystkie zgłoszenia. Uprzejmie informujemy, że skontaktujemy się z wybranymi osobami. 12837/RJ Wymagania: - Minimum 4 lata komercyjnego doświadczenia w obszarze Data Engineering lub Software Engineering w środowisku Big Data.- Zaawansowana znajomość oraz praktyczne doświadczenie w pracy z Apache Spark, Hive oraz SQL.- Głębokie zrozumienie i doświadczenie w tworzeniu testowalnego kodu zgodnie z podejściem TDD.- Solidne doświadczenie w programowaniu w Scali (wyraźnie preferowane) lub Javie.- Wykształcenie wyższe: Computer Science, Software Engineering lub pokrewne.- Bardzo dobra znajomość języka angielskiego (min. C1). Nice to Have: - CI/CD (Jenkins, GitLab CI lub podobne), Git flow, branching strategies.- Python (szczególnie w kontekście Airflow i orkiestracji pipeline'ów).- Doświadczenie z Azure (ADF, ADLS, Databricks lub pokrewne usługi).- Doświadczenie w środowiskach SAFe / release train.- Znajomość architektury mikroserwisowej i REST API. Codzienne zadania: - Projektowanie i implementacja pipeline’ów do ingestu, transformacji i przetwarzania dużych wolumenów danych. - Industrializacja rozwiązań data processing z naciskiem na skalowalność, niezawodność i odporność na błędy. - Rozwój i optymalizacja jobów Spark/Scala (przetwarzanie wsadowe, data mapping, tuning wydajności). - Udział w projektowaniu architektury Big Data oraz rekomendowanie rozwiązań technologicznych. - Analiza źródeł danych oraz przekładanie wymagań biznesowych na specyfikacje techniczne. - Code review oraz dbałość o jakość kodu, standardy TDD/BDD i dobre praktyki DevOps. - Wsparcie produkcyjne (L3), troubleshooting i identyfikacja ryzyk technicznych. - Tworzenie dokumentacji i test planów w środowisku Agile/Scrum.