NoFluffJobs Praca zdalna Mid

Regular Data Engineer (Python Spark SQL)

1dea

⚲ Warszawa

21 840 - 25 200 PLN (B2B)

Wymagania

  • Python
  • ETL
  • Big Data
  • SQL
  • Spark
  • Apache Airflow (nice to have)
  • Hadoop (nice to have)
  • Hive (nice to have)
  • Kafka (nice to have)
  • AWS (nice to have)
  • Azure (nice to have)
  • GCP (nice to have)
  • Git (nice to have)
  • Power BI (nice to have)
  • Tableau (nice to have)

Opis stanowiska

O projekcie: Regular Data Engineer (Python | Spark | SQL) Poszukujemy doświadczonego Regular Data Engineera, który dołączy do naszego zespołu. Oferujemy możliwość pracy zdalnej z elastycznością, wymagając jedynie okazjonalnych wizyt w biurze naszego Klienta w Krakowie (2-3 dni w miesiącu). Prosimy o aplikacje CV w języku angielskim. --- Warunki zaangażowania:   Obszar: Finanse / Bankowość Lokalizacja: 90% zdalnie (2-3dni w msc praca w biurze w Krakowie, reszta zdalnie) Start: ASAP (akceptujemy kandydatury z max 2msc okresem wypowiedzenia) Stawka (ustalana indywidualnie): 130 - 150 PLN netto + VAT / h Zaangażowanie: B2B (outsourcing z 1dea), full-time, długofalowo Proces rekrutacyjny (100% zdalnie): - Krótka rozmowa telefoniczna informacyjno-zapoznawcza z rekruterem 1dea (~10 min)  - Weryfikacja techniczno-projektowa z Klientem (~1 - 1,5 h)  - (Jeśli OK) Rozmowa zapoznawcza z przedstawicielem projektu u Klienta końcowego (~ 30 min)  - Decyzja o podjęciu współpracy  Oferujemy - Zatrudnienie na podstawie umowy B2B na czas nieokreślony  - Dołączysz do firmy z solidną pozycją na rynku  - Firma zapewnia nowoczesny sprzęt, oprogramowanie i konfigurację  - Możliwość pracy w elastycznych godzinach  - Możliwość pracy zdalnej w 100%  - Profesjonalne doradztwo i wsparcie w rozwoju kariery od doświadczonego zespołu specjalistów 1dea  - Cenimy sobie koleżeńskość, otwartość, szacunek, wzajemną pomoc i wsparcie w rozwijaniu kompetencji zarówno własnych, jak i kolegów i koleżanek z zespołu  - Wspieramy kulturę kreatywności. Każdy członek zespołu ma możliwość proponowania własnych pomysłów i rozwiązań, a jego głos jest zawsze brany pod uwagę Wymagania: Wymagania - Min. 4 lata doświadczenia w zarządzaniu aplikacjami IT.  - Biegła znajomość SQL oraz dobra wiedza z zakresu Python/Spark.  - Zrozumienie zarządzania dostępem użytkowników.  - Podstawowa wiedza o Unix i środowisku Big Data (HDFS).  - Biegła znajomość języka angielskiego w mowie i piśmie (B2+)  Mile widziane: - Doświadczenie z narzędziami do orkiestracji/harmonogramowania procesów (np. Apache Airflow).  - Praktyczna znajomość ekosystemu Hadoop (np. Hive, Impala, Kafka).  - Znajomość platform chmurowych (AWS, Azure lub GCP).  - Doświadczenie z systemami kontroli wersji (Git).  - Znajomość narzędzi Business Intelligence (np. Power BI, Tableau). Codzienne zadania: - Projektowanie i utrzymanie potoków danych (ETL/ELT) i infrastruktury Big Data.  - Zarządzanie dostępem użytkowników do systemów IT.  - Koordynacja zadań i ścisła współpraca z wieloma zespołami.  - Tworzenie zapytań SQL oraz skryptów w Pythonie i Spark.  - Opracowywanie dokumentacji technicznej i prezentacji.