Regular Data Engineer (Python Spark SQL)
1dea
⚲ Warszawa
21 840 - 25 200 PLN (B2B)
Wymagania
- Python
- ETL
- Big Data
- SQL
- Spark
- Apache Airflow (nice to have)
- Hadoop (nice to have)
- Hive (nice to have)
- Kafka (nice to have)
- AWS (nice to have)
- Azure (nice to have)
- GCP (nice to have)
- Git (nice to have)
- Power BI (nice to have)
- Tableau (nice to have)
Opis stanowiska
O projekcie: Regular Data Engineer (Python | Spark | SQL) Poszukujemy doświadczonego Regular Data Engineera, który dołączy do naszego zespołu. Oferujemy możliwość pracy zdalnej z elastycznością, wymagając jedynie okazjonalnych wizyt w biurze naszego Klienta w Krakowie (2-3 dni w miesiącu). Prosimy o aplikacje CV w języku angielskim. --- Warunki zaangażowania: Obszar: Finanse / Bankowość Lokalizacja: 90% zdalnie (2-3dni w msc praca w biurze w Krakowie, reszta zdalnie) Start: ASAP (akceptujemy kandydatury z max 2msc okresem wypowiedzenia) Stawka (ustalana indywidualnie): 130 - 150 PLN netto + VAT / h Zaangażowanie: B2B (outsourcing z 1dea), full-time, długofalowo Proces rekrutacyjny (100% zdalnie): - Krótka rozmowa telefoniczna informacyjno-zapoznawcza z rekruterem 1dea (~10 min) - Weryfikacja techniczno-projektowa z Klientem (~1 - 1,5 h) - (Jeśli OK) Rozmowa zapoznawcza z przedstawicielem projektu u Klienta końcowego (~ 30 min) - Decyzja o podjęciu współpracy Oferujemy - Zatrudnienie na podstawie umowy B2B na czas nieokreślony - Dołączysz do firmy z solidną pozycją na rynku - Firma zapewnia nowoczesny sprzęt, oprogramowanie i konfigurację - Możliwość pracy w elastycznych godzinach - Możliwość pracy zdalnej w 100% - Profesjonalne doradztwo i wsparcie w rozwoju kariery od doświadczonego zespołu specjalistów 1dea - Cenimy sobie koleżeńskość, otwartość, szacunek, wzajemną pomoc i wsparcie w rozwijaniu kompetencji zarówno własnych, jak i kolegów i koleżanek z zespołu - Wspieramy kulturę kreatywności. Każdy członek zespołu ma możliwość proponowania własnych pomysłów i rozwiązań, a jego głos jest zawsze brany pod uwagę Wymagania: Wymagania - Min. 4 lata doświadczenia w zarządzaniu aplikacjami IT. - Biegła znajomość SQL oraz dobra wiedza z zakresu Python/Spark. - Zrozumienie zarządzania dostępem użytkowników. - Podstawowa wiedza o Unix i środowisku Big Data (HDFS). - Biegła znajomość języka angielskiego w mowie i piśmie (B2+) Mile widziane: - Doświadczenie z narzędziami do orkiestracji/harmonogramowania procesów (np. Apache Airflow). - Praktyczna znajomość ekosystemu Hadoop (np. Hive, Impala, Kafka). - Znajomość platform chmurowych (AWS, Azure lub GCP). - Doświadczenie z systemami kontroli wersji (Git). - Znajomość narzędzi Business Intelligence (np. Power BI, Tableau). Codzienne zadania: - Projektowanie i utrzymanie potoków danych (ETL/ELT) i infrastruktury Big Data. - Zarządzanie dostępem użytkowników do systemów IT. - Koordynacja zadań i ścisła współpraca z wieloma zespołami. - Tworzenie zapytań SQL oraz skryptów w Pythonie i Spark. - Opracowywanie dokumentacji technicznej i prezentacji.