Senior Data Engineer (Databricks | DataMarts | Cloud)
1dea
⚲ Warszawa, Kraków, Wrocław, Gdańsk
27 720 - 30 240 PLN (B2B)
Wymagania
- Data
- Data engineering
- Databricks
- Unity Catalog
- Big data
- Python
- SQL
- Cloud computing
- Azure
- AWS
- GCP
- Data warehouse
- Data Lake
- Data mesh
- Agile (nice to have)
- CI/CD (nice to have)
Opis stanowiska
O projekcie: Poszukujemy doświadczonego eksperta, który dołączy do naszego zespołu i pomoże nam budować nowoczesne rozwiązania danych. Jeśli Databricks nie ma przed Tobą tajemnic, a architektura Big Data to Twoja pasja – czekamy na Ciebie! Prosimy o aplikacje CV w języku angielskim. --- Warunki zaangażowania: Obszar: Consulting IT Lokalizacja: 100% zdalnie Start: ASAP (akceptujemy kandydatury z max 3msc okresem wypowiedzenia) Stawka (ustalana indywidualnie): 165 - 180 PLN netto + VAT / h Zaangażowanie: B2B (outsourcing z 1dea), full-time, długofalowo Proces rekrutacyjny (100% zdalnie): - Krótka rozmowa telefoniczna informacyjno-zapoznawcza z rekruterem 1dea (~10 min) - Weryfikacja techniczno-projektowa z Klientem (~1 - 1,5 h) - (Jeśli OK) Rozmowa zapoznawcza z przedstawicielem projektu u Klienta końcowego (~ 30 min) - Decyzja o podjęciu współpracy Oferujemy - Zatrudnienie na podstawie umowy B2B na czas nieokreślony - Dołączysz do firmy z solidną pozycją na rynku - Firma zapewnia nowoczesny sprzęt, oprogramowanie i konfigurację - Możliwość pracy w elastycznych godzinach - Możliwość pracy zdalnej w 100% - Profesjonalne doradztwo i wsparcie w rozwoju kariery od doświadczonego zespołu specjalistów 1dea - Cenimy sobie koleżeńskość, otwartość, szacunek, wzajemną pomoc i wsparcie w rozwijaniu kompetencji zarówno własnych, jak i kolegów i koleżanek z zespołu - Wspieramy kulturę kreatywności. Każdy członek zespołu ma możliwość proponowania własnych pomysłów i rozwiązań, a jego głos jest zawsze brany pod uwagę Wymagania: - Minimum 5 lat doświadczenia w obszarze Data Engineering - Co najmniej 4 lata pracy z platformą Databricks (w tym znajomość Unity Catalog) - Minimum 2 lata doświadczenia w projektach typu Big Data - Biegłości w językach Python oraz SQL - Solidnego doświadczenia w Cloud Computing (Azure, AWS lub GCP) - Praktycznej wiedzy z zakresu: Data Warehouse, Data Lake, Data Mesh oraz relacyjnych i nierelacyjnych baz danych - Znajomości zasad inżynierii oprogramowania i rozproszonego przetwarzania danych - Bardzo dobrej znajomości języka angielskiego (w mowie i piśmie) - Analitycznego podejścia do rozwiązywania problemów w dużej skali Mile widziane: - Doświadczenie w pracy z metodykami Agile. - Znajomość narzędzi CI/CD i automatyzacji procesów wdrożeniowych Codzienne zadania: - Projektowanie i wdrażanie skalowalnych rurociągów danych (data pipelines). - Zarządzanie danymi z wykorzystaniem Unity Catalog. - Optymalizacja procesów ETL oraz modelowanie struktur danych w środowiskach rozproszonych. - Praca z różnorodnymi formatami danych (structured, semi-structured, unstructured). - Współpraca w zwinnym środowisku (Scrum/Kanban) zgodnie z praktykami DevOps i CI/CD