NoFluffJobs Praca zdalna Senior

Senior Data Engineer (Databricks | DataMarts | Cloud)

1dea

⚲ Warszawa

27 720 - 30 240 PLN (B2B)

Wymagania

  • Databricks
  • Cloud
  • Big Data
  • Data pipelines
  • ETL
  • Data engineering
  • Python
  • SQL
  • Cloud computing
  • Data warehouse
  • Data Lake

Opis stanowiska

O projekcie: Senior Data Engineer (Databricks | DataMarts | Cloud) Poszukujemy doświadczonego eksperta, który dołączy do naszego zespołu i pomoże nam budować nowoczesne rozwiązania danych. Jeśli Databricks nie ma przed Tobą tajemnic, a architektura Big Data to Twoja pasja – czekamy na Ciebie! Prosimy o aplikacje CV w języku angielskim. --- Warunki zaangażowania:   Obszar: Consulting IT Lokalizacja: 100% zdalnie Start: ASAP (akceptujemy kandydatury z max 3msc okresem wypowiedzenia) Stawka (ustalana indywidualnie): 165 - 180 PLN netto + VAT / h Zaangażowanie: B2B (outsourcing z 1dea), full-time, długofalowo Proces rekrutacyjny (100% zdalnie): - Krótka rozmowa telefoniczna informacyjno-zapoznawcza z rekruterem 1dea (~10 min)  - Weryfikacja techniczno-projektowa z Klientem (~1 - 1,5 h)  - (Jeśli OK) Rozmowa zapoznawcza z przedstawicielem projektu u Klienta końcowego (~ 30 min)  - Decyzja o podjęciu współpracy  Oferujemy - Zatrudnienie na podstawie umowy B2B na czas nieokreślony  - Dołączysz do firmy z solidną pozycją na rynku  - Firma zapewnia nowoczesny sprzęt, oprogramowanie i konfigurację  - Możliwość pracy w elastycznych godzinach  - Możliwość pracy zdalnej w 100%  - Profesjonalne doradztwo i wsparcie w rozwoju kariery od doświadczonego zespołu specjalistów 1dea  - Cenimy sobie koleżeńskość, otwartość, szacunek, wzajemną pomoc i wsparcie w rozwijaniu kompetencji zarówno własnych, jak i kolegów i koleżanek z zespołu  - Wspieramy kulturę kreatywności. Każdy członek zespołu ma możliwość proponowania własnych pomysłów i rozwiązań, a jego głos jest zawsze brany pod uwagę Wymagania: Wymagania - Minimum 5 lat doświadczenia w obszarze Data Engineering  - Co najmniej 4 lata pracy z platformą Databricks (w tym znajomość Unity Catalog)  - Minimum 2 lata doświadczenia w projektach typu Big Data   - Biegłości w językach Python oraz SQL   - Solidnego doświadczenia w Cloud Computing (Azure, AWS lub GCP)  - Praktycznej wiedzy z zakresu: Data Warehouse, Data Lake, Data Mesh oraz relacyjnych i nierelacyjnych baz danych  - Znajomości zasad inżynierii oprogramowania i rozproszonego przetwarzania danych  - Bardzo dobrej znajomości języka angielskiego (w mowie i piśmie)  - Analitycznego podejścia do rozwiązywania problemów w dużej skali  Mile widziane: - Doświadczenie w pracy z metodykami Agile.  - Znajomość narzędzi CI/CD i automatyzacji procesów wdrożeniowych Codzienne zadania: - Projektowanie i wdrażanie skalowalnych rurociągów danych (data pipelines).  - Zarządzanie danymi z wykorzystaniem Unity Catalog.  - Optymalizacja procesów ETL oraz modelowanie struktur danych w środowiskach rozproszonych.  - Praca z różnorodnymi formatami danych (structured, semi-structured, unstructured).  - Współpraca w zwinnym środowisku (Scrum/Kanban) zgodnie z praktykami DevOps i CI/CD