Senior Data Engineer (Databricks | Python | PySpark | Fabric)
1dea
⚲ Warszawa
23 520 - 25 200 PLN (B2B)
Wymagania
- Python
- Databricks
- GCP
- Data engineering
- IaaC
- Security
Opis stanowiska
O projekcie: Senior Data Engineer (Databricks | Python | PySpark | Fabric) Szukamy doświadczonego Data Engineera, który dołączy do naszego zespołu w branży Marketplace. Jeśli czujesz się swobodnie w ekosystemie Google Cloud Platform, potrafisz budować skalowalne potoki danych i nie boisz się wyzwań związanych z automatyzacją infrastruktury – to ogłoszenie jest dla Ciebie! Prosimy o aplikacje CV w języku angielskim. --- Warunki zaangażowania: Obszar: E-commerce / Marketplace Lokalizacja: 100% zdalnie Start: ASAP (akceptujemy kandydatury z max 1msc okresem wypowiedzenia) Stawka (ustalana indywidualnie): 140 - 150 PLN netto + VAT / h Zaangażowanie: B2B (outsourcing z 1dea), full-time, długofalowo Proces rekrutacyjny (100% zdalnie): - Krótka rozmowa telefoniczna informacyjno-zapoznawcza z rekruterem 1dea (~10 min) - Weryfikacja techniczno-projektowa z Klientem (~1 - 1,5 h) - (Jeśli OK) Rozmowa zapoznawcza z przedstawicielem projektu u Klienta końcowego (~ 30 min) - Decyzja o podjęciu współpracy Tech Stack: - Języki: Python, SQL, Terraform (HCL), Bash (opcjonalnie Java/Go) - GCP Services: BigQuery, Dataproc (Spark), Dataflow, Cloud Run, Bigtable - CI/CD: Jenkins, GitHub Actions Oferujemy - Zatrudnienie na podstawie umowy B2B na czas nieokreślony - Dołączysz do firmy z solidną pozycją na rynku - Firma zapewnia nowoczesny sprzęt, oprogramowanie i konfigurację - Możliwość pracy w elastycznych godzinach - Możliwość pracy zdalnej w 100% - Profesjonalne doradztwo i wsparcie w rozwoju kariery od doświadczonego zespołu specjalistów 1dea - Cenimy sobie koleżeńskość, otwartość, szacunek, wzajemną pomoc i wsparcie w rozwijaniu kompetencji zarówno własnych, jak i kolegów i koleżanek z zespołu - Wspieramy kulturę kreatywności. Każdy członek zespołu ma możliwość proponowania własnych pomysłów i rozwiązań, a jego głos jest zawsze brany pod uwagę Wymagania: Wymagania - GCP Expert: Praktyczna biegłość w środowisku Google Cloud (szczególnie BigQuery, GCS, Cloud Functions). - Data Engineering: Głęboka wiedza z zakresu budowy potoków danych i rozwoju API. - Infrastructure as Code: Umiejętność samodzielnego provisioningu zasobów w GCP. - Networking & Security: Solidne zrozumienie kwestii sieciowych, ról oraz uprawnień (IAM). - Tools: Doświadczenie w orkiestracji (dbt, Airflow lub Cloud Composer). - Angielski: obowiązkowo komunikatywny w mowie i piśmie (B2+) Codzienne zadania: - Projektowanie i utrzymywanie wydajnych procesów ETL/ELT oraz logiki danych. - Budowanie warstw API w celu udostępniania produktów danych (Data Products). - Zarządzanie infrastrukturą GCP z wykorzystaniem podejścia Infrastructure as Code (Terraform). - Optymalizacja i modelowanie zbiorów danych w BigQuery. - Harmonizacja modeli KPI oraz mapowanie złożonych encji (Master Data Management).