NoFluffJobs Praca zdalna Senior

Senior Data Engineer (Databricks | Python | PySpark | Fabric)

1dea

⚲ Warszawa

23 520 - 25 200 PLN (B2B)

Wymagania

  • Python
  • Databricks
  • GCP
  • Data engineering
  • IaaC
  • Security

Opis stanowiska

O projekcie: Senior Data Engineer (Databricks | Python | PySpark | Fabric) Szukamy doświadczonego Data Engineera, który dołączy do naszego zespołu w branży Marketplace. Jeśli czujesz się swobodnie w ekosystemie Google Cloud Platform, potrafisz budować skalowalne potoki danych i nie boisz się wyzwań związanych z automatyzacją infrastruktury – to ogłoszenie jest dla Ciebie! Prosimy o aplikacje CV w języku angielskim. --- Warunki zaangażowania:   Obszar: E-commerce / Marketplace Lokalizacja: 100% zdalnie Start: ASAP (akceptujemy kandydatury z max 1msc okresem wypowiedzenia) Stawka (ustalana indywidualnie): 140 - 150 PLN netto + VAT / h Zaangażowanie: B2B (outsourcing z 1dea), full-time, długofalowo Proces rekrutacyjny (100% zdalnie): - Krótka rozmowa telefoniczna informacyjno-zapoznawcza z rekruterem 1dea (~10 min) - Weryfikacja techniczno-projektowa z Klientem (~1 - 1,5 h) - (Jeśli OK) Rozmowa zapoznawcza z przedstawicielem projektu u Klienta końcowego (~ 30 min) - Decyzja o podjęciu współpracy Tech Stack: - Języki: Python, SQL, Terraform (HCL), Bash (opcjonalnie Java/Go) - GCP Services: BigQuery, Dataproc (Spark), Dataflow, Cloud Run, Bigtable - CI/CD: Jenkins, GitHub Actions Oferujemy - Zatrudnienie na podstawie umowy B2B na czas nieokreślony - Dołączysz do firmy z solidną pozycją na rynku - Firma zapewnia nowoczesny sprzęt, oprogramowanie i konfigurację - Możliwość pracy w elastycznych godzinach - Możliwość pracy zdalnej w 100% - Profesjonalne doradztwo i wsparcie w rozwoju kariery od doświadczonego zespołu specjalistów 1dea - Cenimy sobie koleżeńskość, otwartość, szacunek, wzajemną pomoc i wsparcie w rozwijaniu kompetencji zarówno własnych, jak i kolegów i koleżanek z zespołu - Wspieramy kulturę kreatywności. Każdy członek zespołu ma możliwość proponowania własnych pomysłów i rozwiązań, a jego głos jest zawsze brany pod uwagę Wymagania: Wymagania - GCP Expert: Praktyczna biegłość w środowisku Google Cloud (szczególnie BigQuery, GCS, Cloud Functions).  - Data Engineering: Głęboka wiedza z zakresu budowy potoków danych i rozwoju API.  - Infrastructure as Code: Umiejętność samodzielnego provisioningu zasobów w GCP.  - Networking & Security: Solidne zrozumienie kwestii sieciowych, ról oraz uprawnień (IAM).  - Tools: Doświadczenie w orkiestracji (dbt, Airflow lub Cloud Composer).  - Angielski: obowiązkowo komunikatywny w mowie i piśmie (B2+) Codzienne zadania: - Projektowanie i utrzymywanie wydajnych procesów ETL/ELT oraz logiki danych.  - Budowanie warstw API w celu udostępniania produktów danych (Data Products).  - Zarządzanie infrastrukturą GCP z wykorzystaniem podejścia Infrastructure as Code (Terraform).  - Optymalizacja i modelowanie zbiorów danych w BigQuery.  - Harmonizacja modeli KPI oraz mapowanie złożonych encji (Master Data Management).