Senior Data Engineer (GCP)
TQLO SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Warszawa
150 - 190 PLN/h netto (B2B)
Wymagania
- Docker
- ETL/ELT
- GCP
- BigQuery
- SQL
Opis stanowiska
Dla jednego z naszych klientów - globalnego lidera w branży poszukujemy Senior Data Engineera, który dołączy do zespołu Data Operations & Strategy działającego na poziomie EMEA. Firma rozpoczęła strategiczną współpracę z Google i buduje nowoczesny ekosystem danych w oparciu o Google Cloud Platform (GCP). Poszukujemy osoby, która weźmie udział w projektowaniu i wdrażaniu rozwiązań chmurowych, migracji danych z systemów lokalnych do chmury, a także będzie współpracować z zespołami międzynarodowymi przy kluczowych projektach danych. Zakres obowiązków: • Projektowanie, tworzenie i utrzymywanie skalowalnych potoków danych w ramach projektów integracji i migracji danych. • Migracja istniejących baz danych i zbiorów danych z systemów lokalnych do Google Cloud Platform, z zachowaniem integralności i bezpieczeństwa danych. • Współpraca z data scientistami, analitykami i innymi interesariuszami w celu zrozumienia potrzeb i dostarczania odpowiednich rozwiązań • Optymalizacja przechowywania i przetwarzania danych w celu zwiększenia wydajności. • Wdrażanie najlepszych praktyk w zakresie zarządzania danymi, ich jakości i bezpieczeństwa. • Monitorowanie i rozwiązywanie problemów z potokami danych w celu zapewnienia płynnego działania. • Aktualizacja wiedzy o najnowsze technologie i rozwiązania w zakresie inżynierii danych i chmury oraz wdrażanie ich w istniejące systemy. • Wsparcie techniczne i mentoring dla innych inżynierów danych oraz członków zespołu. Wymagania: • Minimum 10 lat doświadczenia w inżynierii danych, zarządzaniu bazami danych, modelowaniu danych oraz budowaniu i utrzymywaniu potoków danych (ETL/ELT). • Praktyczna znajomość platform chmurowych preferowana Google Cloud Platform (GCP), mile widziane również doświadczenie z Azure. • Biegłość w programowaniu w Python oraz bardzo dobra znajomość SQL. • Doświadczenie z hurtowniami danych (BigQuery), bazami danych relacyjnymi i NoSQL oraz budową Data Lake. • Znajomość narzędzi do przetwarzania danych w chmurze, np. Google Dataflow. • Praktyczna znajomość procesów i narzędzi ETL oraz zasad zarządzania i zapewnienia jakości danych. • Doświadczenie w pracy z konteneryzacją i orkiestracją - Docker, Kubernetes. • Znajomość praktyk DevOps i CI/CD. • Doskonałe umiejętności analityczne, rozwiązywania problemów i optymalizacji procesów danych. • Umiejętność współpracy w międzynarodowym środowisku i zarządzania projektami międzydziałowymi. • Proaktywna postawa, zaangażowanie i chęć wnoszenia nowych pomysłów. • Biegła znajomość języka angielskiego (codzienna praca w języku angielskim). Mile widziane: • Certyfikaty Google Cloud (Data Engineer, Cloud Architect). • Doświadczenie z danymi GIS Oferujemy: • Współpraca w oparciu o umowę B2B. • Współpraca projektowa z możliwością przedłużenia w zależności od potrzeb biznesowych i wyników. • Międzynarodowe środowisko (EMEA) i projekty na dużą skalę. • Praca hybrydowa - 2 dni z biura w Warszawie. • Program szkoleń wewnętrznych. Jeśli masz doświadczenie w migracji i przetwarzaniu danych w chmurze, chcesz mieć realny wpływ na transformację cyfrową globalnej organizacji i pracować w międzynarodowym środowisku - zapraszamy do aplikacji!