JustJoin.IT Praca zdalna Senior New

GCP Data Engineer (Lead)

GS Services

⚲ Warszawa, Wrocław, Poznań, Kraków, Gdańsk

180 - 210 PLN/h netto (B2B)

Wymagania

  • NoSQL
  • Python
  • SQL
  • Google Cloud
  • BigQuery
  • GCP
  • Azure
  • ETL tools
  • DBT
  • ETL

Opis stanowiska

Poszukujemy superbohatera – GCP Data Engineera! 🦸‍♀️🦸‍♂️ Zlecono nam misję specjalną, dzięki której możesz stać się bohaterem naszego klienta. Poniżej znajdziesz informacje na temat oferty oraz supermoce, które będą Ci potrzebne do stawienia czoła wyzwaniom. Nie ma na co czekać, misja sama się nie zrobi – aplikuj na ofertę! 💵 Stawka: do 210 pln netto/h + VAT ⏳ Czas trwania: umowa do końca roku z możliwością przedłużenia 🤝 Model współpracy: B2B, pełny etat 🌍 Tryb pracy: 100% zdalnie ⌚ Start: ASAP 🗣 Język: Angielski – poziom zaawansowany ⚡ Twoja misja: Projekt koncentruje się na kompleksowej migracji oraz rozbudowie istniejącej platformy danych do środowiska chmurowego opartego na Google Cloud Platform. W projekcie wykorzystano również rozwiązania z obszaru AI/ML do wspierania procesów. ⚡ Wymagane supermoce: • Min. 4 lata doświadczenia na stanowisku inżyniera danych, w tym co najmniej 3 lata pracy z infrastrukturą i systemami chmurowymi GCP. • Dogłębna znajomość platform chmurowych – Google Cloud – Kandydat powinien umieć projektować, tworzyć i wdrażać pipeline danych w chmurze w celu pozyskiwania danych z różnych źródeł, takich jak bazy danych, interfejsy API czy platformy strumieniowe. • Znajomość programowania (SQL, Python, inne języki skryptowe). • Biegłość w technikach modelowania danych i optymalizacji baz danych. Znajomość optymalizacji zapytań, indeksowania i dostrajania wydajności niezbędna do efektywnego pobierania i przetwarzania danych. • Biegłość w obsłudze systemów zarządzania bazami danych, takich jak SQL (wymagana znajomość Big Query) i NoSQL. Kandydat powinien umieć projektować, konfigurować i zarządzać bazami danych w celu zapewnienia optymalnej wydajności i niezawodności. • Znajomość co najmniej jednego narzędzia do orkiestracji i planowania (np. Airflow). • Doświadczenie w zakresie narzędzi i technik integracji danych, takich jak ETL i ELT. Kandydat powinien umieć integrować dane z wielu źródeł i przekształcać je do formatu odpowiedniego do analizy. • Znajomość nowoczesnych narzędzi do transformacji danych (takich jak DBT, Dataform). • Umiejętność jasnego i zwięzłego przekazywania koncepcji technicznych interesariuszom nieposiadającym wiedzy technicznej. • Znajomość narzędzi: Git, Jira, Confluence itp. • Otwartość na naukę nowych technologii i rozwiązań. • Doświadczenie w środowisku międzynarodowym i w pracy w zespołach rozproszonych. ⚡ Mile widziane: • Certyfikaty w zakresie technologii big data i/lub platform chmurowych. • Doświadczenie w pracy z rozwiązaniami BI (np. Power BI, Tableau). • Doświadczenie w pracy z narzędziami ETL, np. Talend, Alteryx. • Doświadczenie w pracy z infrastrukturą i systemami opartymi na chmurze Azure. Aplikuj na ofertę, wierzymy w Ciebie i w Twoje supermoce! 🐱‍💻