Expert DevOps Engineer - Cloud Data Platform
ING BANK ŚLĄSKI SPÓŁKA AKCYJNA
⚲ Katowice, Warszawa
20 000 - 24 000 PLN (PERMANENT)
Wymagania
- Google cloud platform
- BigQuery
- Cloud
- Cloudera
- ETL
- Python (nice to have)
- Azure (nice to have)
Opis stanowiska
O projekcie: Będziesz odpowiedzialny_a za rozwój i utrzymanie platformy danych w Google Cloud Platform, w szczególności w obszarze BigQuery, Cloud Composer, Dataproc oraz Dataflow. Skupisz się na projektowaniu i orkiestracji potoków danych, przetwarzaniu dużych wolumenów danych w ramach migracji z platformy Cloudera oraz wspieraniu zespołów Data Science i analitycznych w dostarczaniu stabilnych, skalowalnych i niezawodnych rozwiązań z obszaru data & AI. Dołączysz do Centrum Eksperckiego AI — centralnego ośrodka kompetencji AI w Banku. Wspólnie z zespołami biznesowymi, IT i Data Science będziesz tworzyć i wdrażać zaawansowane rozwiązania AI i MLOps, realnie wpływając na transformację procesów bankowych oraz rozwój innowacyjnych produktów opartych na danych. To oferujemy - Pracę w dojrzałym biznesowo i technologicznie ponad 1000-osobowym Pionie IT, w którym razem z nami będziesz tworzyć rozwiązania dla nowoczesnej bankowości- Kompleksowy rozwój kompetencji w zakresie wytwarzania oprogramowania, bezpieczeństwa IT, metodyki DevOps poprzez udział w projektach m.in. dotyczących migracji naszych środowisk i aplikacji do chmury publicznej- Dostęp do platform edukacyjnych m.in. Microsoft ESI, Udemy Business, eTutor oraz dofinansowanie niezbędnych szkoleń technicznych- Współpracę we wzajemnie uczących się społecznościach programistycznych, analitycznych, testerskich, Women in Tech, w tym pracę z mentorami i uczenie się na stażu towarzyszącym- Pakiet medyczny, ubezpieczenie na życie, platformę Mindgram, Pracowniczy Program Emerytalny i Program Profilaktyki Onkologicznej- Karty sportowe (Medicover Sport i Multisport) i kafeterię benefitową na punkty- Dodatkowe dni wolne- Program Poleceń Pracowniczych ze świadczeniem pieniężnym- Możliwość skorzystania z autorskich kosztów uzyskania przychodu (do 70%) za wkład twórczy w rozwój oprogramowania- Atrakcyjne konkursy z nagrodami i rabaty do wybranych sklepów Wymagania: Nasze oczekiwania - masz bardzo dobrą znajomość Google Cloud Platform, w szczególności rozwiązań do przetwarzania i orkiestracji danych (np. BigQuery, Dataflow, Dataproc, Airflow)- posiadasz doświadczenie w projektach migracyjnych on‑prem → cloud, mile widziana praca z Cloudera lub ekosystemem Hadoop- bardzo dobrze znasz Python (ETL, pipeline’y danych, automatyzacja)- dobrze znasz język Java- masz doświadczenie w projektowaniu i utrzymaniu pipeline’ów danych w środowiskach produkcyjnych- potrafisz projektować rozwiązania chmurowe z uwzględnieniem skalowalności, bezpieczeństwa oraz optymalizacji kosztowej- bardzo dobrze posługujesz się językiem angielskim (C1) – codzienna komunikacja Mile widziane: - znasz narzędzia i praktyki DevOps w środowisku Azure Codzienne zadania: - odpowiadasz za techniczne przygotowanie i realizację migracji platformy danych z Cloudera (on‑premises) do środowiska Google Cloud Platform - projektujesz, rozwijasz i utrzymujesz narzędzia oraz automatyzacje wspierające proces migracji danych, w tym skrypty, pipeline’y oraz mechanizmy transferu danych historycznych i przyrostowych. - budujesz i utrzymujesz rozwiązania w GCP do ładowania danych (data ingestion), przetwarzania oraz orkiestracji procesów (m.in. harmonogramowanie, zarządzanie zależnościami, retry, monitoring) - współpracujesz z zespołami danych i architektury, dbając o zgodność rozwiązań z obowiązującymi standardami platformowymi, wymaganiami bezpieczeństwa, niezawodności i skalowalności - wspierasz uruchomienia, testy migracyjne oraz proces stabilizacji środowisk GCP, a także bierzesz udział w ich optymalizacji kosztowej i operacyjnej