Inżynier / Inżynierka Danych (Data Engineer)
ASTEK Polska
⚲ Remote
21 000 - 25 200 PLN (B2B)
Wymagania
- Snowflake
- Python
- R
- SQL
- ETL
- dbt
- Alteryx
- AWS
- AWS S3
- Glue
- AWS Lambda
- NoSQL
Opis stanowiska
O projekcie: Stanowisko Obecnie dla naszego klienta z branży farmaceutycznej poszukujemy kandydata/kandydatki na stanowisko Inżyniera / Inżynierki Danych. Oferowane wynagrodzenie Wynagrodzenie: od 1000 do 1200 PLN netto/dzień, w zależności od posiadanego doświadczenia i kompetencji. Co oferujemy - Długoterminowa współpraca - Szkolenia techniczne, certyfikaty i podnoszenie kwalifikacji - Mentoring Competence Center - bycie członkiem społeczności CC od pierwszego dnia pracy jest szansą na rozwijanie swoich umiejętności, uczestniczenie w różnych konferencjach oraz dzielenie się wiedzą i doświadczeniem z ludźmi, którzy na co dzień mierzą się z tymi samymi wyzwaniami - Jasna ścieżka kariery - Pakiet benefitów pracowniczych (Multisport, prywatna opieka medyczna, ubezpieczenie na życie) - Przyjazną atmosferę pracy, imprezy integracyjne i spotkania team-buildingowe Nr ref AO221823 Wymagania: - Posiadasz praktyczne doświadczenie w pracy z Snowflake oraz potrafisz budować i utrzymywać pipeline’y danych przy użyciu Pythona lub R, a także swobodnie programujesz w SQL/PLSQL - Znasz narzędzia ETL/ELT, takie jak Talend, DBT czy Alteryx, oraz rozumiesz zagadnienia modelowania danych, zarządzania metadanymi i jakości danych - Masz doświadczenie w pracy z chmurą AWS (m.in. S3, Glue, Lambda), środowiskami kontenerowymi i procesami CI/CD - Swobodnie poruszasz się w różnych technologiach bazodanowych i platformach danych (relacyjne, MPP, NoSQL) oraz znasz koncepcje hurtowni danych i przetwarzania rozproszonego - Posługujesz się językiem angielskim na poziomie min. B2 Codzienne zadania: - Projektowanie oraz rozwijanie wydajnych i niezawodnych procesów przetwarzania danych, obejmujących integrację informacji z różnych źródeł, takich jak pliki, bazy danych czy zasoby chmurowe - Tworzenie i optymalizacja architektury hurtowni danych, w tym modeli Data Vault, wraz z definiowaniem standardów technicznych i najlepszych praktyk DataOps - Budowa oraz konfiguracja obiektów w środowisku Snowflake, w szczególności stage’y, formatów plików i mechanizmów ładowania danych z AWS S3 - Nadzór nad pełnym cyklem życia produktów danych oraz dbanie o ich jakość, kompletność i niezawodność - Współpraca z zespołami biznesowymi i technicznymi, prowadzenie przeglądów kodu oraz udział w inicjatywach usprawniających środowisko data engineering