Pracuj.pl Hybrydowo Mid

Applied Data Scientist (m/k)

TEAM UP RECRUITMENT SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ

⚲ Katowice

Wymagania

  • Python
  • Pandas
  • NumPy
  • scikit-learn
  • data science
  • jupyter notebooks
  • AWS S3
  • Glue
  • Athena
  • Redshift
  • Airflow
  • Dagster

Opis stanowiska

Nasze wymagania: Bardzo dobra znajomość Pythona, nie tylko do skryptowania, ale również do pisania czytelnego, dobrze zorganizowanego kodu, Praktyczne doświadczenie z bibliotekami Pandas, NumPy, scikit-learn, Doświadczenie w budowaniu pipeline’ów ETL/ELT w Pythonie, Doświadczenie w pracy z nieuporządkowanymi danymi pochodzącymi z wielu systemów źródłowych, Znajomość Git oraz dobrych praktyk inżynierskich, Doświadczenie w constraint solving lub mathematical optimization, Praktyczne wykorzystanie OR-Tools lub podobnych narzędzi, Bardzo dobre umiejętności analizy danych, Swoboda w pracy z Jupyter Notebooks, Bardzo dobra znajomość języka angielskiego. Mile widziane: Doświadczenie z usługami danych w chmurze, np. AWS S3, Glue, Athena, Redshift lub równoważnym stackiem, Znajomość narzędzi do orkiestracji i transformacji danych, takich jak dbt, Airflow, Dagster, Doświadczenie we wdrażaniu modeli ML lub znajomość praktyk MLOps, Znajomość modeli grafowych, danych o topologii sieci lub domeny telekomunikacyjnej, Doświadczenie w obszarze pricingu, revenue optimization lub analityki komercyjnej w środowisku B2B lub telecom. O projekcie: Szukamy doświadczonej osoby na stanowisko Applied Data Scientist, która połączy kompetencje z obszaru analizy danych, optymalizacji matematycznej i praktycznej inżynierii danych. To rola dla kogoś, kto potrafi przełożyć złożone wymagania biznesowe na działające rozwiązania, budować logikę ofertową, pracować na nieuporządkowanych danych z wielu źródeł i tworzyć modele wspierające decyzje cenowe. Zakres obowiązków: Tworzenie i rozwój rozwiązań w Pythonie Analiza danych oraz weryfikacja hipotez w Jupyter Notebooks Projektowanie i rozwój logiki ofertowej opartej na optymalizacji ograniczeń Budowa i walidacja modeli cenowych Tworzenie oraz utrzymanie pipeline’ów ETL/ELT Integracja, czyszczenie i transformacja danych z wielu źródeł Implementacja kontroli jakości i walidacji danych Współpraca z interesariuszami biznesowymi i technicznymi