Applied Data Scientist (m/k)
TEAM UP RECRUITMENT SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Katowice
Wymagania
- Python
- Pandas
- NumPy
- scikit-learn
- data science
- jupyter notebooks
- AWS S3
- Glue
- Athena
- Redshift
- Airflow
- Dagster
Opis stanowiska
Nasze wymagania: Bardzo dobra znajomość Pythona, nie tylko do skryptowania, ale również do pisania czytelnego, dobrze zorganizowanego kodu, Praktyczne doświadczenie z bibliotekami Pandas, NumPy, scikit-learn, Doświadczenie w budowaniu pipeline’ów ETL/ELT w Pythonie, Doświadczenie w pracy z nieuporządkowanymi danymi pochodzącymi z wielu systemów źródłowych, Znajomość Git oraz dobrych praktyk inżynierskich, Doświadczenie w constraint solving lub mathematical optimization, Praktyczne wykorzystanie OR-Tools lub podobnych narzędzi, Bardzo dobre umiejętności analizy danych, Swoboda w pracy z Jupyter Notebooks, Bardzo dobra znajomość języka angielskiego. Mile widziane: Doświadczenie z usługami danych w chmurze, np. AWS S3, Glue, Athena, Redshift lub równoważnym stackiem, Znajomość narzędzi do orkiestracji i transformacji danych, takich jak dbt, Airflow, Dagster, Doświadczenie we wdrażaniu modeli ML lub znajomość praktyk MLOps, Znajomość modeli grafowych, danych o topologii sieci lub domeny telekomunikacyjnej, Doświadczenie w obszarze pricingu, revenue optimization lub analityki komercyjnej w środowisku B2B lub telecom. O projekcie: Szukamy doświadczonej osoby na stanowisko Applied Data Scientist, która połączy kompetencje z obszaru analizy danych, optymalizacji matematycznej i praktycznej inżynierii danych. To rola dla kogoś, kto potrafi przełożyć złożone wymagania biznesowe na działające rozwiązania, budować logikę ofertową, pracować na nieuporządkowanych danych z wielu źródeł i tworzyć modele wspierające decyzje cenowe. Zakres obowiązków: Tworzenie i rozwój rozwiązań w Pythonie Analiza danych oraz weryfikacja hipotez w Jupyter Notebooks Projektowanie i rozwój logiki ofertowej opartej na optymalizacji ograniczeń Budowa i walidacja modeli cenowych Tworzenie oraz utrzymanie pipeline’ów ETL/ELT Integracja, czyszczenie i transformacja danych z wielu źródeł Implementacja kontroli jakości i walidacji danych Współpraca z interesariuszami biznesowymi i technicznymi