Bulldogjob Stacjonarnie Senior New

Data Scientist

TeamQuest

⚲ Warszawa

14 000 - 20 000 PLN (B2B / UoP)

Wymagania

  • Python
  • pandas
  • numpy
  • scikit-learn
  • TensorFlow

Opis stanowiska

Nasz klient to dynamicznie rozwijająca się firma działająca w branży IT, która od ponad dekady dostarcza innowacyjne rozwiązania dla sektora mediów, prawa i administracji. W centrum ich działalności znajduje się platforma, rewolucjonizująca sposób digitalizacji i publikacji treści dla jednej z czołowych gazet prawnych w Polsce. Firma skupia zespół wysoko wykwalifikowanych specjalistów - od programistów i inżynierów, po projektantów i menedżerów - wszyscy z pasją tworzący technologie przyszłości. Obecnie poszukujemy talentów do wzmocnienia działów IT. Nasz klient to miejsce, gdzie innowacja spotyka się z doświadczeniem, a projekty wspierane są przez fundusze europejskie, co otwiera drogę do tworzenia nowatorskich usług i produktów. Jeśli chcesz być częścią firmy, która kształtuje przyszłość technologii, to jest to miejsce dla Ciebie. Data Scientist Oferujemy: - Realny wpływ na kulturę data-driven w organizacji obsługującej miliony użytkowników. - Duża samodzielność oraz przestrzeń na realizację własnych pomysłów. - Pełne wsparcie w wykorzystaniu nowoczesnych narzędzi AI (dostęp do licencji m.in. Cursor AI, Claude, GitHub Copilot). - Dostęp do różnorodnych i bogatych zbiorów danych z serwisów gospodarczych i produktów cyfrowych. - Zgrany zespół ekspertów IT - dzielimy się wiedzą i wspieramy rozwój. - Budżet szkoleniowy oraz czas na rozwój kompetencji. - Hybrydowy model pracy i elastyczne godziny. - Pakiet benefitów: opieka medyczna, karta sportowa z dofinansowaniem, dodatkowe 3 dni urlopu w skali roku. - Świetna lokalizacja biura w nowoczesnym biurowcu i dobra komunikacja. Obowiązki: - Projektowanie i wdrażanie kompleksowych rozwiązań analitycznych wspierających kluczowe decyzje biznesowe. - Budowanie modeli predykcyjnych i algorytmów uczenia maszynowego w Pythonie - rozwiązujących realne problemy biznesowe. - Tworzenie zaawansowanych dashboardów i raportów analitycznych (Power BI, Google Data Studio) dostarczających wartościowe insiguty różnym działom organizacji. - Zarządzanie infrastrukturą danych: jakość, dostępność oraz bezpieczeństwo danych. - Identyfikowanie i weryfikacja jakości źródeł danych oraz rekomendowanie usprawnień w ich zbieraniu i przetwarzaniu. - Prowadzenie projektów analitycznych end-to-end: od koncepcji, przez implementację, po monitoring wyników. - Efektywne wykorzystanie narzędzi AI (m.in. Cursor AI, Claude Code, GitHub Copilot, ChatGPT) do przyspieszenia pracy: kod, analiza danych, dokumentacja. - Współpraca z zespołami biznesowymi (Product Managerowie, sprzedaż, marketing) - przekładanie potrzeb na rozwiązania analityczne. - Współtworzenie i rozwijanie kultury data-driven oraz proponowanie nowych zastosowań danych. Wymagania: - Minimum 3 lata doświadczenia jako Data Scientist lub w pokrewnej roli analitycznej. - Bardzo dobra znajomość Pythona oraz bibliotek do analizy danych i ML (np. pandas, numpy, scikit-learn, tensorflow/pytorch). - Praktyczne doświadczenie w budowaniu i wdrażaniu modeli predykcyjnych w środowisku produkcyjnym. - Biegła znajomość SQL oraz doświadczenie z bazami NoSQL (np. MongoDB, Elasticsearch). - Umiejętność tworzenia efektywnych dashboardów i raportów w Power BI i/lub Google Data Studio. - Solidne podstawy statystyki i dobór właściwych metod analitycznych do problemów biznesowych. - Samodzielność - realizacja projektów analitycznych od A do Z bez stałego nadzoru. - Proaktywne podejście do wykorzystania narzędzi AI w codziennej pracy (pracujesz nowocześnie i efektywnie, nie "klasycznie'). - Umiejętność nadzoru nad zadaniami delegowanymi do AI: weryfikacja, walidacja i świadome decyzje "kiedy AI, a kiedy ręcznie'. - Szybkie prototypowanie (vibe coding) z wykorzystaniem AI przy zachowaniu wysokiej jakości końcowego kodu. - Umiejętność przekładania potrzeb biznesowych na rozwiązania techniczne oraz wyników analiz na rekomendacje. - Bardzo dobra komunikacja z nietechnicznymi interesariuszami. - Analityczne myślenie i umiejętność rozwiązywania problemów. Dodatkowe atuty: - Znajomość narzędzi do orkiestracji przepływów danych (np. Airflow, Luigi). - Doświadczenie z chmurą (AWS, GCP, Azure). - Znajomość feature engineering i praktyk MLOps. - Doświadczenie z Big Data (np. Spark, Hadoop). - Znajomość metodyk Agile/Scrum. - Doświadczenie w projektach e-commerce lub w branży mediowej. - Aktywne korzystanie z prompt engineering i zaawansowanych technik pracy z LLM-ami. - Doświadczenie w budowaniu własnych workflow z wykorzystaniem API modeli AI (np. OpenAI, Anthropic).