Inżynier /-ka sztucznej inteligencji
NASK
⚲ Warszawa, Śródmieście
9 000–12 000 zł brutto / mies.
Wymagania
- Python
- Biblioteki ML (PyTorch i/lub TensorFlow)
- ML/AI
- MLOps
- CI/CD
- Narzędzia do wersjonowania
- Docker
- Kubernetes
Opis stanowiska
Nasze wymagania: • Wykształcenie wyższe (informatyka, matematyka, sztuczna inteligencja, inżynieria danych lub kierunki pokrewne) • Doświadczenie w obszarze uczenia maszynowego / sztucznej inteligencji • Dobrze rozwinięte umiejętności inżynierskie w kontekście projektowania i utrzymania systemów ML • Doświadczenie w pracy z dużymi zbiorami danych • Zaawansowana znajomość języka Python oraz bibliotek ML (PyTorch i/lub TensorFlow) • Umiejętność pisania czytelnego, utrzymywalnego i testowalnego kodu (Git) • Zainteresowanie oraz podstawowa znajomość zagadnień związanych z bezpieczeństwem systemów AI • Znajomość języka angielskiego na poziomie umożliwiającym czytanie dokumentacji technicznej i publikacji naukowych Mile widziane: Doświadczenie w obszarze MLOps oraz CI/CD Praktyczna znajomość narzędzi do wersjonowania i zarządzania eksperymentami (np. MLflow, DVC, Weights & Biases) Doświadczenie z chmurą obliczeniową (AWS, GCP lub Azure) Znajomość konteneryzacji (Docker) i orkiestracji (Kubernetes) Doświadczenie we wdrażaniu i skalowaniu systemów ML/LLM w środowisku produkcyjnym Doświadczenie w optymalizacji wydajności modeli O projekcie: Do Zakładu Bezpieczeństwa i Przejrzystości Sztucznej Inteligencji poszukujemy Inżyniera/-rki sztucznej inteligencji, który/-ra będzie pracować nad bezpieczeństwem modeli AI. Łącząc kompetencje inżynierskie z pracą blisko zespołu badawczego nowa osoba wesprze przechodzenie od eksperymentów i prototypów do stabilnych, skalowalnych systemów opartych o duże modele AI. Zespół koncentruje się na przeciwdziałaniu zagrożeniom związanym z generatywną AI, w tym ograniczaniu halucynacji modeli i poprawie przejrzystości ich działania. Jednym z obszarów działania zakładu są prace nad zabezpieczaniem polskiego otwartego dużego modelu językowego PLLuM. Pracujemy nad realnymi rozwiązaniami, które mają wpływ na świat, ale jednocześnie dbamy o to, aby nasze wyniki były publikowane na wiodących konferencjach naukowych. Zakres obowiązków: • Projektowanie, trenowanie oraz ewaluacja dużych modeli językowych (LLM) z myślą o ich praktycznym zastosowaniu • Przygotowywanie, przetwarzanie i wersjonowanie danych na potrzeby treningu i ewaluacji modeli • Projektowanie, rozwój i optymalizacja systemów typu RAG (Retrieval-Augmented Generation) • Implementacja pipeline’ów treningowych i inferencyjnych (offline oraz online) • Wsparcie zespołu badawczego w przygotowywaniu prototypów oraz ich przechodzeniu do systemów produkcyjnych • Budowa i utrzymanie infrastruktury eksperymentalnej (reprodukowalność eksperymentów, wersjonowanie modeli i danych) • Integracja rozwiązań ML/LLM z istniejącymi systemami (API, mikroserwisy)