Pracuj.pl Hybrydowo Mid New

Specjalista /-tka ds. bezpieczeństwa AI

NASK

⚲ Warszawa, Śródmieście

8 000–12 000 zł brutto / mies.

Wymagania

  • Python
  • PyTorch/TensorFlow

Opis stanowiska

Nasze wymagania: Wykształcenie wyższe techniczne (informatyka, sztuczna inteligencja lub kierunki pokrewne) lub status studenta na ostatnim etapie studiów Zainteresowanie tematyką bezpieczeństwa systemów AI i chęć rozwoju w tym obszarze Praktyczna znajomość metod uczenia maszynowego, szczególnie w kontekście modeli generatywnych Biegła znajomość języka Python oraz doświadczenie pracy z bibliotekami ML (PyTorch / TensorFlow) Umiejętność analitycznego i krytycznego myślenia Dobra znajomość języka angielskiego umożliwiająca czytanie dokumentacji technicznej i publikacji naukowych Mile widziane: Wykształcenie wyższe techniczne (informatyka, sztuczna inteligencja lub kierunki pokrewne) lub status studenta na ostatnim etapie studiów Zainteresowanie tematyką bezpieczeństwa systemów AI i chęć rozwoju w tym obszarze Praktyczna znajomość metod uczenia maszynowego, szczególnie w kontekście modeli generatywnych Biegła znajomość języka Python oraz doświadczenie pracy z bibliotekami ML (PyTorch / TensorFlow) Umiejętność analitycznego i krytycznego myślenia Dobra znajomość języka angielskiego umożliwiająca czytanie dokumentacji technicznej i publikacji naukowych O projekcie: Do Zakładu Bezpieczeństwa i Przejrzystości Sztucznej Inteligencji poszukujemy dwóch osób na stanowisko Specjalisty /-stki ds. bezpieczeństwa systemów AI, które będą pracować nad bezpieczeństwem nowoczesnych modeli generatywnych, w tym dużych modeli językowych. Naszą misją jest rozwijanie metod wykrywania podatności, opracowywania technik obronnych oraz zwiększania przejrzystości działania modeli AI. Zespół pracuje zarówno nad rozwiązaniami praktycznymi, jak i publikacjami wiodących konferencji naukowych (np. NeurIPS, CVPR, ACL). W szczególności zapraszamy do wzięcia udziału w rekrutacji osoby zainteresowane doktoratem. Pracujemy nad technologiami, które mają realny wpływ na praktyczne wdrożenia AI, jednocześnie zachowując wysoką jakość naukową i publikacyjność. Zakres obowiązków: Zabezpieczanie modeli generatywnych oraz rozwijanie metod zwiększających transparentność systemów AI Opracowywanie i testowanie metod wykrywania podatności, w tym ataków adwersarialnych, halucynacji modeli, wycieków danych czy reward hackingu Projektowanie i rozwój narzędzi open‑source związanych z bezpieczeństwem systemów AI Przygotowywanie raportów technologicznych i publikacji naukowych oraz prezentowanie wyników badań na konferencjach Współpraca z zespołami badawczymi w Polsce i za granicą