Pracuj.pl Stacjonarnie Expert

Principal AI Infrastructure Engineer - Leader

Next Technology Professionals Sp. z o.o.

⚲ Warszawa

Wymagania

  • LLVM
  • C++
  • PyTorch
  • TensorFlow
  • JAX
  • Triton

Opis stanowiska

Nasze wymagania: Minimum 6 lat komercyjnego doświadczenia w programowaniu niskopoziomowym, tworzeniu kompilatorów lub maksymalizowaniu wydajności układów akcelerujących. Doskonała, ugruntowana w boju znajomość LLVM (to nasz absolutny wymóg) oraz języka C++. Głębokie rozumienie architektury sprzętowej, hierarchii pamięci oraz zarządzania rejestrami w środowiskach AI. Praktyczne doświadczenie z frameworkami takimi jak PyTorch, TensorFlow czy JAX. Gotowość do pracy wyłącznie stacjonarnej w biurze oraz nawiązania współpracy na podstawie umowy o pracę (UoP). Mile widziane: Zaawansowany stopień naukowy (magister/doktor) w dziedzinie inżynierii komputerowej oraz praktyczna znajomość Triton. O projekcie: Projekt: 🚀 Tworzenie od podstaw oraz optymalizacja wydajności zaawansowanego stosu kompilatorów dla autorskich układów sprzętowych (działających podobnie do GPU). Aż 70% codziennej pracy to czyste R&D i prototypowanie (greenfield), natomiast pozostała część to praca nad rozwojem już istniejącej architektury bazowej. Co ważne, organizacja aktywnie wspiera i pozwala na bezpośredni wkład w projekty Open Source. Stack technologiczny: 💻 LLVM (priorytet), C++, MLIR, PyTorch, PTX oraz niskopoziomowe programowanie akceleratorów. Komercyjne doświadczenie z technologią Triton będzie potężnym atutem. Zespół: 👥 Dołączysz do innowacyjnego działu R&D, pracującego dla giganta technologicznego. Poszukujemy osoby, która nie tylko wniesie głęboką ekspertyzę, ale również przejmie rolę partnera do dyskusji architektonicznych dla pozostałych członków zespołu. Model współpracy: 🏢 Praca odbywa się w trybie w 100% stacjonarnym z biura w Warszawie. Zakres obowiązków: Projektowanie i rozbudowa innowacyjnych rozwiązań kompilatorowych dla specjalizowanych autorskich układów (stanowiących alternatywę dla klasycznych GPU). Ekstremalna optymalizacja wydajności na poziomie sprzętowym, ze szczególnym uwzględnieniem redukcji opóźnień (latency). Wdrażanie skomplikowanych mechanizmów, takich jak fuzja jąder operacyjnych (kernel fusion). Analizowanie wąskich gardeł wydajnościowych na dedykowanych klastrach sprzętowych – firma posiada własne serwery, więc praca odbywa się płynnie, bez stania w kolejkach do współdzielonych środowisk. Dzielenie się wiedzą, przeglądy kodu (code review) i wyznaczanie standardów optymalizacyjnych dla całego działu. Oferujemy: Stabilne zatrudnienie na podstawie Umowy o Pracę (UoP) w strukturach prężnie rozwijającego się centrum R&D. Bezpośredni, nielimitowany dostęp do fizycznej infrastruktury sprzętowej i autorskich procesorów AI. Oficjalnie wydzielony budżet czasowy na współtworzenie globalnych rozwiązań Open Source. Możliwość kształtowania kluczowych produktów technologicznych o zasięgu globalnym.