LLM enginer
Toro Performance Sp. z o.o.
⚲ Poznań
Wymagania
- Python
- Langchain
- TensorFlow
- NumPy
- PyTorch
- LLM
- NLP
Opis stanowiska
Zadania: • Projektowanie, trenowanie i optymalizacja dużych modeli językowych (LLM) dla różnorodnych zastosowań biznesowych. • Wdrażanie i skalowanie modeli w środowiskach produkcyjnych, w tym fine-tuning i dostosowywanie do specyficznych potrzeb klientów. • Analiza i poprawa wydajności modeli pod kątem metryk takich jak dokładność, latencja i zużycie zasobów. • Współpraca z zespołami Data Science, MLOps oraz inżynierami backendu w celu integracji modeli z istniejącymi systemami. • Eksploracja nowych architektur i technik w dziedzinie NLP, takich jak few-shot learning, RAG (Retrieval-Augmented Generation) czy continual learning. • Prowadzenie badań i prototypowanie nowych rozwiązań opartych na najnowszych publikacjach naukowych. • Mentoring mniej doświadczonych członków zespołu i dzielenie się wiedzą techniczną. Czego oczekujemy? • Minimum 5 lat doświadczenia w pracy z modelami uczenia maszynowego, w tym co najmniej 3 lata z modelami językowymi (NLP/LLM). • Głęboka znajomość frameworków takich jak PyTorch, TensorFlow, Hugging Face Transformers, LangChain lub podobnych. • Doświadczenie w pracy z narzędziami do zarządzania danymi i trenowania modeli, np. DVC, Weights & Biases, MLflow. • Praktyczna wiedza na temat wdrażania modeli w chmurze (AWS, GCP, Azure) oraz optymalizacji pod kątem skalowalności (np. Kubernetes, Ray, Triton Inference Server). • Znajomość technik takich jak quantization, pruning, distillation w celu optymalizacji modeli. • Umiejętność programowania w Pythonie na zaawansowanym poziomie oraz doświadczenie w pracy z bibliotekami do przetwarzania danych (np. Pandas, NumPy). • Dobra znajomość języka angielskiego (min. B2) – praca w międzynarodowym zespole. • Mile widziane: publikacje nau