NoFluffJobs Praca zdalna Senior New

Remote AI/LLM Backend Engineer

Seerio

⚲ Remote

18 000 - 23 000 PLN (B2B)

Wymagania

  • API
  • JSON
  • Node.js
  • Python
  • Express
  • FastAPI
  • PostgreSQL
  • REST API
  • React
  • TypeScript
  • LLM
  • OpenAI
  • Fastify
  • RAG (nice to have)
  • intent classification (nice to have)
  • evals frameworks (nice to have)

Opis stanowiska

O projekcie: O firmie: Seerio to platforma analityczna dla rynku MICE (Meetings, Incentives, Conferences, Events). Obsługujemy ponad 500 hoteli największych sieci - Marriott, Radisson, IHG, Accor i innych. Na podstawie naszych danych hotele i sieci podejmują decyzje komercyjne w segmencie eventowym: pricing, prospecting, planowanie sprzedaży, alokacja przestrzeni. O roli: Budujemy Intelligence Layer - warstwę inteligentną nad platformą, która interpretuje dane za użytkownika. Problem, który rozwiązujemy: nasi klienci mają dostęp do najlepszych danych na rynku, ale nie mają czasu ani często kompetencji analitycznych, żeby je interpretować. Płacą za dashboard i nadal decydują intuicyjnie. Intelligence Layer obejmuje: Intent Classifier (strategiczne / sprzedażowe / yield / operacyjne), deterministyczny Confidence Scoring, trójwarstwowy model forecastowy (DEF + OPT×Conversion + Expected Pickup), Gap-to-Client Matching rekomendujący klientów dla słabych okresów oraz Ask Seerio - konwersacyjny interfejs z kontekstem ekranu, pakietu i danych klienta. Produkt wchodzi na produkcję w 2026 u aktywnych klientów. To nie PoC Postawa wobec AI: Używasz AI w codziennej pracy i potrafisz wskazać jego ograniczenia - halucynacje, context degradation, reasoning przy złym prompcie. Rozumiesz, kiedy LLM nie jest właściwym narzędziem, i umiesz uzasadnić wybór deterministycznej reguły. Potrafisz wytłumaczyć kod, który wdrożyłeś, nawet jeśli pomógł Ci go napisać model. Mile widziane RAG, intent classification, evals frameworks (Braintrust, Langfuse), doświadczenie z produktem domenowym. Mile widziane: - RAG, intent classification, evals frameworks (Braintrust, Langfuse) - Doświadczenie z produktem domenowym (hotelarstwo, MICE, revenue management, BI/analytics) - Praca z pipeline'ami danych i modelami forecastowymi w produkcji Kogo nie szukamy: - Osób, dla których AI jest magic boxem - bez zrozumienia mechanizmu pod spodem - Portfolio złożonego wyłącznie z wrapperów nad API, bez własnej logiki, bez evals - Kandydatów, którzy nie potrafią wyjaśnić kodu wygenerowanego przez model - Osób oczekujących pełnej specyfikacji do każdego kroku - pracujemy w warunkach, w których problem definiuje się w trakcie - Kandydatów szukających rozbudowanej struktury zespołowej i korporacyjnych procesów Co oferujemy: - Warstwę AI projektowaną od zera w produkcie analitycznym używanym przez 500+ hoteli - Autonomię techniczną w swoim obszarze - Domenę - za rok będziesz wiedzieć o rynku MICE więcej niż większość developerów w Polsce - Realny wpływ na roadmapę - Pracę zdalną - Widełki: 18–23k PLN B2B Aplikacja: Prześlij CV, link do GitHub lub portfolio oraz jedno zdanie o projekcie produkcyjnym z LLM, który zaprojektowałeś - co to było, jaki problem rozwiązywało, co się nie udało. Bez listu motywacyjnego. Wymagania: - 3–6 lat doświadczenia backendowego, w tym min. 1-2 lata produkcyjnej pracy z LLM - Anthropic API (Claude) lub OpenAI: function calling, structured JSON output - Prompt engineering na poziomie systemowym - rozumiesz, że prompt wymaga wersjonowania i testowania - Node.js lub Python (Express/Fastify/FastAPI), PostgreSQL, REST API design, SOLID - Doświadczenie z integracjami między systemami - REST, webhooki, kolejki, obsługa niedoskonałych danych po stronie zewnętrznej - React/TypeScript na poziomie współpracy - czytasz kod, podpinasz API, debugujesz end-to-end - Polski i angielski - swobodna komunikacja w mowie i piśmie Codzienne zadania: - Twój core to warstwa AI: architektura promptów, klasyfikacja intencji, evals, zachowanie modelu na produkcji. Przy wdrażaniu funkcji czasem przejmujesz też backend — endpointy, integracje, dane. W razie potrzeby możesz liczyć na wsparcie zespołu po stronie backendu i integracji — nie zostawiamy tego na jednej osobie. - Intelligence Layer — projektowanie i implementacja warstwy AI: prompty z output schema, Intent Classifier, Confidence Scoring Engine. Świadomie deterministyczny, nie ML. - Ask Seerio Chat — architektura konwersacyjna z function calling, context injection per screen i pakiet, streaming, evals. - Forecast Engine — model trójwarstwowy, cold start, confidence intervals. Praca z architekturą danych i logiką analityczną. - Jakość LLM na produkcji — repeatable test suites, obsługa błędów modelu, wersjonowanie promptów, monitoring kosztów i latencji. - Backend produktowy — endpointy obsługujące Intelligence Layer i Ask Seerio, refaktor istniejącego kodu, modelowanie danych w PostgreSQL pod nowe funkcje. Pracujesz w tej samej bazie kodu co reszta zespołu. - Integracje i pipeline danych — utrzymanie i rozwój integracji z systemami klientów (PMS-y hotelowe, źródła danych sieciowych), obsługa anomalii w przychodzących danych, praca nad jakością i kompletnością danych zasilających modele forecastowe. - Współpraca z frontem — kontrakty API z aplikacją React/TypeScript, debug end-to-end (czat, forecast view, panele rekomendacji). Nie piszesz UI, ale potrafisz go uruchomić, przejść flow i wskazać, gdzie problem jest po Twojej stronie, a gdzie po stronie klienta. - Produkcja i niezawodność — własność uruchamianych funkcji po wdrożeniu: monitoring, reagowanie na incydenty w swoim obszarze, hotfixy. Nie mamy osobnego zespołu SRE. - Współudział w decyzjach produktowych — rozmawiasz bezpośrednio z product designem i z założycielami. Często to Ty jesteś osobą, która mówi „to się da zrobić promptem”, „to wymaga reguły”, albo „to wymaga najpierw poprawienia danych”.