GenAI & Agentic AI Solution Architect
SOFTWARELY SP. Z O.O.
⚲ Warszawa, Śródmieście
170–190 zł netto (+ VAT) / godz.
Wymagania
- Python
- LangChain
- LlamaIndex
- LangGraph
- Vector DB
- AWS
- Google Cloud Platform
- Microsoft Azure
- Docker
Opis stanowiska
Nasze wymagania: Stack Techniczny: Biegły Python oraz doświadczenie z frameworkami LangChain / LlamaIndex / LangGraph. Ekosystem AI: Praktyczna biegłość w pracy z Vector DB (Pinecone, Weaviate, FAISS) oraz głębokie zrozumienie trade-offów (jakość vs koszt vs latency). Architektura Systemowa: Doświadczenie w projektowaniu systemów rozproszonych (microservices, event-driven), ze szczególnym uwzględnieniem skalowalności i bezpieczeństwa danych. Cloud & DevOps: Znajomość AWS/GCP/Azure oraz fundamentów CI/CD i Dockera. Soft Skills: Umiejętność tłumaczenia skomplikowanych decyzji technicznych i efektywne prowadzenie wielu strumieni projektowych równolegle. O projekcie: Jako Softwarely szukamy dla naszego klienta GenAI Solution Architekta. W tej roli będziesz balansować między rolą wizjonera technicznego a "buildera". Twoim zadaniem jest nie tylko projektowanie złożonych systemów agentowych, ale także budowa prototypów (POC), debugging promptów i walka z halucynacjami modeli. Szukamy osoby, która potrafi narzucić standardy pracy wielu zespołom (PODom), nie blokując przy tym ich tempa dostarczania rozwiązań. Kogo NIE szukamy • Teoretycznych architektów bez praktycznego doświadczenia w kodowaniu rozwiązań AI. • ML Engineerów skupionych wyłącznie na researchu, bez doświadczenia w dostarczaniu produkcyjnych systemów (delivery focus). Zakres obowiązków: Architektura i Strategia AI: Projektowanie rozwiązań RAG, systemów agentowych oraz pipeline’ów przetwarzania danych. Podejmowanie decyzji: OpenAI vs Open-source oraz Fine-tuning vs RAG. Hands-on Development: Tworzenie implementacji referencyjnych, prototypowanie dla PODów oraz zaawansowany debugging (optymalizacja jakości odpowiedzi i integracji). Standaryzacja (Architecture Review): Definiowanie metod ewaluacji modeli, sposobów wdrażania AI features oraz tworzenie reużywalnych komponentów dla całej organizacji. LLMOps & Monitoring: Zarządzanie procesami embeddingu i indeksowania (Vector DB) oraz monitorowanie jakości odpowiedzi i kosztów zużycia tokenów (LLM Cost Management).