Infrastructure Engineer (AWS) – AI / LLM Platform
j-labs software specialist
⚲ Kraków
25 200 - 31 080 PLN (B2B)
Wymagania
- Python
- Docker
- Kubernetes
- AWS
- Terraform
- CI/CD
- AI/ML (nice to have)
Opis stanowiska
O projekcie: Poszukujemy Infrastructure Engineera (AWS), który będzie odpowiedzialny za projektowanie, rozwój oraz utrzymanie środowiska chmurowego wspierającego rozwiązania AI/ML oraz narzędzia oparte o LLM (Generative AI). Projekt - Wewnętrzne narzędzie produktywności oparte na Large Language Models (LLM), rozwijane w ramach strategii AI/ML organizacji. Projekt obejmuje budowę i rozwój platformy Generative AI wspierającej codzienną pracę pracowników poprzez inteligentne narzędzia automatyzujące procesy i analizę danych. - To długofalowy projekt związany z budową wewnętrznej platformy AI zwiększającej produktywność pracowników globalnej organizacji finansowej. - Architektura mikroserwisowa. Zespół pracuje w metodyce Agile / Scrum. Zakres odpowiedzialności - Projektowanie i utrzymanie infrastruktury w środowisku AWS - Automatyzacja infrastruktury z wykorzystaniem Infrastructure as Code - Budowa i utrzymanie środowisk kontenerowych - Wsparcie platformy AI/ML pod kątem wydajności i skalowalności - Tworzenie oraz rozwój pipeline’ów CI/CD - Zapewnienie bezpieczeństwa i monitoringu infrastruktury - Współpraca z zespołami developerskimi i AI/ML Stack technologiczny - AWS - Terraform - Docker - Kubernetes - CI/CD - Unix / Linux Wymagania: - Min. 5 lat doświadczenia w obszarze infrastruktury / DevOps / Cloud - Doświadczenie w projektowaniu i utrzymaniu środowisk AWS - Praktyczna znajomość Terraform lub innych narzędzi IaC - Doświadczenie z Docker i Kubernetes - Znajomość pipeline’ów CI/CD - Administracja systemami Unix/Linux - Doświadczenie w obszarze bezpieczeństwa i monitoringu infrastruktury - Język angielski min. B2 Codzienne zadania: - Projektowanie i utrzymanie infrastruktury w środowisku AWS - Automatyzacja infrastruktury z wykorzystaniem Infrastructure as Code - Budowa i utrzymanie środowisk kontenerowych - Wsparcie platformy AI/ML pod kątem wydajności i skalowalności - Tworzenie oraz rozwój pipeline’ów CI/CD - Zapewnienie bezpieczeństwa i monitoringu infrastruktury - Współpraca z zespołami developerskimi i AI/ML