Oferty pracy
Filtry
Internship: Microsoft 365 Copilot Onboarding & Automation
"BASF CATALYSTS POLSKA" Sp. z o.o.
⚲ Wrocław
Nasze wymagania: Student or recent graduate in: IT, Computer Science, Information Systems, Digital Business, or similar Basic understanding of: Microsoft 365 (SharePoint, Teams, Outlook) Strong interest in: Automation AI tools Digital workplace solutions Ability to follow structured processes and document work clearly Good English communication skills (written & spoken) Mile widziane: Power Automate SharePoint lists or pages Azure / Entra ID concepts Experience with: Low‑code / no‑code tools Process documentation Curiosity about AI, Copilot, or automation No deep coding or senior IT experience required Zakres obowiązków: Support the build‑out of a SharePoint Copilot Hub (pages, navigation, content structure) Help configure Power Automate flows for onboarding automation Assist in integrating: SharePoint Entra ID (Azure AD) groups ServiceNow request workflows SuccessFactors training completion logic Maintain onboarding status lists and basic reporting Document processes and create simple how‑to guides Test end‑to‑end onboarding scenarios and suggest improvements Work with IT, HR/Learning, and Security stakeholders
Internship - C/C++ Software Developer for 5G RAN
Samsung R&D Institute Poland
⚲ Kraków, Prądnik Czerwony
Wymagania
- C
- C++
- Python
Nasze wymagania: Programming skills in C/C++ and/or Python languages Experience in software development for Linux Problem solving skills Ability to work in the Team Open mind English at communicative level Full time job availability (hybrid). Mile widziane: Experience in software development applications for Linux systems Telecom architecture and protocol knowledge Student or graduated of telecommunication, electronics, computer science, robotics or similar Software development for Cloud Systems Python programming skills Multithread application development knowledge AI tool and technical knowledge O projekcie: We are working on the cutting-edge commercial solutions for the fifth generation wireless technology for top class cellular networks (5G) in Cracow office. We are creating software for the Radio access network (RAN) used by customers around the world. Technologies in use • C/C++ 11+, Python, Bash, Yang • CI/CD, Perforce, Git • Jenkins/QuickBuild • 3GPP specification • Kubernetes, Docker, Microservice Architecture • Openstack • LLM models, AI Agents etc, Zakres obowiązków: Help in creation of code and tools for 5G infrastructure for commercial projects Help in creation of proof of concept including AI usage Continuous improvement of programming skills in advanced algorithmic design Cooperation with Colleagues from other Samsung R&D Centers around the world Oferujemy: Friendly working atmosphere Wide range of technical trainings (5G, Open Stack, Kubernetes) Opportunity to work in multiple projects Working with cutting edge telecommunication technologies Monthly integration budget Start of work between 7 a.m. and 10 a.m. PC workstation/Laptop + 2 external monitors Two fully equipped on-site LABs (RAN, CORE, Simulators) OS: Linux, Windows Office in Cracow Quattro Business Park
IT Product Manager
Medius Poland Sp. z o.o
⚲ Kraków, Grzegórzki
24 000–30 000 zł / mies. (zal. od umowy)
Nasze wymagania: Bachelor’s degree in business, Engineering, Computer Science, or related field. 5+ years of product management experience in SaaS, preferably within the Procurement Intake and Orchestration, Supplier Management, Sourcing or Contract Management domains. Experience in AI driven Procurement use cases. Strong collaboration skills with engineering and cross-functional teams. Excellent communication and stakeholder management abilities. Experience in agile product development and backlog prioritization. Ability to balance short-term priorities with long-term objectives. Mile widziane: Familiarity with procurement processes and best practices. Experience with ERP or spend management solutions. Understanding of AI-driven automation tools. O projekcie: As a Product Manager for our Procurement Module, you will play a key role in shaping and evolving the future solution. You will be owning, defining and executing outcome-driven initiates as well as contribute to the definition and execution of the overall roadmap for our next-generation procurement solution. You’ll act as the main interface between Product Management, Engineering, Design and other internal stakeholders — ensuring delivery of impactful, customer-driven enhancements and innovations. Zakres obowiązków: Own and deliver the parts of the roadmap for the procurement product, prioritizing initiatives and features based on customer feedback, market needs, and internal goals. Participate and influence the strategy and roadmap definition for the procurement product, from concept to launch and continuous improvement. Develop and groom the product backlog. Serve as the primary point of contact for the engineering team, product marketing and product design, ensuring smooth collaboration, clarity of requirements, and efficient execution in agile sprints. Conduct product discovery and research to gather insights from customers, partners, and internal teams. Translate business and user needs into clear product requirements, user stories, and acceptance criteria. Collaborate with Sales, Customer Success, Marketing, and Support to ensure successful go-to-market alignment and communication of product value. Monitor product performance and adoption, using data and customer insights to drive iterative improvements. Maintain a strong understanding of the procurement ecosystem, identifying opportunities to enhance integration and end-to-end process efficiency. Act as a product ambassador, representing the product internally and externally. Oferujemy: International environment with Swedish working culture Spacious office near Rondo Grzegórzeckie in a unique building (no open spaces) Equipped kitchen with all things that help (tea, coffee, milk, Nutella, etc.) Support for professional development through a variety of initiatives to foster growth and clear career progression within a dynamic global culture Additional 1 day off for your birthday (B-Day) Multikafeteria program, private healthcare (LuxMed), life insurance Integration Parties (Summer Party, Xmas Party, Game Board Party, and other spontaneous events) Team building budget Hybrid working model
GenAI Low-code Engineer (f/m/x)
Sii Sp. z o.o.
⚲ Białystok, Centrum, Bydgoszcz, Gdańsk, Oliwa, Katowice, Kraków, Podgórze, Lublin, Łódź, Śródmieście, Piła, Poznań, Wilda, Rzeszów, Szczecin, Toruń, Warszawa, Mokotów, Wrocław, Fabryczna
Wymagania
- Python
- LLMs
- Vector Databases
- RAG
- Cloud Computing
- Microsoft Power Platform
- Copilot Studio
- SAP
- Salesforce
- GitHub Copilot
- Claude Code
Nasze wymagania: Minimum 2 years of experience in data science or software engineering Strong understanding of LLMs, agents, foundation models, and RAG concepts Experience with Python programming and CI/CD practices Familiarity with enterprise low-code platforms (e.g., Power Platform, Copilot Studio) and cloud environments (Azure/AWS/GCP) English at B2 level or higher Fluent Polish required Residing in Poland required O projekcie: We are looking for a Low-code GenAI Developer to join an exciting project delivered by Sii for an international organization recognized for its impact in the molecular biology and biotechnology domain. You will work on designing, integrating, and optimizing GenAI solutions built on proprietary data, combining low‑code platforms with modern LLM capabilities. This role is ideal for someone eager to work with cutting‑edge AI technologies, agentic workflows, and enterprise-grade platforms. You will collaborate with Data Scientists, Machine Learning Engineers, and domain experts while benefiting from Sii’s development opportunities, including access to Microsoft, AWS, and Google Cloud learning paths and certifications. Apply now and let’s explore the best project match for you! Zakres obowiązków: Design and refine low-code GenAI solutions, including model finetuning and evaluation on proprietary datasets Create, test, and optimize prompts to improve model performance and reliability Integrate LLMs into enterprise low-code environments, covering agent workflows, RAG pipelines, chatbots, and API design Build and maintain coding agent workflows supporting development and automation scenarios Conduct research on modern LLM architectures, assess their applicability, and collaborate with stakeholders to align solutions with business needs Oferujemy: Great Place to Work since 2015 - it’s thanks to feedback from our workers that we get this special title and constantly implement new ideas Employment stability - revenue of PLN 2.1BN, no debts, since 2006 on the market We share the profit with Workers - over PLN 76M has already been allocated for this aim since 2022 Attractive benefits package - private healthcare, benefits cafeteria platform, car discounts and more Comfortable workplace – class A offices or remote work Dozens of fascinating projects for prestigious brands from all over the world – you can change them thanks to Job Changer application PLN 1 000 000 per year for your ideas - with this amount, we support the passions and voluntary actions of our workers Investment in your growth – meetups, webinars, training platform and technology blog – you choose Fantastic atmosphere created by all Sii Power People
Ekspert AI/ML
DECERTO Sp. z o.o.
⚲ Warszawa, Śródmieście
Wymagania
- Python
- LLM
- RAG
- ML
- OpenAI
- SQL
- MLOps
Nasze wymagania: Minimum 1 rok komercyjnego doświadczenia z modelami LLM i wdrażaniu rozwiązań generative AI. Minimum 5 lat doświadczenia w Machine Learningu / Data Science. Doświadczenie w produkcyjnym wdrażaniu modeli AI. Umiejętność przełożenia technologii AI na usprawnienia biznesowe. Znajomość języka polskiego (C2) i angielskiego (B2/C1). Doświadczenie w pracy z zespołami interdyscyplinarnymi, uczestnictwo w projektach optymalizacyjnych lub wdrożeniach systemów IT wspierających procesy biznesowe. Świetne zdolności komunikacyjne, umiejętność prezentacji rozwiązań i dyskusji z różnymi interesariuszami. Proaktywność, samodzielność, zaangażowanie i naturalna ciekawość biznesowa. Mile widziane: Doświadczenie w branży ubezpieczeniowej. O projekcie: Szukamy osoby o mocnym zapleczu technicznym, ale i biznesowym podejściu do projektowania rozwiązań. Kluczowa będzie twoja umiejętność przekładania wiedzy technologicznej na mierzalne rezultaty dla Klienta i organizacji. Dołącz do zespołu AI Lab – interdyscyplinarnej inicjatywy, w której eksperci z obszarów technologii, zarządzania projektami i rozwoju biznesu będą współpracować nad praktycznym wdrożeniem najnowszych rozwiązań AI dla sektora ubezpieczeniowego. Wiodące technologie i narzędzia: Python, PyTorch lub TensorFlow, Hugging Face, OpenAI API, Gemini , SQL, narzędzia MLOps, Git i inne Zakres obowiązków: Współtworzenie i rozwój AI Lab oraz budowanie nowych kierunków rozwoju produktów i usług z wykorzystaniem AI. Współpraca z Project Managerami, Tech Leadami, Analitykami i Sprzedażą w celu identyfikacji obszarów do automatyzacji, optymalizacji i ulepszania procesów biznesowych za pomocą AI (zarówno operacji wewnętrznych, jak i produktów dla Klientów). Prototypowanie i rozwój rozwiązań AI/ML , w tym wykorzystanie najnowszych technologii generatywnej AI (LLM, RAG, agentowe AI). Tworzenie PoC i MVP oraz wsparcie wdrożeniach produkcyjnych w systemach Klienta. Dbanie o aspekty etyczne, bezpieczeństwo i zgodność z regulacjami w projektach AI. Monitorowanie trendów rynkowych w obszarze AI/ML. Oferujemy: Praca zdalna (1-2 dni w miesiącu praca z biura w Centrum Warszawy). Budżet rozwojowy 2000,- pln netto / rok. Dofinansowanie certyfikatów. Dofinansowanie do Opieki medycznej, Karty sportowej, Ubezpieczenia na życie. Wewnętrzne szkolenia techniczne (i nie tylko). Płaska struktura, wpływ na działania firmy. Innowacyjny program wyjazdów integracyjnych.
Ekspert /-tka ds. Sztucznej Inteligencji
NASK
⚲ Warszawa, Śródmieście
16 000–21 000 zł brutto / mies.
Wymagania
- Machine Learning / Deep Learning
- Python
- Biblioteki ML (TensorFlow/PyTorch/JAX)
Nasze wymagania: Minimum 5 lat doświadczenia w obszarze uczenia maszynowego (projekty badawcze lub komercyjne) Wykształcenie wyższe (informatyka, matematyka, fizyka lub kierunki pokrewne) Udokumentowany dorobek naukowy (publikacje w czasopismach krajowych i zagranicznych, wystąpienia na konferencjach, udział w projektach naukowych i badawczo rozwojowych) Bardzo dobra znajomość algorytmów ML/DL, w tym modeli generatywnych i dużych modeli językowych Zaawansowana znajomość Python oraz bibliotek ML (TensorFlow/PyTorch/JAX), doświadczenie w trenowaniu dużych modeli Znajomość zagadnień causal ML, reasoning w LLM, metody ewaluacji Znajomość języka angielskiego na poziomie umożliwiającym tworzenie dokumentacji i publikacji naukowych Mile widziane: Stopień doktora lub równoważne doświadczenie w obszarze sztucznej inteligencji Publikacje w renomowanych konferencjach rangi CORE A/A* (NeurIPS, ICML, ICLR, ECAI) Wkład w projekty open-source związane z ML/AI O projekcie: Do jednostki badawczej – Zakładu Badań nad Ogólną Sztuczną Inteligencją poszukujemy osób z doświadczeniem w uczeniu maszynowym, które będą pracować nad rozwojem metod i modeli ogólnej sztucznej inteligencji (AGI). W ramach nowo tworzonego zespołu powstaje przestrzeń do prowadzenia badań nad fundamentalnymi aspektami inteligencji maszynowej, w tym nad rozumowaniem (reasoning), wnioskowaniem przyczynowo-skutkowym (causal inference) oraz integracją tych zdolności w dużych modelach językowych. Dołączysz do zespołu, którego głównym celem jest tworzenie nowych metod i architektur AGI, publikowanie wyników badań na wiodących konferencjach oraz przekładanie ich na działające proof-of-concept. Zespół koncentruje się na zagadnieniach związanych z interpretowalnością, wyjaśnialnością, niezawodnością i zdolnością modeli do rozumowania w złożonych środowiskach. Pracujemy nad rozwiązaniami, które mają realny wpływ na rozwój technologii przyszłości, a jednocześnie dbamy o to, by nasze wyniki były zgodne z najwyższymi standardami naukowymi. To wyjątkowa okazja, aby połączyć prace badawcze z praktycznym zastosowaniem – od teorii po implementację. W zależności od Twoich zainteresowań, rola może być bardziej ukierunkowana na badania podstawowe lub na transfer technologii i tworzenie prototypów. Zakres obowiązków: Prowadzenie badań nad ogólną sztuczną inteligencją (AGI), w tym nad rozumowaniem i wnioskowaniem przyczynowo-skutkowym Tworzenie i publikacja wyników badań na wiodących (NeurIPS, ICML, ICLR, ECAI) oraz ich prezentacja Współtworzenie strategii i wizji zespołu badawczego Samodzielne prowadzenie eksperymentów i projektów badawczych Identyfikacja realnych potrzeb w obszarze AGI i reasoning, przekładanie ich na działające proof-of-concept rozwiązania Współpraca z zespołami badawczymi w kraju i za granicą Oferujemy: Mentoring zespołu Realny wpływ na rozwój AGI w Polsce Budżet konferencyjny i szkoleniowy Dostęp do infrastruktury GPU
Ekspert / Ekspertka ds. Data Science w Obszarze Customer Intelligence
Bank Millennium S.A.
⚲ Warszawa, Mokotów
Wymagania
- SQL
- Python
Nasze wymagania: Minimum 3 lata doświadczenia w obszarze analityki biznesowej, predykcyjnej lub przetwarzania danych (preferowane doświadczenie w sektorze finansowym lub telekomunikacyjnym) Praktyczne doświadczenie w tworzeniu i wdrażaniu modeli opartych na uczeniu maszynowym i sztucznej inteligencji (m.in. modele klasyfikacyjne, segmentacyjne, rekomendacyjne) Doświadczenie projektowe we współpracy z zespołami IT, jednostkami biznesowymi oraz dostawcami zewnętrznymi Rozwinięte umiejętności analityczne, w tym interpretacji danych i formułowania wniosków Bardzo dobra znajomość SQL i Pythona Znajomość języka angielskiego na poziomie umożliwiającym swobodną komunikację Zakres obowiązków: Identyfikacja potrzeb klientów z wykorzystaniem zaawansowanej analityki danych, uczenia maszynowego i sztucznej inteligencji. Inicjowanie i rozwój projektów analitycznych wspierających budowę spersonalizowanych relacji z klientami. Projektowanie, wdrażanie i utrzymywanie modeli ML/AI, w tym segmentacji klientów, modeli predykcyjnych oraz systemów rekomendacji. Ścisła współpraca z jednostkami biznesowymi i operacyjnymi przy definiowaniu, implementacji i monitorowaniu rozwiązań analitycznych. Proaktywne rekomendowanie usprawnień procesów z wykorzystaniem dostępnych narzędzi AI i data science. Tworzenie i rozwój feature store oraz data martów analitycznych we współpracy z zespołami IT. Oferujemy: Zatrudnienie w oparciu o umowę o pracę wraz z systemem premiowym Pracę hybrydową (w wymiarze 60% z biura/40% zdalnie) Benefity pozapłacowe, m.in prywatną opiekę medyczną Dostęp do platformy kafeteryjnej MyBenefit z tysiącem zniżek i benefitów, w tym możliwość skorzystania z karty sportowej, biletów do kina, kart prepaid, bonów zakupowych i voucherów Dostęp do najnowszych technologii i narzędzi Okazję do bliskiej współpracy z wieloma jednostkami banku przy realizacji ambitnych i nieszablonowych projektów Pracę w zespole nastawionym na dzielenie się wiedzą Możliwość podejmowania własnych inicjatyw i ich prowadzenia Pracę w nowoczesnym biurze w Warszawie (okolice metra Pole Mokotowskie) oraz kawiarnię Green Cafe Nero ze zniżkami dla Pracowników Udział w akcjach wolontariatu organizowanych przez Bank
Ekspert / Ekspertka ds. CRM i Personalizacji w Obszarze Customer Intelligence
Bank Millennium S.A.
⚲ Warszawa, Mokotów
Wymagania
- SQL
Nasze wymagania: Doświadczenie w Projektach Biznesowych: Szukamy kogoś z praktycznym doświadczeniem w prowadzeniu projektów, w szczególności w obszarze bankowości, który potrafi angażować zespół w realizację wspólnych celów. Analityczny Umysł: Umiejętność pracy z danymi i wyciągania trafnych wniosków będzie Twoim atutem — niech liczby mówią same za siebie! Kreatywność w Komunikacji: Wspaniale, jeśli masz świeże pomysły na kampanie CRM, które zaskoczą naszych klientów (mile widziane doświadczenie z rozwiązaniami w czasie rzeczywistym). Umiejętność Prezentacji: Chcielibyśmy, abyś potrafił tworzyć zwięzłe podsumowania i prezentować swoje pomysły w języku angielskim. Doświadczenie w pracy z narzędziami CRM: Czekamy na Ciebie, jeśli masz praktyczną znajomość narzędzi CRM i rozumiesz, jak wykorzystać je do tworzenia efektywnych kampanii i personalizacji doświadczeń klientów. Twoje umiejętności będą kluczowe dla naszych działań! Mile widziane: Znajomość SQL Doświadczenie w projektowaniu rozwiązań IT — od zbierania wymagań, przez przygotowanie specyfikacji, po testowanie. Zakres obowiązków: Będziesz odpowiedzialny za zwiększenie zaangażowania klientów z obszaru Small Business poprzez budowę zaawansowanych procesów CRM i personalizacji, które sprawią, że każdy klient poczuje się wyjątkowo. Weźmiesz udział w całym procesie - od generowania kreatywnych pomysłów, przez współpracę z różnymi zespołami, aż po analizę wyników — w każdym etapie masz szansę na realny wpływ na nasze działania. Będziesz przygotowywać specyfikację oprogramowania do zmian w systemie personalizacji CRM i analizować proponowane rozwiązania — Twoje pomysły mogą stać się rzeczywistością! Będziesz wykorzystywać nasz nowy, innowacyjny system PEGA wspomagany przez sztuczna inteligencję. Oferujemy: Innowacyjne Środowisko: Stwórz z nami przyszłość personalizacji w CRM. Dynamika i Wsparcie: Pracuj w zespole, który ceni Twoje pomysły i opinie! Rozwój i Szkolenia: Stawiamy na Twój rozwój osobisty — oferujemy dostęp do szkoleń i wartościowych kursów! Zatrudnienie w oparciu o umowę o pracę oraz system premiowy Pracę hybrydową (w wymiarze 60% z biura/40% zdalnie) Benefity pozapłacowe, m.in prywatną opiekę medyczną oraz dostęp do platformy MyBenefit Zniżki w naszej kawiarni pracowniczej Green Caffe Nero Nowoczesne biuro w doskonałej lokalizacji (w pobliżu stacji metra Pola Mokotowskie)
Data Scientist Mentor
LEARN IT sp. z o.o.
⚲ Warszawa, Mokotów
180–210 zł netto (+ VAT) / godz.
Wymagania
- Python
- Torch/PyTorch
- IPython/Jupyter
- Pandas
- SQL
- Docker
- Django
- AWS
- TensorFlow
Nasze wymagania: Bardzo dobra znajomość języka Python w kontekście analizy danych i uczenia maszynowego: Pandas, NumPy, Matplotlib, Scikit-learn Doświadczenie z narzędziami i technologiami ekosystemu Data Science: Jupyter Notebook, SQL, Git, podstawy pracy w środowiskach chmurowych (np. Google Colab, AWS lub Azure) Praktyczna znajomość bibliotek ML/DL:, TensorFlow / Keras lub PyTorch – w kontekście budowania i wdrażania modeli predykcyjnych Umiejętność wsparcia i mentorskiego podejścia: indywidualne konsultacje, feedback, przygotowanie uczestników do rozmów na stanowiska Data Analyst / Data Scientist – kluczowe w programie LearnIT Komunikatywność, pedagogiczne podejście, empatia, umiejętność motywowania i pracy z grupami – istotne cechy skutecznego trenera Dostępność wieczorami (typowo 18:00–21:00, dwa razy w tygodniu) – zgodnie z formatem kursów LearnIT Znajomość narzędzi LMS i zdolność do umieszczania materiałów, monitorowania postępów uczniów – w modelu nauki online Mile widziane: Doświadczenie w procesie rekrutacyjnym (np. przeprowadzanie lekcji próbnych) Certyfikaty technologiczne (np. TensorFlow Developer Certificate, AWS Certified Machine Learning, Microsoft Azure AI) O projekcie: Dołączysz do zespołu LearnIT – dynamicznie rozwijającej się szkoły IT, specjalizującej się w kursach online na żywo. Naszą misją jest wspieranie osób w przebranżowieniu i wejściu na rynek IT poprzez praktyczne, intensywne programy edukacyjne. Prowadzimy kursy takie jak: • Python Developer – kompleksowy program obejmujący podstawy Pythona, tworzenie aplikacji webowych (Django, Flask, FastAPI) oraz elementy sztucznej inteligencji. • Data Science – praktyczne wprowadzenie do analizy danych, uczenia maszynowego i pracy z bibliotekami takimi jak Pandas, NumPy, Scikit-learn czy TensorFlow. • QA Python – kurs przygotowujący do pracy jako tester automatyzujący, z naciskiem na PyTest, Selenium, SQL, CI/CD i narzędzia do zarządzania projektami. Jako trener będziesz pracować w formule zajęć online na żywo w małych grupach (do 15 osób), łącząc wykłady z dużą ilością praktyki i projektów. Kursy są prowadzone w trybie wieczorowym (2 razy w tygodniu, godz. 18:00–21:00), dzięki czemu uczestnikami są głównie osoby pracujące, które chcą zmienić zawód i rozpocząć karierę w IT. W LearnIT stawiamy na: • praktykę – kursanci tworzą realne projekty, które mogą wykorzystać w portfolio, • wsparcie mentorskie – trenerzy pomagają nie tylko w nauce technologii, ale też w przygotowaniu do wejścia na rynek pracy (CV, LinkedIn, rozmowy rekrutacyjne), • wysoką jakość – kursy są współtworzone z ekspertami branżowymi i dopasowane do aktualnych potrzeb rynku IT. To świetna okazja, jeśli chcesz dzielić się wiedzą, inspirować innych i budować przyszłość nowych specjalistów IT w Polsce. Zakres obowiązków: Prowadzenie zajęć online na żywo, dwóch razy w tygodniu w godzinach wieczornych (zazwyczaj 18:00–21:00), w grupach maksymalnie do 20 osób – zgodnie z formatem kursu Data Science & Machine Learning Prowadzenie praktycznych warsztatów: analiza i przetwarzanie danych przy użyciu Python, Pandas, NumPy; budowanie i wdrażanie modeli uczenia maszynowego z wykorzystaniem Scikit-learn; podstawy głębokiego uczenia z TensorFlow / Keras lub PyTorch; praca z bazami danych SQL, narzędziami Jupyter Notebook, Git oraz środowiskami chmurowymi Mentoring i wsparcie indywidualne: odpowiadanie na pytania uczestników, udzielanie konsultacji technicznych, pomoc przy projektach analitycznych i modelach ML – zgodnie z podejściem LearnIT, w którym trenerzy są aktywnie zaangażowani i wspierają rozwój uczestników Prowadzenie sesji feedbackowych, ocena postępów kursantów, przeprowadzenie próbnych rozmów rekrutacyjnych pod kątem stanowisk Data Analyst / Data Scientist Udział w doskonaleniu procesu nauczania: udział w spotkaniach metodycznych, wymiana dobrych praktyk w gronie trenerów, udział w procesie ewaluacji i ulepszania programów kursowych Oferujemy: Elastyczną formę współpracy – umowa B2B lub zlecenie, dostosowaną do Twojej dostępności i preferencji. Atrakcyjne wynagrodzenie godzinowe zależne od doświadczenia i zakresu prowadzonych kursów. Pracę w 100% zdalną – zajęcia online na żywo, prowadzone z dowolnego miejsca. Stałe wsparcie metodyczne i techniczne – materiały dydaktyczne, scenariusze zajęć, onboarding dla trenerów. Możliwość realnego wpływu na rozwój kursów – aktywny udział w doskonaleniu programów i współtworzeniu treści edukacyjnych. Małe grupy kursantów (do 15 osób) – dzięki temu masz czas dla każdego uczestnika i komfort prowadzenia zajęć. Zaangażowanych i zmotywowanych uczestników – większość kursantów to osoby przebranżawiające się, które mają jasno określony cel zawodowy. Długofalową współpracę – możliwość prowadzenia kolejnych edycji kursów Python Developer, Data Science oraz QA-Python. Ścieżkę rozwoju jako trener IT – szkolenia wewnętrzne, wymiana doświadczeń z innymi ekspertami, wsparcie w budowaniu marki osobistej. Przyjazną atmosferę i partnerską współpracę – w LearnIT stawiamy na otwartość, feedback i wspólny rozwój.
Data Scientist / ML Engineer
NASK
⚲ Warszawa, Wola
13 000–16 000 zł brutto / mies.
Wymagania
- Python
- biblioteki ML
- Algorytmy uczenia maszynowego
Nasze wymagania: Min. 3-letnie doświadczenie w realizacji projektów z zakresu sztucznej inteligencji; Zaawansowana znajomość podstawowych algorytmów uczenia maszynowego; Znajomość i umiejętność stosowania dobrych praktyk wytwarzania systemów ML; Umiejętność analitycznego i krytycznego myślenia; Wykształcenie wyższe w kierunku technicznym; Znajomość języka angielskiego na poziomie pozwalającym na czytanie dokumentacji technicznej i publikacji naukowych; Zaawansowana znajomość języka Python i bibliotek uczenia maszynowego (Tensorflow i/lub Pytorch, numpy, scikit-learn, pandas); Mile widziane: Znajomość zagadnień z obszaru cyberbezpieczeństwa; Doktorat w naukach technicznych (lub w trakcie); O projekcie: Oferujemy 3 stanowiska Data Scientist - Starszego/-ej specjalisty/-tki ds. uczenia maszynowego w Zakładzie Systemów Rozproszonych w Centrum Badań i Rozwoju. Zakład Systemów Rozproszonych zajmuje się realizacją projektów badawczo-rozwojowych w obszarze inteligentnych systemów cyberbezpieczeństwa. Naszym głównym obszarem działań jest dostarczanie innowacyjnych modułów decyzyjnych opartych na AI/ML do zabezpieczania urządzeń mobilnych. Współpracujemy również z zespołem CERT przy wdrażaniu nowoczesnych rozwiązań opartych o sztuczną inteligencję. Uczestniczymy w europejskich projektach B+R, co pozwala na wymianę wiedzy w międzynarodowych środowiskach. Cenimy aplikacyjność tworzonych rozwiązań, aby rezultaty naszych prac skutecznie zwiększały bezpieczeństwo w cyberprzestrzeni. Tworzymy zgrany zespół o szerokim zakresie umiejętności. Wszystkie prace koncepcyjne w projektach realizujemy zespołowo, dbając o wymianę pomysłów i wiedzy. Kogo szukamy? Poszukujemy 3 osób z doświadczeniem w projektach AI/ML do opracowywania nowatorskich rozwiązań w obszarze biometrii behawioralnej lub w zakresie detekcji zagrożeń w bezprzewodowych systemach komunikacyjnych. Jeśli lubisz szukać nieszablonowych pomysłów i cenisz sobie możliwość wdrażania swoich rozwiązań w produkcyjnych systemach, dołącz do nas, aby brać udział w wyjątkowych projektach B+R. Zakres obowiązków: Realizacja prac AI/ML w obszarze biometrii behawioralnej lub detekcji zagrożeń w bezprzewodowych systemach komunikacyjnych: od analizy danych, przez projektowanie modeli, po walidację i analizę wyników; Współpraca z zespołem wytwórczym przy wdrażaniu wyników prac; Udział w pracach koncepcyjnych w ramach innych projektów realizowanych przez zespół; Śledzenie najnowszych publikacji w obszarze AI/ML w kontekście cyberbezpieczeństwa; Dokumentowanie wyników prac badawczo-rozwojowych; Oferujemy: • Realizację ciekawych projektów B+R; • Wsparcie doświadczonego zespołu przy realizacji powierzonych zadań; • Wpływ na kierunki badawcze i tworzone rozwiązania; • Możliwość rozwoju naukowego; • Komfortowe warunki pracy naukowej (nowoczesna przestrzeń biurowa) w trybie hybrydowym;
Data Engineer - Junior/Mid/Senior
Accenture Strategy & Consulting
⚲ Warszawa
Wymagania
- AI
Nasze wymagania: Experience Requirements (Cumulative): At least 2 years of hands-on experience working with relational or analytical databases, applying SQL for development, testing, debugging, and performance optimization in production environments. Within that experience, at least 1 year designing or implementing ETL processes and data integration solutions using enterprise ETL tools (e.g., SAS Data Integration Studio, IBM DataStage, Informatica) for large or complex data sets. Exposure to data modelling and architecture: practical experience creating conceptual, logical and physical data models using dimensional, relational or Data Vault techniques in analytical environments. Technical Skills: Databases & SQL: Expert-level SQL skills (procedures, triggers, functions, packages) in at least one major RDBMS/EDW technology such as Oracle, MS SQL Server, Teradata, or DB2. Strong ability to profile, tune and optimize SQL code and database performance for ETL and reporting workloads. Data Modeling & ETL Solid understanding of dimensional modelling, normalized/relational modelling and Data Vault approaches; ability to translate business requirements into conceptual, logical and physical models. Hands-on experience with ETL/ELT toolsets (SAS Data Integration Studio, IBM DataStage. Cloud & Big Data (Experience or Interest): Experience with, or strong interest in, processing and integrating data on major cloud platforms (GCP, Azure, AWS). Familiarity with cloud storage, managed databases and serverless / data pipeline services is desirable. Bonus: familiarity in Big Data technologies such as Hive, Spark, NiFi, HBase, HDFS, Kafka, Kudu. Programming & Analytics: Practical scripting or programming skills (SQL-centric plus one of Python, R, or SAS) to support data transformation, automation and basic analytics. Ability to translate complex business requirements into robust, scalable data solutions. Soft Skills & Language: Strong analytical thinking, problem-solving and attention to detail. Professional working proficiency in English and effective communication with technical and non-technical stakeholders. Willingness to travel to client locations across Europe as required. Zakres obowiązków: Contribute to cutting-edge AI initiatives by applying your creativity, critical thinking, and analytical skills. Design and implement scalable data pipelines using cloud, generative, and agentic AI technologies. Work in agile, cross-functional teams combining technical, business, and data science expertise. Your accountability, responsibility, and autonomy will grow with your experience and seniority - we are looking for specialists with various experience levels. Oferujemy: 🚀 Career Development Permanent employment contract Individual support from a dedicated People Lead Personalized professional development path Access to coaching sessions Extensive training package including: Soft skills, technical, and language training E-learning platforms Gallup strengths assessment GenAI training Cloud certification programs 🧘 Well-being & Support Employee Assistance Program offering legal, financial, and psychological consultations Private medical care and life insurance coverage Access to the MyBenefit platform, including a wide range of products and services (e.g., Multisport card) 💼 Perks & Incentives Paid employee referral program Eligibility for quarterly dividends through the Employee Share Purchase Plan (for employees who own company shares)
Data & AI Engineer
Scalo Sp. z o.o.
⚲ Katowice
160–205 zł netto (+ VAT) / godz.
Wymagania
- Python
- procesy ETL
- Java
- Cloudera
- GCP
- Airflow
- Git
- Terraform
- Hadoop
Nasze wymagania: jesteś Data Engineerem z co najmniej 5-7-letnim doświadczeniem zawodowym, masz solidne doświadczenie w projektach migracyjnych (ze środowiska on premise na chmurę) bardzo dobrze znasz język Python (pod względem procesów ETL, pipeline'ow danych, automatyzacji), dobrze znasz Java (szczególnie w kontekście przetwarzania danych, m.in. Spark, Beam), posiadasz doświadczenie w projektowaniu i realizacji złożonych pipeline'ów danych (batch i streaming) w środowiskach produkcyjnych, potrafisz tworzyć architekturę rozwiązań danych w GCP z uwzględnieniem skalowalności, bezpieczeństwa i kosztów, możesz pochwalić się praktyczną znajomością narzędzi orkiestracji, CI/CD i automatyzacji (Airflow, Git, Terraform lub podobne), Twój poziom języka angielskiego pozwala na swobodną komunikację (najlepiej poziom C1), posiadasz doświadczenie w pracy w środowisku międzynarodowym oraz w projektach realizowanych z udziałem zewnętrznych partnerów technologicznych, masz doświadczenie w analizie istniejących rozwiązań legacy i rekomendowaniu docelowych architektur w chmurze, posiadasz wiedzę niezbędną do rozumienia zagadnień Data Governance, bezpieczeństwa danych i kontroli dostępu w środowiskach chmurowych, lubisz samodzielną pracę i nie boisz się podejmować ważne decyzje techniczne, ale cenisz też sobie pracę zespołową, wyróżniają Cię wysokie kompetencje komunikacyjne. Mile widziane: praktyczne doświadczenie w pracy z Cloudera lub podobnymi platformami Hadoop. O projekcie: W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom. Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie. Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Zakres obowiązków: uczestnictwo w projekcie dotyczącym kompleksowej migracji platformy danych z Cloudera (on premise) do nowoczesnej architektury opartej o Google Cloud Platform oraz wdrożenia nowych rozwiązań Data/AI w chmurze w bankowości, analiza i inwentaryzacja istniejących rozwiązań legacy w Cloudera, wytyczanie ścieżki migracji (m.in. praca nad strategią, podejściem, rekomendacjami technicznymi), przeniesienie oraz modernizacja procesów do usług GCP, implementacja rozwiązań Data/AI z wykorzystaniem Dataproc, Dataflow, BigQuery, Cloud Composer i narzędzi automatyzacji, współpraca z zespołem Data oraz partnerami Klienta w środowisku międzynarodowym, praca w modelu zdalnym (warto jednak wziąć pod uwagę 2-3 dni onboardingu w Katowicach i sporadyczne warsztaty), stawka do 205 zł/h przy B2B w zależności od doświadczenia. Oferujemy: Stabilną współpracę i różnorodne projekty (Software, Embedded, Data, Cloud Services), możliwość rozwoju kompetencji jako Ambasador Scalo - doskonal skille techniczne i presalesowe w społeczności naszych ekspertów, wpływaj na rozwój organizacji, wspieraj innych, przestrzeń do budowania marki osobistej - twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako prelegent na wydarzeniach (np. ProMeet), prywatną opiekę medyczną - Luxmed, kafeteryjny system benefitów - Motivizer, dostęp do karty Multisport, program poleceń pracowniczych z nagrodami, integracje i wydarzenia firmowe.
Computer Vision Expert
NASK
⚲ Warszawa, Wola
15 000–18 000 zł brutto / mies.
Wymagania
- Python
- PyTorch
- OpenCV
- Modele uczenia głębokiego
- Embedding
- MLOps
- Docker / Kubernetes
- Vision Transformers (ViT) / Siamese Networks / Metric Learning
Nasze wymagania: Wykształcenie wyższe techniczne (informatyka, matematyka, fizyka lub pokrewne) Minimum 5 lat doświadczenia w projektach Computer Vision / Machine Learning Bardzo dobra znajomość: Python, PyTorch, OpenCV Doświadczenie w trenowaniu modeli głębokiego uczenia na danych obrazowych Znajomość metod ekstrakcji cech i reprezentacji embeddingów Doświadczenie w pracy z dużymi zbiorami danych Umiejętność oceny jakości modeli ML i interpretacji metryk Znajomość zagadnień związanych z systemami biometrycznymi Umiejętność pracy badawczo-rozwojowej (R&D) Język angielski umożliwiający czytanie i tworzenie dokumentacji technicznej oraz publikacji Mile widziane: Stopień naukowy (PhD) lub status doktoranta/doktorantki w obszarze Computer Vision / Machine Learning / Biometrics Doświadczenie w Face Recognition, Face Anti-Spoofing, Iris Recognition, Multimodal Biometrics Znajomość architektur: Vision Transformers (ViT), Siamese Networks, Metric Learning Doświadczenie z MLOps oraz Docker / Kubernetes Udział w projektach badawczych lub grantach Wystąpienia konferencyjne O projekcie: Poszukujemy osoby na stanowisko Computer Vision Expert, która będzie odpowiedzialna za projektowanie, rozwój oraz wdrażanie zaawansowanych rozwiązań analizy obrazu opartych na metodach sztucznej inteligencji. Rola obejmuje zarówno prace badawczo-rozwojowe, jak i budowę systemów gotowych do zastosowań produkcyjnych, w tym komponentów związanych z biometrią. To idealna propozycja dla autora/-rki lub współautora/-rki publikacji w obszarach: Computer Vision, Biometrics, Pattern Recognition, Deep Learning, dla osoby posiadającej doświadczenie w przygotowywaniu benchmarków i eksperymentów badawczych, aktywnie śledzącej literaturę naukową i wdrażającej nowe podejścia w projektach produkcyjnych. Zakres obowiązków: Projektowanie i rozwój algorytmów Computer Vision (detekcja, segmentacja, tracking, rozpoznawanie obiektów) Tworzenie, trenowanie i optymalizacja modeli uczenia głębokiego dla obrazów i strumieni danych Opracowywanie i trenowanie modeli deep learning (CNN, Transformers, multimodal) Przygotowanie pipeline’ów przetwarzania danych (obrazu i danych biometrycznych) Analiza jakości danych oraz budowa zbiorów treningowych Optymalizacja modeli pod kątem wydajności Walidacja i ewaluacja systemów z wykorzystaniem odpowiednich metryk (FAR, FRR, ROC) Współpraca z zespołami produktowymi przy wdrożeniach produkcyjnych Śledzenie najnowszych trendów naukowych i technologicznych w obszarze CV i biometrics Oferujemy: Praca w projektach R&D D związanych z analizą audiowizualną, w szczególności związaną z technikami biometrycznymi, rozpoznawaniem i detekcją obiektów oraz innymi zadaniami Computer Vision Możliwość rozwoju naukowego Komfortowe warunki pracy naukowej (nowoczesna przestrzeń biurowa) w trybie hybrydowym Atrakcyjne benefity pracownicze
Computer Vision Engineer
NASK
⚲ Warszawa, Wola
9 000–12 000 zł brutto / mies.
Wymagania
- Python
- Modele ML
- Modele uczenia głębokiego
- Embedding
Nasze wymagania: Wykształcenie techniczne (informatyka, matematyka, fizyka lub pokrewne) Doświadczenie w projektach Computer Vision / Machine Learning Umiejętność programowania w Python, automatyzowania procesów przetwarzania danych przy użyciu skryptów Doświadczenie w pracy z danymi obrazowymi lub wideo i znajomość bibliotek do przetwarzania obrazów Umiejętność trenowania modeli głębokiego uczenia na danych obrazowych Doświadczenie w pracy z dużymi zbiorami danych Umiejętność oceny jakości modeli ML i interpretacji metryk Znajomość zagadnień związanych z systemami biometrycznymi Umiejętność pracy badawczo-rozwojowej (R&D) Przygotowanie eksperymentów, benchmarków, dokumentacji i raportów Skupienie na szczegółach podczas oznaczania i weryfikacji danych Język angielski umożliwiający czytanie i tworzenie dokumentacji technicznej oraz publikacji Mile widziane: Doświadczenie w trenowaniu modeli uczenia głębokiego i technik computer vision Znajomość metod ekstrakcji cech i reprezentacji obrazów Znajomość metod anotacji i walidacji danych biometrycznych Doświadczenie z projektami związanymi z zadaniami detekcji, segmentacji, śledzenia obiektów, porównywania embeddingów Zainteresowanie systemami biometrycznymi i zagadnieniami bezpieczeństwa danych O projekcie: Poszukiwana jest osoba na stanowisko Computer Vision Engineer, odpowiedzialna za przygotowanie i przetwarzanie zbiorów danych obrazowych i wideo, a także wsparcie zespołów badawczo-rozwojowych w trenowaniu i testowaniu modeli. Rola łączy aspekty inżynierii danych, programowania oraz współpracy przy rozwoju modeli AI w obszarze biometrii i analizy obrazu. Zakres obowiązków: Przygotowywanie, porządkowanie i walidacja zbiorów danych obrazowych i wideo Tworzenie i utrzymywanie pipeline’ów przetwarzania danych Implementacja i testowanie modeli deep learning Przygotowanie pipeline’ów przetwarzania danych (obrazu i danych biometrycznych) Analiza jakości danych oraz budowa zbiorów treningowych Optymalizacja modeli pod kątem wydajności Walidacja i ewaluacja systemów z wykorzystaniem odpowiednich metryk (FAR, FRR, ROC) Współpraca przy eksperymentach z modelami rozpoznawania obiektów, detekcji, segmentacji, rozpoznawania twarzy lub innych systemów biometrycznych Automatyzacja procesów przetwarzania danych i przygotowania datasetów Śledzenie najnowszych trendów naukowych i technologicznych w obszarze CV i biometrics Oferujemy: • Praca w projektach R&D związanych z analizą audiowizualną, w szczególności związaną z technikami biometrycznymi, rozpoznawaniem i detekcją obiektów oraz innymi zadaniami Computer Vision • Możliwość poszerzenia wiedzy i doświadczenia z zakresu biometrii i systemów AI • Możliwość rozwoju naukowego • Komfortowe warunki pracy naukowej (nowoczesna przestrzeń biurowa) w trybie hybrydowym • Atrakcyjne benefity pracownicze
Backend Developer + AI/ML Developer
Krajowa Izba Fizjoterapeutów
⚲ Warszawa, Ochota
25 000–28 000 zł brutto / mies.
Wymagania
- MS SQL
- PostgreSQL
- MySQL
- REST API
- Python
- C#
- .NET
- Docker
- Azure
- HTML
- CSS
- Bootstrap
- JavaScript
- jQuery
- Node.js
- .NET Core
Nasze wymagania: Min. 5 lat komercyjnego doświadczenia w tworzeniu aplikacji Bardzo dobra znajomość python Znajomość C#, .NET Doświadczenie w tworzeniu Web API / REST API. Bardzo dobra znajomość relacyjnych baz danych i SQL: tworzenie zapytań i skryptów, optymalizacja wydajności (indeksy, plany zapytań, analiza). Git + praca w zespole z code review. Doświadczenie z CI/CD (budowanie, testy, wdrożenia). Znajomość metodyk zwinnych i narzędzi typu Azure DevOps (przynajmniej w zakresie pracy zespołowej). Angielski umożliwiający pracę z dokumentacją techniczną. Umiejętność „wejścia w projekt” z niepełną dokumentacją oraz dbanie o porządek i dokumentowanie zmian. Mile widziane: Doświadczenie z Dockerem. Praktyczna znajomość usług Azure (np. App Service, Functions, Storage, Key Vault, Monitor, itp.). Znajomość technologii frontendowych: HTML/CSS/Bootstrap, JavaScript/jQuery (na poziomie „rozumiem i potrafię poprawić”). Doświadczenie z Node.js. Zakres obowiązków: Projektowanie rozwiązań z naciskiem na warstwę danych: tworzenie i optymalizacja zapytań, skryptów migracyjnych oraz procedur, analiza wydajności, indeksowanie, tuning zapytań. Praca z bazami danych: MS SQL / PostgreSQL / MySQL (MariaDB) Integracja z serwisem inferencyjnym LLM (on-prem) – kolejki, limity, cache Rozwój i utrzymanie REST API (Web API). Współtworzenie architektury, analiza wymagań, proponowanie rozwiązań i ich iteracyjne ulepszanie. Praca w zespole scrumowym: planowanie, estymacje, przeglądy, współpraca z QA i frontendem. Dbanie o jakość: testy, code review, dokumentacja. Rozbudowa istniejących aplikacji backendowych w C# / .NET (Framework i/lub .NET Core) działających w środowisku Azure. Oferujemy: Umowę o pracę. Pracę zdalną (lub hybrydową - do ustalenia). Pracę przy własnych produktach z dużą liczbą użytkowników i ciekawymi wyzwaniami technicznymi. Niezbędne narzędzia pracy. Duży wpływ na architekturę i jakość rozwiązań. Turkusowy model zarządzania w zespole. Projekty odpowiedzialne społecznie - realny wpływ na tysiące specjalistów i setki tysięcy pacjentów.
Agentic AI Product Owner / Business Analyst (German)
IN4GE sp. z o.o.
⚲ Warszawa
130–160 zł netto (+ VAT) / godz.
Nasze wymagania: Minimum 4 lata doświadczenia w realizacji projektów w rolach Product Owner oraz Business Analyst. Doświadczenie w zbieraniu wymagań oraz definiowaniu wizji rozwiązania. Praktyczna znajomość pracy w środowisku Agile. Doświadczenie we współpracy z zespołami technologicznymi (w tym AI) oraz biznesem. Umiejętność walidacji rozwiązań i przygotowywania scenariuszy testowych. Doświadczenie w analizie przypadków użycia pod kątem ich reużywalności. Znajomość języka niemieckiego na poziomie minimum B2 (preferowany C1). O projekcie: Dla naszego Klienta poszukujemy doświadczonej osoby w roli łączącej odpowiedzialności Product Ownera oraz Business Analysty w projekcie obejmującym rozwój i wdrożenie rozwiązania Agentic AI w środowisku międzynarodowym. Osoba w tej roli będzie odpowiadać za definiowanie wizji produktu, zbieranie i analizę wymagań biznesowych oraz zarządzanie backlogiem w modelu Agile, współpracując z zespołami AI, IT oraz biznesem. Zakres obowiązków: Zbieranie i analiza wymagań biznesowych oraz definiowanie docelowej wizji rozwiązania (target picture). Zarządzanie backlogiem i priorytetyzacja w metodyce Agile. Ścisła współpraca z AI Engineers, zespołami IT oraz interesariuszami biznesowymi. Wsparcie procesu testowania, przygotowanie scenariuszy testowych oraz walidacja rozwiązania. Analiza i modelowanie use case’ów z uwzględnieniem ich ponownego wykorzystania (reusability). Koordynacja dostarczania rozwiązania w modelu zwinnego zarządzania projektem. Oferujemy: Długofalowy projekt realizowany w modelu 100% zdalnym. Współpracę w modelu B2B. Udział w projekcie obejmującym rozwój rozwiązań z obszaru Agentic AI. Współpracę w środowisku międzynarodowym.
AI/ML Developer
Krajowa Izba Fizjoterapeutów
⚲ Warszawa, Ochota
32 000–35 000 zł brutto / mies.
Wymagania
- On-prem
- Python
- SQL
- GPU
- MLOps
- RAG
- React.js
Nasze wymagania: Komercyjne doświadczenie w ML/NLP/LLM - wdrożenia produkcyjne, nie tylko PoC Python na poziomie seniorskim; znajomość narzędzi do pracy z tekstem i danymi Embeddings, wyszukiwanie semantyczne/hybrydowe, reranking - praktyczne doświadczenie Optymalizacja inferencji: pamięć, throughput, kolejkowanie, monitoring Budowa pipeline'ów danych i integracja z systemami produkcyjnymi Samodzielność - potrafisz dowieźć end-to-end, nie potrzebujesz gotowej architektury Mile widziane: Doświadczenie z wdrożeniami on-prem / środowiskami GPU, MLOps Praca z systemami RAG, dokumentami PDF / transkrypcjami audio Projekty medyczne, e-learning lub inne dziedziny wymagające wysokiej precyzji odpowiedzi O projekcie: Tworzysz i utrzymujesz kompetencje AI całego produktu. Dobierasz, wdrażasz i optymalizujesz lokalny model językowy (LLM) działający na naszej infrastrukturze GPU. Projektujesz pipeline RAG, który pozwala fizjoterapeutom zadawać pytania do bazy wiedzy z setek szkoleń i otrzymywać precyzyjne, cytowane odpowiedzi. To rola techniczna z realnym wpływem - nie ma tu gotowego stacku do utrzymania, budujesz go od zera. Zakres obowiązków: • Dobór i wdrożenie lokalnego LLM (on-prem): – analiza i benchmark dostępnych modeli otwartych (jakość, latencja, wymagania sprzętowe) – uruchomienie i utrzymanie serwisu inferencyjnego - latencja, throughput, stabilność – rekomendacja konfiguracji sprzętowej (we współpracy przy zakupie serwerów GPU) • Projektowanie i implementacja systemu RAG: – przygotowanie danych: czyszczenie, segmentacja transkrypcji i PDF, metadane – budowa i utrzymanie indeksów wektorowych i wyszukiwania hybrydowego – prompt engineering, cytowanie źródeł, ograniczanie halucynacji • Zapewnienie jakości modelu: – golden set, testy regresyjne, ewaluacja jakości odpowiedzi – współpraca z ekspertami merytorycznymi (fizjoterapeuci) przy ocenie wyników • Integracja z backendem .NET - projekt kontraktów API, kolejki, cache, observability • Dokumentacja techniczna, code review, udział w kształtowaniu standardów zespołu
AI Projects Lead | Branża ubezpieczeniowa
Edge One Solutions Sp. z o.o.
⚲ Warszawa
Wymagania
- Microsoft Azure
- Google Cloud Platform
- OpenAI
Nasze wymagania: Minimum 3 lata pracy jako PM IT / Technical PM Doświadczenie w projektach chmurowych i AI (preferowane Azure, w dalszej kolejności GCP) Doświadczenie pracy z architektami, zespołami dev/ops oraz bezpieczeństwa Umiejętność prowadzenia kilku strumieni technicznych równolegle Umiejętność współpracy zarówno z biznesem jak i rolami technicznymi Bardzo dobra organizacja pracy i samodzielność Mile widziane: Wiedza o modelach i usługach AI (w pierwszej kolejności Azure i OpenAI, następnie GCP) Praktyczna znajomość tematyki AI Governance i Responsible AI Doświadczenie w pracy z technologią w organizacjach regulowanych rynku finansowego O projekcie: Nasz klient to lider rynku ubezpieczeniowego, ale również organizacja inwestująca w transformację cyfrową, rozwój analityki danych i AI. Pracując w tym środowisku, zyskasz możliwość: pracy nad realnymi wyzwaniami biznesowymi w skali milionów klientów, dostępu do nowoczesnych narzędzi i dużych zbiorów danych, współpracy z doświadczonymi ekspertami z obszaru data science, aktuariatu i IT, realnego wpływu na procesy decyzyjne. Tryb pracy Hybrydowa - 3 dni w tygodniu praca z biura klienta w Warszawie Zakres obowiązków: Prowadzenie tematów AI, zarządzanie zależnościami między tematami AI w działaniach projektowych Szacowanie niezbędnych zasobów technicznych i kompetencyjnych do realizacji pilotaży i wdrożeń rozwiązań AI Współprowadzenie analiz techniczno-biznesowych niezbędnych do planowania i realizacji rozwiązań AI Wsparcie w organizacji i aktywny udział w warsztatach technicznych niezbędnych do realizacji pilotaży i wdrożeń rozwiązań AI Planowanie zadań i pozyskiwane zasobów osób odpowiedzialnych za ich realizacje, ustalanie priorytetów, weryfikacja jakości i terminowości realizowanych zadań Koordynacja i wsparcie niezbędnych testów i adresowanie ryzyk dot. rozwiązań AI (It-sec, AI governance, Compliance) Współpraca z firmami zewnętrznymi w zakresie wykonywanych przez nie zadań związanych z realizacją pilotaży i wdrożeń rozwiązań AI Wsparcie procesu przenoszenia przetestowanych rozwiązań na środowiska produkcyjne i stała optymalizacja tego procesu zapewniająca optymalny time-to-market Zarządzanie utrzymaniem i rozwojem Sandboxa Innowacji Chmurowych we współpracy z odpowiedzialnymi zespołami technicznymi Wsparcie zespołów developerskich w realizacji pilotaży w Sandbox Innowacji Chmurowych Zarządzanie przygotowaniem środowisk dla prototypów i PoC w ramach Sandboxa Innowacji Chmurowych Wsparcie FinOps: monitorowanie kosztów pilotaży i doradztwo w zakresie optymalizacji testowanych rozwiązań Oferujemy: Zyskujesz indywidualne wsparcie Service Delivery Managera, który pomoże Ci zaplanować ścieżkę kariery i zadba o Twój komfort i satysfakcję z pracy w projekcie Szkolenia, certyfikaty i konferencje - dofinansowujemy lub w pełni pokrywamy koszty rozwoju kompetencji technicznych SmartChange – umożliwiamy zmianę projektu i dobieramy kolejny zgodnie z Twoimi preferencjami Dbamy o Twój work-life balance, dlatego poza pracą oferujemy wyjścia integracyjne, aktywności sportowe i inspirujące webinary #edge1talks, które rozwijają i łączą ludzi Aktywność fizyczna – wspieramy sportowe inicjatywy i wynajem sal treningowych Pakiet zdrowotny – prywatna opieka, karta sportowa, ubezpieczenie i wsparcie psychologiczne (HearMe) Elastyczne benefity – sam decydujesz, na co przeznaczasz punkty w naszym systemie benefitowym Bezpłatne lekcje języka angielskiego – dopasowane do Twojego poziomu, idealne do pracy w międzynarodowym środowisku
AI Lead
Grape Up Sp. z o.o.
⚲ Kraków, Grzegórzki
Wymagania
- AWS
- Microsoft Azure
- Google Cloud Platform
- Python
- LLMs
- GenAI
- RAG
- LangGraph
- AutoGen
- CrewAI
- prompt engineering
- enterprise AI patterns
- Databricks
- Vertex AI
- Azure AI Foundry
- AWS Bedrock
Nasze wymagania: 5+ years of experience in AI/ML, including at least 2 years with Generative AI/LLMs Strong knowledge of: RAG, agentic AI (LangGraph/AutoGen/CrewAI), prompt engineering, fine-tuning, guardrails Hands-on experience with at least one cloud platform (Azure/AWS/GCP) and MLOps practices Production-level Python Proven pre-sales or technical consulting background ⭢ you’ve led client conversations, built proposals, and scoped AI projects Ability to translate complex technical concepts into clear business value English C1+ ⭢ you work with international clients and technical documentation daily Mile widziane: Experience with enterprise AI patterns (LLM gateway, observability, evaluation frameworks) Familiarity with Databricks, Vertex AI, Azure AI Foundry, AWS Bedrock or similar platforms Public portfolio: open-source contributions, conference talks, publications Experience building or scaling an AI team O projekcie: At Grape Up, we combine consulting expertise with cutting-edge engineering to help global enterprises build their most critical applications using cloud-native technologies and modern software delivery practices. AI isn’t new to us – we’ve been delivering it for clients across finance, insurance, and tech for years. But the pace is accelerating, and so are we. We’re scaling our Generative AI practice fast: more clients, bigger deals, deeper solutions. We need an AI Lead to own that growth – shaping the offer, closing pre-sales conversations, and running R&D that keeps us a step ahead. We’re looking for an AI Lead who bridges deep technical expertise with product and business thinking. Someone equally comfortable discussing AI’s business value with a client and designing its architecture from scratch. You’ll own three areas: shaping our AI offer, driving pre-sales as the technical expert, and running R&D projects – from PoC to production. If you want to move at startup speed while working with enterprise clients that actually matter – this is the place and time. Zakres obowiązków: Define and evolve our AI/GenAI service offer Establish standards and delivery methodologies for AI projects Track market trends and evaluate emerging technologies (models, frameworks, architectures) Drive pre-sales engagements – discovery workshops, scoping, effort estimation for AI projects Prepare technical proposals and respond to RFPs/RFIs Present and demo solutions to clients, including C-level stakeholders Build client trust as the technical authority throughout the sales process Design and deliver GenAI/LLM/agentic AI solutions on cloud platforms Prototype new solutions (PoC, MVP) in high-potential areas Run model benchmarks, evaluate tooling, and make technology recommendations Collaborate with delivery teams on production rollouts Mentor engineers, conduct code reviews, and standardize AI practices across the company Oferujemy: A role at the intersection of technology, product, and sales – with real influence over the company’s direction Commission structure tailored to your role and performance Flexibility in choosing your ideal work environment – office, hybrid or remote
AI Engineer Associate
ZS.com
⚲ Warszawa
Wymagania
- SQL
- Python
- AWS
- Microsoft Azure
- Google Cloud Platform
- TensorFlow
- Docker
- Kubernetes
Nasze wymagania: A relevant Bachelors or higher-education degree in Computer Science, Data Science, or related fields. 1-3 years of experience in AI operations, machine learning, or DevOps. Preferred certifications in AI, machine learning, and cloud platforms (e.g., AWS, Azure, GCP). Proficiency in Python, SQL, and relevant AI libraries (e.g., TensorFlow, PyTorch). Familiarity with cloud platforms (e.g., GCP, AWS) and containerization (Docker, Kubernetes). Strong problem-solving and critical thinking abilities. Expertise in designing, implementing, and optimizing end-to-end AI pipelines. Ability to work collaboratively in a cross-functional team environment. Strong communications skills. Zakres obowiązków: Collaborate with data scientists, machine learning engineers, and DevOps teams to create robust, scalable, and reliable AI pipelines. Develop and maintain automated processes for model training, deployment, and inference, ensuring best practices for model versioning, monitoring, and scaling. Gathering and preparing large datasets for training and testing machine learning models including data cleaning, pre-processing, feature engineering and data quality. Implement infrastructure as code (IaC) templates to create reproducible AI development environments. Integrate AI pipelines into continuous integration and continuous deployment (CI/CD) workflows. Ensure seamless and secure deployment of AI models into production environments. Implement monitoring solutions to track model performance, detect data drift, and maintain data quality. Implement deep learning algorithms and neural networks for tasks such as image recognition, natural language processing (NLP), and speech recognition. Troubleshoot and optimize AI pipelines for efficiency, reliability, and compliance. Build and maintain infrastructure to support AI development initiatives. Implement robust security controls for AI systems to ensure compliance with industry standards (e.g., GDPR, HIPAA) based on Design document. Oferujemy: Perks & Benefits: ZS offers a comprehensive total rewards package including health and well-being, financial planning, annual leave, personal growth and professional development. Our robust skills development programs, multiple career progression options and internal mobility paths and collaborative culture empowers you to thrive as an individual and global team member. We are committed to giving our employees a flexible and connected way of working. All employees are expected to work from the office at least once per week. For those based outside of Warsaw, attendance will be required on specific days or for team events, which are anticipated to take place approximately two days per month. The magic of ZS culture and innovation thrives in both planned and spontaneous face-to-face connections. Travel: Travel is a requirement at ZS for client facing ZSers; business needs of your project and client are the priority. While some projects may be local, all client-facing ZSers should be prepared to travel as needed. Travel provides opportunities to strengthen client relationships, gain diverse experiences, and enhance professional growth by working in different environments and cultures.
AI Engineer + SAP
IN4GE sp. z o.o.
⚲ Warszawa
170–250 zł netto (+ VAT) / godz.
Wymagania
- SAP
- Eclipse ABAP Development Tools
- RESTful ABAP Programming Model
- OData V4
- SAP Basis
- ServiceNow
- LangGraph
- CopilotKit
- Vercel AI SDK
- AWS
- Microsoft Azure
Nasze wymagania: Oczekujemy: • Silnego doświadczenia w rozwoju AI/LLM, w tym we frameworkach agentowych (np. LangGraph) oraz architekturach opartych na MCP. • Praktycznego doświadczenia w budowaniu front-endu dla agentów AI lub warstw doświadczenia użytkownika (np. CopilotKit, Vercel AI SDK lub rozwiązania pokrewne). • Doświadczenia w uruchamianiu i obsłudze obciążeń AI (AI workloads) na platformach AWS lub Azure. Biegłości w rozwoju technicznym SAP, w tym: • usług OData, • modułów funkcyjnych (Function Modules), • widoków CDS, • modeli i struktur danych SAP, • narzędzi Eclipse ABAP Development Tools (ADT), modelu RESTful ABAP Programming Model (RAP) oraz publikowania API przy użyciu OData V4. • Praktycznej wiedzy z zakresu SAP Basis oraz środowisk usług zarządzanych (managed services). • Znajomości procesów zarządzania incydentami w SAP, w tym integracji z narzędziami takimi jak ServiceNow. • Silnych umiejętności rozwiązywania problemów oraz gotowości do pracy na styku obszarów AI, chmury i SAP. Mile widziane: • Doświadczenie w budowaniu rozwiązań AI dedykowanych dla SAP Managed Services lub operacji korporacyjnych. • Znajomość zastosowań AI w obszarze diagnostyki, monitorowania oraz przypadków użycia z zakresu informatyki śledczej (forensics) w środowisku SAP. • Doświadczenie w zakresie bezpiecznego wdrażania AI oraz modeli ładu korporacyjnego (enterprise governance). • Doświadczenie w pracy w środowiskach Agile lub DevOps. O projekcie: Poszukujemy doświadczonej osoby na stanowisko AI Enigneer, która wesprze projektowanie, rozwój i wdrażanie rozwiązań opartych na sztucznej inteligencji w ramach usług zarządzanych SAP (SAP Managed Services). Rola ta koncentruje się na budowie agentów AI klasy korporacyjnej, które głęboko integrują się z systemami SAP w celu zwiększenia wydajności operacyjnej, automatyzacji diagnostyki i poprawy wyników dostarczania usług. Idealny kandydat łączy silne umiejętności AI Engineer’a z praktyczną wiedzą techniczną w zakresie SAP oraz solidnym zrozumieniem operacji w modelu usług zarządzanych. Jak wygląda sukces na tym stanowisku: • Agenci AI są gotowi do produkcji, bezpieczni i głęboko zintegrowani z systemami SAP. • Skrócenie czasu rozwiązywania incydentów i poprawa niezawodności usług. • Skalowalne rozwiązania AI, które mogą być wielokrotnie wykorzystywane w różnych projektach SAP Managed Services. Zakres obowiązków: Projektowanie i rozwój agentów AI z wykorzystaniem nowoczesnych frameworków, takich jak LangGraph i Model Context Protocol (MCP), w celu wsparcia przypadków użycia w środowisku SAP. Budowa i udoskonalanie warstwy doświadczenia agentów AI (experience layer) przy użyciu narzędzi takich jak CopilotKit, Vercel AI SDK lub równoważnych frameworków. Umożliwianie i wspieranie infrastruktury chmurowej (AWS lub Azure) dla wdrażania agentów AI, ich skalowalności oraz bezpiecznych operacji. Tworzenie zasobów programistycznych AI i integracji opartych na MCP w celu wsparcia cyklu życia rozwoju oprogramowania AI (AI SDLC) dla SAP, w tym narzędzi i frameworków automatyzacji. Projektowanie i wdrażanie integracji z SAP przy użyciu usług OData, modułów funkcyjnych (Function Modules) oraz widoków CDS. Współpraca z zespołami SAP Basis w zakresie łączności systemowej, transportów, wydajności oraz zarządzania dostępem. Praca ze strukturami danych SAP w celu umożliwienia dokładnego pobierania kontekstu, analizy i automatyzacji. Integracja rozwiązań AI z procesami obsługi incydentów i zgłoszeń SAP (np. ServiceNow) w celu wsparcia diagnostyki, selekcji (triage) i procesów rozwiązywania problemów. Bliska współpraca z Technicznymi Product Managerami, zespołami funkcjonalnymi SAP oraz interesariuszami usług zarządzanych w celu dostarczania gotowych do produkcji rozwiązań AI. Oferujemy: Długofalową współpracę w obszarze AI. Współpracę w środowisku międzynarodowym. Model współpracy B2B. Możliwości rozwoju zawodowego. Pracę 100% zdalną.
AI Engineer (GCP / RAG / Python)
ASTRAL FOREST PROSTA SPÓŁKA AKCYJNA
⚲ Warszawa, Wola
130–180 zł netto (+ VAT) / godz.
Wymagania
- Python
- Google Cloud Platform
Nasze wymagania: 2-5+ years of hands-on AI/ML development experience, including LLMs and NLP. Strong Python engineering skills; practical experience with LangChain, Streamlit, and ML frameworks. Solid understanding of RAG architectures and LLM fine-tuning. Familiarity with the end-to-end AI/ML lifecycle, evaluation methods, efficiency metrics, and deployment patterns. Ability to communicate clearly with both technical and non-technical stakeholders Proficiency in English. Mile widziane: Experience delivering AI solutions in consulting environments. Awareness of GenAI-related security considerations: PII, access control, prompt injection, data residency. Experience designing systematic evaluation frameworks for LLMs. Cloud-native deployment experience (containers, CI/CD, infra patterns) within GCP. O projekcie: We’re looking for a hands-on AI Engineer who can design, build, and operationalize production-grade AI systems - while also acting as a trusted technical advisor to clients and a partner to our CTO. This is a role with real impact. You will influence how we architect, standardize, and deliver GenAI solutions across engagements: from discovery and solution design, through implementation, to production hardening and continuous improvement. You’ll combine strong engineering fundamentals with consulting skills: framing problems, assessing feasibility, leading technical discussions, and making architectural trade-offs that stand up to enterprise scrutiny. Zakres obowiązków: Develop and deploy enterprise-grade GenAI applications: conversational search, RAG systems, multimodal agents, and domain-specific classification services. Build robust data and language-processing pipelines using Python, LangChain, and cloud-native components. Implement retrieval architectures using Vertex AI Search, Vector Search, or other vector database solutions. Optimize GenAI solutions for quality, reliability, latency, and cost - including RAG tuning and targeted fine-tuning where justified by business value Define and implement evaluation frameworks: automated tests, regression checks, hallucination/faithfulness indicators. Set up monitoring for model performance, app reliability, and business-aligned KPIs. Establish best practices around deployment, versioning, observability, incident reviews, and repeatable delivery patterns. Translate business goals into viable, scalable GenAI architectures on Google Cloud - with clear assumptions, risks, and acceptance criteria. Lead or co-lead discovery and feasibility workshops, focusing on use case framing and data readiness within the GCP ecosystem. Support presales: providing solution options, delivery approaches, and realistic implementation plans. Oferujemy: We work with global enterprise clients on high-impact data & AI initiatives - which means real architectural challenges, technical ownership, and room to grow. • Remote-first, flexible working model • Projects involving building modern data & AI platforms from scratch • Private healthcare, insurance, Multisport • Full working equipment • 1,000 PLN annual development budget for training, certifications, conferences • Regular knowledge-sharing sessions and mentoring • Collaboration with international clients (Switzerland, France, UK, US, UAE, and more) • A real team culture built on trust, autonomy, and high standards • Team integrations, without the awkward corporate vibe
AI Engineer (AI/ML)
Mindbox Sp. z o.o.
⚲ Kraków
30 000–33 000 zł netto (+ VAT) / mies.
Wymagania
- Python
- Java
- Spring
- SQL
- PostgreSQL
- Redis
- Kubernetes
- Jenkins
- Azure DevOps
- Microsoft Azure
- Google Cloud Platform
Nasze wymagania: Programming Languages: Python (3+ years), Java (regular) Frameworks: FastAPI, LangChain, Data containers, Spring. Databases: SQL (PostgreSQL), Vector Databases, KV stores (Redis). Knowledge of Microservices architecture, Observability, API design, and Concurrency models. Experience with Azure / GCP, containers, Kubernetes, CI/CD (Jenkins, Azure DevOps, GCP Cloud Build). Practical experience in TDD, BDD. Understanding of LLM architectures and their application to domain-specific data. Experience with RAG (Retrieval-Augmented Generation), Prompt Engineering, and Agentic architecture. Knowledge of Machine Learning, Deep Learning, NLP, and experience in building NLP, ML & AI solutions. Strong communication and presentation skills in English. O projekcie: We are a dedicated team of six engineers working on innovative AI and ML projects that deliver high-impact solutions in a fast-moving and stable environment. Collaborating closely with business stakeholders, we aim to solve real-world financial challenges using advanced technologies. Zakres obowiązków: Design, test, and optimize prompts for Large Language Models (LLMs) to ensure high-quality, reliable outputs for Credit & Lending use cases. Develop and implement sophisticated solutions using Retrieval-Augmented Generation (RAG) and vector databases to extract insights from complex financial data. Participate in the full lifecycle of our solutions, from problem discovery and prototyping to design, implementation, and production deployment. Apply AI best practices to ensure fairness, transparency, and accountability in all models and applications. Collaborate with engineers, product managers, and business experts to align technical efforts with strategic goals. Write and maintain high-quality, testable, and reusable code.Utilize cloud platforms (Azure, GCP) for development, deployment, and scaling of AI models. Co-author solution designs and architecture and maintain products in production. Note: Detailed project information will be shared during the recruitment process. Oferujemy: Flexible cooperation model – choose the form that suits you best (B2B, employment contract, etc.) Hybrid work setup – remote days available depending on the client’s arrangements Collaborative team culture – work alongside experienced professionals eager to share knowledge Continuous development – access to training platforms and growth opportunities Comprehensive benefits – including Interpolska Health Care, Multisport card, Warta Insurance, and more High quality equipment – laptop and essential software provided
AI Business Partner (AI Evangelist)
TQLO SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Warszawa
155 - 180 PLN/h netto (B2B)
Wymagania
- AI
- Business Analysis
We are looking for an AI Business Partner who will genuinely accelerate AI transformation across the organization. This role sits at the intersection of business, technology, and organizational change — ideal for someone who can translate an AI vision into concrete, measurable use cases and real-world implementations. You will work closely with business teams as a partner, educator, and change catalyst, helping them identify and implement AI-driven solutions that truly improve processes and increase productivity. Location: Warsaw – 1 day per week from the office🎯 Your Responsibilities • Identifying and prioritizing high-value AI use cases across business units • Leading discovery workshops and ideation sessions (pain points → AI solutions) • Driving AI initiatives from concept to MVP and building the case for further development (business case, ROI) • Supporting teams in building, piloting, and scaling AI-based solutions (AI / GenAI / RPA / low-code) • Translating AI strategy and technical topics into clear, business-friendly language • Designing and delivering trainings and workshops (e.g. prompt engineering, human-AI collaboration) • Building alignment among stakeholders and actively managing organizational change 🔍 What We Are Looking For • Strong understanding of AI topics, including Generative AI and Machine Learning (capabilities and limitations) • Ability to assess the business impact of AI initiatives (efficiency, ROI, scalability) • Experience in roles such as Transformation Consultant, Innovation Lead, Technology Evangelist, or AI Consultant • Consulting experience (internal or external) is a strong advantage • Excellent communication and storytelling skills • Ability to facilitate workshops and collaborate with diverse stakeholder groups • Hands-on, practical approach to change management and working with people • Open-mindedness, curiosity, and willingness to challenge the status quo 🌱 What We Offer • Real influence on the direction of AI development within the organization • Close collaboration with business teams — from idea to implementation • High level of autonomy and room to initiate meaningful change • Cooperation with technology teams and business leaders • Flexible engagement model and working arrangements • Opportunity to grow skills in one of the most critical market areas (AI / GenAI) TQLO Sp. z o.o. – Employment Agency (KRAZ No. 33580)
AI Automatization Engineer
Wyższa Szkoła Kształcenia Zawodowego
⚲ Wrocław
10 000–27 000 zł / mies. (zal. od umowy)
Wymagania
- Python
- PHP
- TypeScript
- OpenAPI
- RESTful API
- GraphQL
- React.js
- FastAPI
- Laravel
- Symfony
- MySQL
- PostgreSQL
Nasze wymagania: Idealnie gdybyś miała/miał praktyczne doświadczenie w większości niżej wskazanych obszarach, jednak nie jest to wymóg konieczny. Jeżeli czujesz się silna/silny z części niżej wskazanych zagadnień to śmiało aplikuj! doświadczenie w pracy na podobnym stanowisku a z naszej strony gwarantujemy znalezienie ciekawych projektów zarówno dla seniora jak i mida, umiejętność projektowania skalowalnych i modularnych systemów, które pozwalają na sprawną implementację nowych funkcjonalności w warunkach dynamicznie zmieniających się wymagań, praktyczna znajomość języka Python i PHP, praktyczna znajomość RESTful API i GraphQL wraz z dokumentacją OpenAPI, praktyczna znajomość framework'ów FastAPI, Laravel i Symfony, praktyczna znajomość technologii generatywnych (Generative AI), praktyczna znajomość silnika bazy danych MySQL i PostgreSQL, praktyczna znajomość rozwiązań przeznaczonych do kolejkowania np. RabbitMQ, Redis, praktyczna znajomość OOP i ORM, znajomość systemu kontroli wersji Git. Mile widziane: praktyczna znajomość ekosystemu Local AI, takich jak Ollama, llama.cpp, czy Label Studio ML Backend, znajomość narzędzi LangChain i Langflow, znajomość GitLab CI/CD, Package Registry i Container Registry znajomość Elasticsearch, Kibany oraz Logstash'a znajomość narzędzi służących do automatyzacji procesów np. Beautiful Soup, Selenium, etc., Zakres obowiązków: projektowanie / implementacja / wdrażanie / utrzymywanie elastycznych narzędzi do automatyzacji pracy wewnętrznych działów biznesowych w oparciu o różne techniki oraz podejścia, projektowanie / implementacja / wdrażanie / utrzymywanie elastycznych narzędzi optymalizujących pracę w działach biznesowych, integracja wdrażanych narzędzi z istniejącymi systemami zarówno in-house dev jak i rozwiązaniami firm trzecich, tworzenie, rozwój i wsparcie wytwarzanych systemów edukacyjno-szkoleniowych, zapewnienie wysokiej jakości dostarczanych elastycznych rozwiązań, współpraca z innymi obszarami działu IT oraz firmy. Oferujemy: udział w projektach opartych o nowoczesne oraz innowacyjne rozwiązania, technologie, narzędzia, podejścia aktualnie wykorzystywane na świecie, brak kontaktu z klientami zewnętrznymi (wytwarzamy oprogramowanie wyłącznie na nasze potrzeby), atrakcyjny system kafeteryjny (dostęp do setek benefitów, od opieki medycznej, poprzez vouchery do allegro/pyszne.pl lub subskrypcje np. Legimi), solidny pakiet rozwojowy: dofinansowanie do szkoleń zewnętrznych, pełny wymiar urlopu (26 dni) niezależnie od stażu pracy/rodzaju umowy.
AI / Python Developer
Develocraft sp. z o.o.
⚲ Gdańsk
160–200 zł netto (+ VAT) / mies.
Wymagania
- Python
- LangChain
- LangGraph
- LangFuse
- AWS
- PostgreSQL
- MCP
- A2A
Nasze wymagania: Strong hands-on experience with Python Proven background in AI / Data Science Experience with LangChain or similar libraries for LLM integrations Familiarity with LangGraph or comparable tools for workflow orchestration Experience with LangFuse / LangSmith or other tools focused on observability and monitoring Experience working with AWS services (e.g. Lambda, S3, ECS, SageMaker, or similar) Working knowledge of databases and backend technologies (e.g. PostgreSQL, agent core frameworks) English — B2 Mile widziane: MCP (Model Context Protocol): experience implementing or integrating models via MCP for secure access to external tools or data Tool calling: understanding of how LLMs can execute external APIs or functions beyond text generation A2A (Agent-to-Agent): familiarity with systems where multiple AI agents communicate and collaborate O projekcie: You’ll work in the Risk Valuation Services area at S&P, a prestigious division delivering independent valuations and risk analytics for complex and illiquid assets. This initiative involves building the core of an internal AI framework in Python, integrated with various Large Language Models (LLMs) and designed to set new standards for security, prompting, and orchestration. Zakres obowiązków: Building the core of an internal AI framework in Python Integrating various Large Language Models (LLMs) Setting new standards for security, prompting, orchestration Oferujemy: multisport card private medical care
Team Lead Data Science (m/f/d)
Loyalty Partner Polska Sp. z o.o. (PAYBACK)
⚲ Warszawa, Wola
Wymagania
- Google Cloud Platform
- Vertex AI
- BigQuery
- Cloud Storage
- Machine Learning Models
- MLOps
Nasze wymagania: You have several years of professional experience in the development and operationalization of data science and AI products. You possess outstanding knowledge of Python, especially for data analysis, data engineering, and ML model development. You have deep hands-on experience with the Google Cloud Platform (GCP) and its relevant services (e.g. Vertex AI, BigQuery, Cloud Storage). You have sound knowledge and practical experience in MLOps, CI/CD, and ideally the use of tools like Terraform and dbt. You understand and master the entire lifecycle of machine learning models – from experimentation, training, deployment, monitoring to retraining strategies – and can implement them efficiently. You have the ability and experience to lead and foster a team, motivate employees, and support a collaborative working style. You are characterized by strong analytical skills, a structured approach to work, and a proactive attitude in solving complex problems. Excellent communication skills and fluent English complete your profile. Please send your cv in English Zakres obowiązków: As a Team Lead, you are responsible for the technical and disciplinary leadership of our Data Science team. You work hands-on in an cross-functional team and develop innovative data and AI products using machine learning methods. You are responsible for the entire lifecycle of machine learning models, from exploratory data analysis and feature engineering, to the selection and training of suitable algorithms, to the evaluation and validation of the models. You work on the Google Cloud Platform (GCP) and guide the deployment of ML models into production. As a technical expert, you establish best practices in the fields of data science, machine learning, and MLOps. In doing so, you proactively evaluate and integrate new methods and always stay up-to-date with the latest technology. You actively care for the personal and professional development of your team members. You work closely with business stakeholders to identify, evaluate, and implement concrete solutions for AI products. Oferujemy: Employment contract? Of course. With us you do not have to worry about stable employment. Benefits? We have them! Among other: corporate incentive program, sport card, private medical care. Lunch card? With the cooperation extended and permanent contract, you will receive additional funds to use for meal purchases. Working in a hybrid model? Of course! ! You work with us 2 days a week from home. Work wherever you want? In PAYBACK you have the opportunity. Working 100% remotely, also from European countries for 15 days a year. Flexible working hours? Sounds great! We start working between 7 to 10. Trainings? Of course. We provide training to develop hard and soft skills. Convenient location? Sure! We invite you to our new office at Rondo Daszyńskiego, but we are currently also working remotely. Dress code? We definitely say no. There are no rigid dress code rules in our company, sneakers are more than welcome. Friendly atmosphere at work? Yes! In PAYBACK, people are the most important asset. Something is missing? Open communication is our priority, so dare to ask!
T Hub – AI Engineer
T-Mobile
⚲ Warszawa, Mokotów
Wymagania
- Python
Nasze wymagania: You have several years’ experience delivering successful projects in your field (at least 4 years) Excellent coding ability in Python Ability to integrate models into production systems using APIs Deep Learning and Machine Learning project experience covering numerous algorithms and models: Application of one or more of e.g. LGBM, XGBoost, GNN and / or LLMs Leverage LLMs from frameworks such as Hugging Face ML techniques like forecasting, regression, classification, anomaly detection, image object detection, text classification, text generation, root cause analysis, timeseries modelling Set-up and use of vector databases Familiarization with Natural Language Processing (NLP) LLM Integration & Prompt Engineering Some Agentic AI development Experience (nice to have) Development and deployment of software solutions incorporating specific AI or ML-based models and techniques Data handling techniques in e.g. Polars, Pandas, NumPy etc. AI/ML algorithms, libraries, techniques, pipelines, and architectures Familiarization with one of PyTorch and TensorFlow Experience with deep Exploratory Data Analysis and result reporting Software design & development techniques incl. clean code, reviews, testing and deployment (a must!) Gitlab repositories and pipelines O projekcie: You can look forward to working in our Network Analytics Team in Group Technology consisting of artificial intelligence (AI) and Machine Learning (ML) experts developing advanced analytical solutions for the Deutsche Telekom Group. Your daily work will be focused on analyzing data, training models, developing automated tools using ML models, and working on challenging use cases. You will work alongside software engineers and other ML engineers. This role requires the flexibility to travel abroad a minimum of three times per year to attend client meetings, conferences, or team off-sites (typically 3-5 days per trip). Zakres obowiązków: Be a strong and transparent communicator able to work with customers to set goals, identify risks and prerequisites, report progress, present results and seek feedback. Prepare, explore and analyze data for model training using Python Train and test AI/ML models using various libraries and fine-tune their performance ready for deployment Work with an on-premises, Linux-based GPU computing platform and cloud-based instances, mainly GCP Enjoy working in an enriching international environment with a good work-life balance and opportunities to travel and grow Have reached English language proficiency B2 or above. German language skills would be beneficial but not essential Oferujemy: Friendly and open work environment. Competitive salary and additional benefits. Strong development opportunities within T-Mobile/T-Hub. Access to training platforms and modern technologies. Possibilities of flexible hybrid work from anywhere in Poland.
Staff AI Engineer - Automation & Agentic Workflows
Link Group
⚲ Kraków, Wrocław, Poznań, Warszawa, Gdańsk
30 000 - 40 000 PLN netto (B2B)
Wymagania
- Large Language Models
- no-code
- AI
- Low-code
- Make
- Moveworks
- API
- Workato
We are currently looking for a Staff AI Engineer to join an advanced AI and automation initiative within the construction technology space. You will take a leading role in building and scaling an automation ecosystem powered by AI and agent-based workflows. The focus is on creating intelligent systems that streamline complex operational processes and support end users in their day-to-day work. The team is developing modern solutions that combine automation platforms, cloud data infrastructure, and AI technologies to improve efficiency across the entire construction lifecycle. Your responsibilities • Take ownership of the automation ecosystem, including configuration and deployment of workflow platforms (e.g. low-code tools) • Design and develop advanced agent-based workflows capable of handling multi-step processes and decision-making • Build and maintain integrations between APIs, data platforms, and AI-driven components • Combine low-code solutions with custom Python scripting where needed to extend system capabilities • Design and implement human-in-the-loop solutions to ensure control and transparency of AI-driven actions • Ensure smooth data flow between systems, including data platforms such as Databricks • Define best practices, document solutions, and support knowledge sharing within the team • Mentor less experienced team members and contribute to building team standards • Evaluate and experiment with different AI models and tools to identify optimal solutions. Requirements • 7+ years of hands-on experience building and maintaining automation or integration solutions in production environments • Strong experience with enterprise low-code / no-code platforms (e.g. Workato, Make, Moveworks, or similar) • Solid Python skills, with the ability to implement custom logic and integrations • Practical experience working with LLMs and AI-driven solutions in real use cases • Strong understanding of APIs, system integrations, and workflow design • Ownership mindset and ability to drive solutions end-to-end • Strong communication skills, with the ability to explain technical concepts to non-technical stakeholders • Experience working in distributed, remote environments • English proficiency (C1/C2)
Specjalista ds. AI i automatyzacji - Vibe Coder
CONCEPT 101 SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Łódź
Wymagania
- Make
- Zapier
- GumLoop
- CloudBot
- LLM / Prompt Engineering
- API integrations
- Shopify (nice to have)
Wymagania: - bardzo dobra znajomość LLM-ów i prompt engineeringu - doświadczenie w integracjach API i narzędziach no-code/low-code - rozumienie procesów biznesowych – marketing, sprzedaż, operacje - myślenie systemowe i projektowe: potrafisz zaprojektować rozwiązanie, zanim zaczniesz je budować Mile widziane: - znajomość Shopify i środowiska e-commerce O firmie: - NAOKO to polska marka modowa z charakterem – tworzymy kolekcje pełne energii i niebanalnych wzorów dla kobiet, które żyją na własnych zasadach. Równie ważna jak design jest dla nas innowacja: aktywnie wdrażamy AI do procesów biznesowych i traktujemy automatyzację jako jeden z kluczowych driverów wzrostu. - Szukamy kogoś, kto nie tylko wdraża gotowe rozwiązania, ale projektuje architekturę automatyzacji – myśli systemowo, rozumie procesy biznesowe i buduje coś, co naprawdę działa na skalę. Zakres obowiązków: - projektowanie architektury automatyzacji w organizacji - budowanie złożonych workflowów (Make, GumLoop, CloudBot, Zapier i inne) - integracja systemów: CRM, e-commerce, marketing automation - tworzenie systemów opartych o LLM-y – prompt engineering, testy, optymalizacja - automatyzacja raportowania i procesów operacyjnych - wdrażanie AI do contentu, grafiki, wideo i analiz danych - współpraca z działami e-commerce i marketingu przy identyfikacji i automatyzacji procesów Oferujemy: - W NAOKO dostaniesz realny wpływ na to, jak firma działa – nie będziesz odtwarzać gotowych schematów ani czekać na decyzje z góry. Budujesz ekosystem AI od podstaw, w środowisku które rozumie, czym jest automatyzacja i mierzy jej efekty. - Pracujesz z marką, która ma wyraźną tożsamość i ambicje skalowania – to oznacza, że Twoja praca ma znaczenie i widoczne przełożenie na wyniki. Oferujemy budżet szkoleniowy i przestrzeń do rozwijania kompetencji, dostęp do najnowszych narzędzi AI oraz elastyczne godziny pracy. Do tego pakiet benefitów: karta Multisport, prywatna opieka medyczna, ubezpieczenie grupowe i zniżki na produkty marki NAOKO.
Specjalista ds. AI i automatyzacji - Vibe Coder
CONCEPT 101 SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Łódź, Polesie
Wymagania
- Make
- Zapier
- GumLoop
- CloudBot
- LLM / Prompt Engineering
- API integrations
- Shopify
Nasze wymagania: bardzo dobra znajomość LLM-ów i prompt engineeringu doświadczenie w integracjach API i narzędziach no-code/low-code rozumienie procesów biznesowych – marketing, sprzedaż, operacje myślenie systemowe i projektowe: potrafisz zaprojektować rozwiązanie, zanim zaczniesz je budować Mile widziane: znajomość Shopify i środowiska e-commerce Zakres obowiązków: projektowanie architektury automatyzacji w organizacji budowanie złożonych workflowów (Make, GumLoop, CloudBot, Zapier i inne) integracja systemów: CRM, e-commerce, marketing automation tworzenie systemów opartych o LLM-y – prompt engineering, testy, optymalizacja automatyzacja raportowania i procesów operacyjnych wdrażanie AI do contentu, grafiki, wideo i analiz danych współpraca z działami e-commerce i marketingu przy identyfikacji i automatyzacji procesów Oferujemy: W NAOKO dostaniesz realny wpływ na to, jak firma działa – nie będziesz odtwarzać gotowych schematów ani czekać na decyzje z góry. Budujesz ekosystem AI od podstaw, w środowisku które rozumie, czym jest automatyzacja i mierzy jej efekty. Pracujesz z marką, która ma wyraźną tożsamość i ambicje skalowania – to oznacza, że Twoja praca ma znaczenie i widoczne przełożenie na wyniki. Oferujemy budżet szkoleniowy i przestrzeń do rozwijania kompetencji, dostęp do najnowszych narzędzi AI oraz elastyczne godziny pracy. Do tego pakiet benefitów: karta Multisport, prywatna opieka medyczna, ubezpieczenie grupowe i zniżki na produkty marki NAOKO.
Software Developer
Obility
⚲ Niederberger Höhe 14 b 56077 Koblenz, Niemcy
Wymagania
- webMethods
Nasze wymagania: Knowledge of programming languages such as XHTML, JavaScript, AJAX, SOAP, XML, etc. Ability to work with frameworks and libraries, e.g., TypeScript, Angular. Ability to work with version control systems such as Git. Experience in creating and managing databases, including SQL and MySQL. Ability to write component and integration tests and knowledge of testing tools. Analytical and problem-solving skills. Ability to work in a team and communicate effectively with other team members. Zakres obowiązków: Design and development of secure, scalable web applications based Independent software development within a team Project handover and acceptance upon completion Oferujemy: A very interesting and varied job with room for personal development Flexible working hours with a high proportion of home office work, and a four-day week upon request Exciting client projects with your own area of responsibility An open-minded and collaborative team of frontend and backend specialists, where we treat each other as equals
Senior ML / Machine Learning Engineer
IT LeasingTeam
⚲ Warszawa
26 000 zł netto (+ VAT) / mies.
Wymagania
- Python
- AWS
- Google Cloud Platform
- Terraform
- Kubernetes
- Prometheus
- Grafana
- OpenTelemetry
Nasze wymagania: Biegłość w Pythonie i Linuxie, z mocną wiedzą w projektowaniu skalowalnych, rozproszonych systemów. Praktyczne doświadczenie w projektowaniu, wdrażaniu i utrzymaniu procesów MLOps, w tym pipeline’ów CI/CD, monitoringu oraz optymalizacji środowisk produkcyjnych. Silne kompetencje w obszarze chmury (AWS/GCP), infrastruktury jako kodu (Terraform), konteneryzacji oraz orkiestracji (Kubernetes). Solidne zrozumienie nowoczesnych praktyk wytwarzania oprogramowania, takich jak test-driven development (TDD), systems thinking oraz automatyzacja CI/CD. Doświadczenie we wdrażaniu i zarządzaniu narzędziami obserwowalności, takimi jak Prometheus, Grafana i OpenTelemetry, w celu zapewnienia wysokiej niezawodności oraz wydajności produkcyjnych systemów ML. Ekspertyza w skalowaniu i optymalizacji systemów rozproszonych dla obliczeń wielkoskalowych w środowiskach wielowęzłowych (multi-node). Znajomość angielskiego przynajmniej na poziomie B2+ O projekcie: Stawka: do 26.000 netto na FV miesięcznie Miejsce pracy/praca zdalna: Zapewniamy dużą swobodę pracy zdalnej - przy czym od czasu do czasu będziemy Cię zapraszali do warszawskiego biura Wymiar pracy: Fulltime Sektor: Geospatial / AI Projekt: Budowa i skalowanie platformy MLOps obsługującej petabajty danych obrazowych. Zespół: 6-8os. Proces rekrutacji: Spotkanie zdalne z Managerem (+ ewentualne zadanie do wykonania) Szacowany czas trwania projektu: Długoterminowy Czas pracy/Strefa czasowa: Standardowe polskie godziny pracy Technologie na projekcie: Kubernetes (core - ok. 80% pracy), AWS, Python, Linux, Terraform, CI/CD, Prometheus, Grafana, OpenTelemetry, MLOps tooling Zakres obowiązków: Projektowanie i deployment Kubernetes clusters na AWS Auto-scaling infrastruktury (10 → 1000 nodes) Optymalizacja zasobów: CPU / GPU / memory Rozwój i utrzymanie MLOps pipelines Zapewnienie observability i stabilności systemów ML w produkcji Oferujemy: Dużą swobodę pracy zdalnej Długofalowe stabilne zatrudnienie Szansę na uczestniczenie w kluczowych projektach dla dużej firmy działającej w bardzo stabilnym sektorze Atrakcyjne wynagrodzenie (adekwatne do umiejętności i doświadczenia) Benefity (Lux Med, MultiSport...)
Senior Fullstack Developer & AI
Green Minds Sp. z o.o.
⚲ Warszawa
180–195 zł netto (+ VAT) / godz.
Wymagania
- NET
- React.js
- Azure DevOps
- REST APIs
Nasze wymagania: Minimum 6 lat komercyjnego doświadczenia w tworzeniu aplikacji webowych jako Senior Fullstack. Bardzo dobra znajomość .NET (C#) Bardzo dobra znajomość React oraz umiejętność budowania przejrzystych interfejsów dla złożonych systemów analitycznych. Praktyczna wiedza lub silne zainteresowanie implementacją agentów opartych na LLM oraz orkiestracją workflow w aplikacjach produkcyjnych. Doświadczenie w pracy z Azure oraz praktyczna znajomość automatyzacji procesów CI/CD Biegłość w języku angielskim na poziomie min. C1 – warunek konieczny ze względu na codzienną współpracę z zespołem Samodzielność w podejmowaniu decyzji technicznych, proaktywność oraz umiejętność pracy w dynamicznym środowisku projektowym. Znajomość języka poslkiego. Mile widziane: Doświadczenie w branży finansowej, bankowości lub systemach raportowych (zrozumienie specyfiki danych finansowych). O projekcie: Projekt polega na budowie zaawansowanej platformy do automatyzacji raportowania i analiz w obszarze Transfer Pricing dla klienta z USA, wykorzystującej inteligentną warstwę agentów AI do procesowania złożonych danych finansowych. Zakres obowiązków: Rozwój architektury Integracja warstwy AI: Budowa i wdrażanie agentów opartych na modelach LLM Optymalizacja procesów CI/CD Analiza danych finansowych: Ścisła współpraca z zespołem z USA nad przekładaniem skomplikowanych wymagań biznesowych i regulacji podatkowych na wydajne rozwiązania techniczne. Oferujemy: Realna praca z AI Layer (LLM-based agents) w środowisku produkcyjnym Dojrzałe podejście do developmentu Praca w 100% zdalna z poszanowaniem Twojego czasu
Senior Data Scientist / Tech Lead
Addepto
⚲ Gdańsk, Katowice, Kraków, Grzegórzki, Poznań, Warszawa, Śródmieście, Wrocław, Stare Miasto
19 320–28 560 zł / mies. (zal. od umowy)
Wymagania
- LLM
- Python
- Machine Learning
- AI
- Computer Vision
- Cloud
- MLOps
Nasze wymagania: 6+ years of commercial experience in designing and implementing scalable AI solutions (Machine Learning, Predictive Modeling, Optimization, NLP, LLM, Computer Vision, GenAI). Experience in leading end-to-end Machine Learning projects and managing cross-functional teams. Proficiency in developing ML algorithms from scratch to production deployment. Strong programming skills in Python: writing clean code, OOP design, extensive knowledge of ML libraries (Scikit-Learn, PyTorch/Tensorflow). Proven expertise in deploying solutions in cloud environments (preferably AWS and/or Azure). Knowledge in applying LLMs (semantic search, prompt engineering, multimodal embeddings, RAG). High proficiency in English (C1 level). Excellent communication skills and consulting experience with direct interaction with clients. Working experience in SQL and NoSQL databases (MongoDB, Snowflake, Databricks). Good knowledge of CI/CD principles (GitHub and GitHub Actions). Familiarity with MLOps practices, Kubernetes and Docker. Bachelor’s or Master’s degree in Computer Science, Data Science, Mathematics, Physics, or a related field. Mile widziane: Experience with Big Data technologies like Spark, Hadoop, and Kafka is a plus. O projekcie: As an Senior Data Scientist / Tech Lead, you will have the exciting opportunity to work with a team of technology experts on challenging projects across various industries, leveraging cutting-edge technologies. Here are some of the projects we are seeking talented individuals to join: • AI optimization engine for airport operation management. This project involves creating an AI-driven optimization engine to streamline airport operations, using real-time data from sources like radar, air traffic, and passenger information. • AI recommendation engine for the leading innovation company. This project involves creation of AWS-powered solutions to provide domain-specific recommendations by employing sophisticated LLMs. Zakres obowiązków: Lead the development, implementation, and validation of Machine Learning solutions, ensuring alignment with project objectives. Lead the design of AI solution architectures that meet complex business goals and drive innovation. Research, test and select the best tools and technologies as well as AI solutions to meet the business requirements. Lead and mentor cross-functional teams, encouraging collaboration and helping everyone grow their skills. Understand clients’ needs and translate business problems into data science problems. Architect and oversee the implementation of data pipelines and workflows, setting standards for data quality and security. Coordinate with Data Engineering and Software Engineering teams to strategize and oversee the building of AI applications.. Present findings and recommendations clearly and concisely to stakeholders. Prioritize, and control tasks within an Agile/Scrum framework, ensuring timely delivery. Oferujemy: Work in a supportive team of passionate enthusiasts of AI & Big Data. Engage with top-tier global enterprises and cutting-edge startups on international projects. Enjoy flexible work arrangements, allowing you to work remotely or from modern offices and coworking spaces. Accelerate your professional growth through career paths, knowledge-sharing initiatives, language classes, and sponsored training or conferences, including a partnership with Databricks, which offers industry-leading training materials and certifications. Choose your preferred form of cooperation - B2B or a contract of mandate - and enjoy 20 fully paid days off. Participate in team-building events and utilize the integration budget. Celebrate work anniversaries, birthdays, and milestones. Access medical and sports packages, eye care, and well-being support services, including psychotherapy and coaching. Get full work equipment for optimal productivity, including a laptop and other necessary devices. With our backing, you can boost your personal brand by speaking at conferences, writing for our blog, or participating in meetups. Experience a smooth onboarding with a dedicated buddy, and start your journey in our friendly, supportive, and autonomous culture.
Senior Data Scientist / ML Engineer
Addepto
⚲ Białystok, Gdańsk, Katowice, Kraków, Grzegórzki, Poznań, Warszawa, Śródmieście, Wrocław, Stare Miasto
19 320–25 200 zł / mies. (zal. od umowy)
Wymagania
- Python
- Docker
- Machine Learning
- LLMs
- GenAI
- Data Science
- AWS
- AI Agents
- Kubernetes
- CI/CD
- RAG
Nasze wymagania: Proven commercial experience (+5 years) designing and implementing scalable AI solutions (Machine Learning, Predictive Modeling, Optimization, LLM, NLP, Computer Vision, GenAI). Proficiency in developing ML algorithms from scratch to production deployment. Strong programming skills in Python: writing clean code, OOP design, extensive knowledge of ML libraries (Scikit-Learn, PyTorch / Tensorflow). Proven expertise in deploying solutions in cloud environments (AWS or Azure). Knowledge in applying LLMs (AI agents, semantic search, prompt engineering, multimodal embeddings, RAG). High proficiency in English (C1 level). Excellent communication skills and consulting experience with direct interaction with clients. Working experience in SQL and NoSQL databases (MongoDB, Snowflake, Databricks). Good knowledge of CI/CD principles (GitHub and GitHub Actions). Familiarity with MLOps practices, Kubernetes and Docker. Bachelor’s or Master’s degree in Computer Science, Data Science, Mathematics, Physics, or a related field. Mile widziane: Experience with Big Data technologies like Spark, Hadoop, and Kafka is a plus. Leadership and mentoring experience is highly desirable. O projekcie: As a Senior Data Scientist / ML Engineer, you will have the exciting opportunity to work with a team of technology experts on challenging projects across various industries, leveraging cutting-edge technologies. Here are some of the projects we are seeking talented individuals to join: • AI optimization engine for airport operation management. This project involves creating an AI-driven optimization engine to streamline airport operations, using real-time data from sources like radar, air traffic, and passenger information. • AI recommendation engine for the leading innovation company. This project involves creation of AWS-powered solutions to provide domain-specific recommendations by employing sophisticated LLMs. Zakres obowiązków: Lead the development, implementation, and validation of Machine Learning solutions, ensuring alignment with project objectives. Lead the design of AI solution architectures that meet complex business goals and drive innovation. Research, test and select the best tools and technologies as well as AI solutions to meet the business requirements. Understand clients’ needs and translate business problems into data science problems. Architect and oversee the implementation of data pipelines and workflows, setting standards for data quality and security. Coordinate with Data Engineering and Software Engineering teams to strategize and oversee the building of AI applications. Present findings and recommendations clearly and concisely to stakeholders. Prioritize, and control tasks within an Agile/Scrum framework, ensuring timely delivery. Oferujemy: Work in a supportive team of passionate enthusiasts of AI & Big Data. Engage with top-tier global enterprises and cutting-edge startups on international projects. Enjoy flexible work arrangements, allowing you to work remotely or from modern offices and coworking spaces. Accelerate your professional growth through career paths, knowledge-sharing initiatives, language classes, and sponsored training or conferences, including a partnership with Databricks, which offers industry-leading training materials and certifications. Choose your preferred form of cooperation - B2B or a contract of mandate - and enjoy 20 fully paid days off. Participate in team-building events and utilize the integration budget. Celebrate work anniversaries, birthdays, and milestones. Access medical and sports packages, eye care, and well-being support services, including psychotherapy and coaching. Get full work equipment for optimal productivity, including a laptop and other necessary devices. With our backing, you can boost your personal brand by speaking at conferences, writing for our blog, or participating in meetups. Experience a smooth onboarding with a dedicated buddy, and start your journey in our friendly, supportive, and autonomous culture.
Senior Cloud Engineer Analytics & AI Platform
Digital Hub Warsaw at Bayer
⚲ Warszawa, Ochota
18 500–28 000 zł brutto / mies.
Nasze wymagania: Masters degree in Computer Science, Engineering, or similar 3-5 years of working experience in Microsoft Azure Cloud development (infrastructure as code) & proficient knowledge especially the Data Platform Stack (ML, Databricks, Data Factory, etc.) and Application Development Stack (Container Apps, Web Apps, etc.) Proficient Knowledge of Azure Network Design (Private Link, VPC Setup, Azure Firewall etc. ) and Azure Authentication Management Coding skills in PowerShell, Azure Resource Monitor/ARM, Bicep, Terraform as well as Infrastructure as Code, CI/CD, Github and Github Actions are a must Good knowledge about Data Modelling / Data Warehousing / Data Science / Application Development, Snowflake as a technology as well as platform architecture skills is a plus Problem solving - & analysis skills, combined with profound business judgement. Good documentation & communication skills (active listening, consulting, challenging) Intercultural awareness and willingness to travel. Fluent in English, both written & spoken. O projekcie: The Digital Transformation Unit of Bayer Consumer Health operates a global data & analytics cloud platform, which is the backbone of all data & (advanced) analytics products for Bayer Consumer Health. As Senior Cloud Engineer you are responsible to enable and manage Azure Cloud Services on a globally & scalable distributed data, analytics & AI platform. You will engage with Data Engineers, Data Architects, Data Scientists to derive together with Cloud Architects which Azure Services need to be enabled / adjusted and implement the respective features and/or changes, considering CI/CD and Infrastructure as Code Best Practices. Zakres obowiązków: Contribute to platform roadmap together with cloud architects, derive requirements for missing capabilities and participate in Azure service evaluation Plan, Design and Enable Services on Azure Cloud Platform & Databricks based on derived requirements in line with security guidelines & non-functional requirements like cost efficiency & scalability and documentation guidelines. Engage with the platform operations team and implement and deploy changes Train the platform operations team to operate the new features that you have built, provide them with the needed documentation Observe & assess platform compliance and implement solutions to ensure platform operations within compliance guidelines Engage with technology and implementation partners to overcome issues if required Engage with central cloud teams, network and security teams, cyber security teams to overcome issues if required and follow company best practices Oferujemy: Bonus (18%) + copyright-related tax-deductible costs (70%) A flexible, hybrid work model Great workplace in a new modern office in Warsaw Career development, 360° Feedback & Mentoring programme Wide access to professional development tools, trainings, & conferences Company Bonus & Reward Structure VIP Medical Care Package (including Dental & Mental health) Holiday allowance (“Wczasy pod gruszą”) Life & Travel Insurance Pension plan Co-financed sport card - FitProfit Meals Subsidy in Office Additional days off Budget for Home Office Setup & Maintenance Access to Company Game Room equipped with table tennis, soccer table, Sony PlayStation 5 and Xbox Series X consoles setup with premium game passes, and massage chairs Tailored-made support in relocation to Warsaw when needed Please send your CV in English
Senior AI/LLM Developer / Agent Systems / MLOps
PEOPLE TRUST SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Warszawa, Śródmieście
160–196 zł netto (+ VAT) / mies.
Wymagania
- LLM
- AI
Nasze wymagania: Praktyczna wiedza o LLM-ach oraz systemach agentowych, w tym doświadczenie w budowie infrastruktury MLOps. Doświadczenie w AI Coding – zarówno praktyczna, jak i teoretyczna znajomość agentów kodujących, automatycznego uczenia oraz metod oceny ich skuteczności. Minimm 5 lat doświadczenia komercyjnego, w tym co najmniej 2 lata pracy z LLM-ami i rozwiązaniami agentowymi. Solidne podstawy informatyczne: algorytmy, struktury danych oraz wysoka jakość pisanego kodu. Otwartość technologiczna – gotowość do pracy również z technologiami takimi jak Java czy PL/SQL, jeśli wymaga tego projekt. Pozytywne podejście do systemów legacy – brak obaw przed analizą starego oprogramowania i motywacja do jego modernizacji. O projekcie: Działamy na rynku od ponad 6 lat i wierzymy, że modernizacja oprogramowania nie musi być kosztowna ani bolesna. Tworzymy jedne z najbardziej zaawansowanych rozwiązań na rynku do migracji systemów oraz zmiany platform bazodanowych. Obecnie budujemy platformę automatycznej odbudowy wiedzy o systemach legacy. Nasze rozwiązanie opiera się w dużej mierze na najnowszych modelach LLM oraz zaawansowanej analizie statycznej kodu. Szukamy osoby, która pomoże nam rozwinąć procesy uczenia maszynowego oraz architekturę agentową, łącząc podejście badawcze z dojrzałym rozwojem produktu. Zakres obowiązków: Wdrażaniem pętli automatycznego uczenia modeli LLM w oparciu o sprzężenie zwrotne ze środowisk wykonawczych oraz budową infrastruktury potrzebnej do ich działania. Context engineeringiem – projektowaniem i nadzorowaniem strategii dostarczania kontekstu do modeli. Budową i rozwijaniem fine-tunowanych modeli dostosowanych do specyficznych zadań modernizacyjnych. Projektowaniem i rozwojem infrastruktury wieloagentowej dedykowanej naszym unikalnym wyzwaniom technologicznym. Rozwojem systemów RAG oraz narzędzi (tools) wykorzystywanych przez agentów. Wspieraniem merytorycznym zespołu w obszarze AI/LLM.
Python Developer
ITHOUSE SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Warszawa, Wola
Wymagania
- Python
- LLM
- Pydantic
- OWASP TOP 10
- prompt engineering
- Burp Suite
- Nmap
- Nessus
- Kali Linux
- OWASP ZAP
Nasze wymagania: Over 3 years of experience in Python, with skills in task automation. Basic familiarity with LLMs, along with the ability to develop code-level integrations of LLMs into software applications. Mile widziane: Experience with Python frameworks used in building AI-driven systems (e.g. Pydantic). Experience with LLMs and prompt engineering. Understanding of common vulnerability mechanisms from the OWASP Top 10. Familiarity with security testing tools, including Burp Suite, OWASP ZAP, Nessus, Nmap, Kali Linux. Knowledge of operating system internals (Linux kernel). O projekcie: You'll be joining a world-renowned product company, working on cutting-edge solutions used by millions around the world. The project operates in a truly international environment. This is a great opportunity for someone looking to grow: both technically and professionally. You'll collaborate with highly experienced specialists who value quality, knowledge sharing, and continuous improvement. The bar is set high, but that’s exactly what makes this an inspiring and rewarding place to be. What makes this project stand out is the real impact you’ll have. Your ideas matter, and your voice will be heard. It’s a setup that fosters innovation and creates impact on a global scale. Zakres obowiązków: Develop robust, automated tools for accurately detecting security vulnerabilities in modern web applications. Design innovative, AI-driven solutions that utilize the latest advancements in machine learning and automated reasoning. Deploy these advanced systems to detect vulnerabilities at scale, enabling continuous and large-scale security assessments across a wide range of web platforms. Oferujemy: Stable employment based on an employment contract (umowa o pracę) A hybrid work setup in the heart of Warsaw, we meet in the office 3 days a week to collaborate and connect Access to a benefits platform tailored to your lifestyle and needs (Multisport, Private Medical Care, Lunch card, Life insurance, unlimited free access to Copernicus Science Center) Daily collaboration with a diverse, international team Flexibility to explore different projects over time, we support growth and change Regular team-building activities and integration initiatives to keep the vibe strong All the tools you need, we’ll provide both hardware and software
Project Manager (AI Projects)
DPDgroup IT Solutions sp. z o.o.
⚲ Warszawa, Włochy
14 000–18 000 zł netto (+ VAT) / mies.
Wymagania
- Zendesk
Nasze wymagania: Minimum 3-5 years of experience as a Project Manager / Product Manager / Tech PM in IT; experience with AI, data, ML, or analytics projects is a plus Very good verbal and written communication skills (Polish and English - working in an international Geopost environment) Hands-on experience delivering projects end-to-end: from needs analysis, through delivery, to implementation and impact measurement Good understanding of AI/ML fundamentals (e.g., traditional ML models, NLP, LLMs, agentic AI, workflows leveraging language models) - you understand limitations, data dependencies, and the model lifecycle, and you are genuinely curious about the latest developments in AI, actively follow emerging trends, tools, and approaches, and continuously explore evolving market best practices to apply them pragmatically in real-world projects Ability to work with technical teams (Data science, ML engineering, AI architecture, Software engineering) and ask the right technical questions, without the need to code independently Experience working with business stakeholders - gathering requirements, running workshops, managing expectations, prioritization Familiarity with project management tools (Jira or similar) and experience working in agile methodologies (Scrum, Kanban) Mile widziane: Experience in logistics, e-commerce, last-mile delivery, or related companies (e.g., parcel delivery, fulfillment Experience working with AI agents (e.g., chatbots, voicebots, employee copilots, ticket automation) Experience in international organizations or complex corporate structures Familiarity with basic tools: ticketing systems (e.g., Zendesk), analytics/BI tools, MLOps platforms O projekcie: Are you passionate about AI? Change the world of logistics with us at DPDgroup :) We are seeking an experienced project manager to serve as a true business partner in leading AI projects at DPDgroup IT Solutions Poland. Currently, we build and implement AI agents and data/ML solutions that support logistics operations, customer service, and process optimization. Your main responsibility will be delivering AI projects end-to-end: from understanding the business problem and planning the solution, through leading the team (data/ML/engineering), to rollout and achieving measurable operational results within the Geopost organization. Zakres obowiązków: Leading projects related to AI agents (e.g., customer service, operations support, process automation) as well as data/ML initiatives in a logistics environment Translating business needs (operations, sales, customer service, IT) into concrete roadmaps, requirements, and a product backlog Defining goals, KPIs, and success metrics for AI solutions (e.g., reduction in handling time, improvement of delivery SLA, contact automation, operational savings) Planning and coordinating the work of teams: automation engineers, software engineers, analysts, testers, and logistics domain experts Managing the entire project lifecycle: discovery, PoC/MVP, pilot, scaling, maintenance, and continuous optimization Managing risks in AI projects (data availability and quality, model complexity, integrations, business-side changes) Structured communication with stakeholders: statuses, decisions, priorities, presenting results and recommendations at the business level Co-creating standards for running AI/ML projects within the organization (processes, artifacts, best practices) Close collaboration with logistics process owners in defining use cases, A/B tests, and rollouts Oferujemy: Salary: 14000-18000 net/B2B (depends on experience) Participation in AI projects at one of the largest logistics players in Europe, with real impact on operations and the experience of millions of users Opportunity to work on modern solutions (LLMs, AI agents, data/ML) in close collaboration with business stakeholders Real influence on shaping the AI project delivery process and standards within the organization Work-life balance: flexible hours and a hybrid service delivery model - twice a week at the office Annual evaluation meetings A friendly Buddy to guide you through the onboarding, further training, and career opportunities Training possibilities for personal development after completing the onboarding period (3 months) Space to implement your own ideas An open and casual company culture filled with internal events (Yearly event, Christmas party) The opportunity to quickly develop professionally on projects in Europe and all over the world Employee Referral Program
Programista / Programistka AI/ML
Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie
⚲ Kraków, Krowodrza
12 000–18 000 zł brutto / mies.
Wymagania
- Python
- GraphQL
- PyTorch
- TensorFlow
- Hugging Face
- spaCy
- Docker
- Kubernetes
Nasze wymagania: wykształcenie wyższe o profilu technicznym minimum 5 lat doświadczenia zawodowego bardzo dobra znajomość języka Python oraz doświadczenie w realizacji projektów produkcyjnych w tym środowisku doświadczenie w projektowaniu i tworzeniu skalowalnych usług oraz interfejsów API, przygotowanych do obsługi dużych wolumenów danych (REST, GraphQL, rozwiązania kolejkowe i event-driven) doświadczenie w uruchamianiu, optymalizacji i serwowaniu lokalnych modeli LLM (np. Ollama, vLLM) doświadczenie w budowaniu rozwiązań AI opartych o LLM i NLP, w tym: prompt engineering, embeddings, fine-tuning, RAG, wyszukiwanie semantyczne dobra znajomość zagadnień przetwarzania języka naturalnego (NLP): tokenizacja, klasyfikacja tekstu, ekstrakcja informacji, similarity search, ewaluacja jakości modeli językowych dobra znajomość różnych modeli bazodanowych (relacyjne, kolumnowe, grafowe, dokumentowe, wektorowe) wraz z umiejętnością doboru i wdrażania rozwiązań adekwatnych do wymagań funkcjonalnych i wydajnościowych dobra znajomość popularnych bibliotek i frameworków ML/NLP (PyTorch, TensorFlow, Hugging Face, spaCy) doświadczenie w konfiguracji i utrzymaniu środowisk serwerowych, konteneryzacji aplikacji (Docker, Kubernetes), automatyzacji procesów CI/CD oraz monitoringu usług produkcyjnych samodzielność, skrupulatność, dbałość o szczegóły oraz wysoki poziom odpowiedzialności za realizowane zadania O projekcie: W związku z realizacją projektów finansowanych przez Narodowe Centrum Badań i Rozwoju poszukujemy osób zainteresowanych współpracą w roli Programisty/Programistki AI/ML. Dołączysz do zespołu specjalistów odpowiedzialnych za tworzenie i rozwój narzędzi analitycznych. Zakres obowiązków: analiza problemów biznesowych, projektowanie i realizacja rozwiązań opartych o modele AI/ML dobór algorytmów, modeli oraz metryk oceny jakości integracja modeli AI/ML z systemami produkcyjnymi (API, mikrousługi) przygotowywanie odpowiednich zbiorów testowo-treningowych dla potrzeb testów i demonstracji modeli oraz rozwiązań opracowywanie i realizacja odpowiednich usług związanych z efektywnym przetwarzaniem i przechowywaniem danych wdrażanie i utrzymanie modeli w środowiskach produkcyjnych automatyzacja procesów trenowania, testowania i wdrażania (MLOps, CI/CD) tworzenie dokumentacji i instrukcji dla potrzeb zespołu i klienta aktywne uczestnictwo w pracach zespołu, dzieląc się wiedzą i doświadczeniem Oferujemy: pracę przy ciekawych i ambitnych projektach współtworzenie zespołu AI/ML tworzącym autorskie rozwiązania dla niestandardowych zastosowań stabilną współpracę
Pre-Sales Engineer (AI & Big Data)
Addepto
⚲ Białystok, Gdańsk, Kraków, Grzegórzki, Warszawa, Śródmieście, Wrocław, Stare Miasto
Wymagania
- Python
- AI
- ML
- Generative AI
- Machine Learning
- Data Engineering
- Cloudflare
- Big Data
- Databricks
Nasze wymagania: Undergraduate degree or higher in Computer Science, Data Science, Engineering, or related field – or equivalent hands-on experience. Proven experience in technical roles – e.g., exposure to AI/ML products, data platforms, consulting services, solution engineering, or cloud architecture. Foundational understanding of public cloud platforms (AWS, Azure, GCP) with experience deploying cloud-based AI solutions and/or modern data platform architectures. Comfortable working across multiple clients and projects, often in parallel, with strong organizational and time management skills. A strong foundational understanding of AI/ML workflows – from data preprocessing and model training to evaluation and deployment. Familiarity with LLM-based applications, including embeddings, vector databases, and orchestration frameworks (e.g., LangChain, LlamaIndex). Working knowledge of MLOps and orchestration tools like MLflow, Airflow, Kubeflow, Vertex AI, or SageMaker. Proficiency in Python and experience with common AI/ML libraries such as pandas, scikit-learn, PyTorch, or TensorFlow. Understanding of modern data architectures and data engineering concepts, including ETL/ELT pipelines, big data processing, and cloud data services (e.g., Azure Data Factory, Azure Synapse, Databricks, or similar platforms). Strong communication skills, with the ability to simplify complex concepts for diverse audiences, including AI engineers, data scientists, data engineers, and non-technical stakeholders. Excellent English (at least C1 level). Excellent time management and multitasking ability – comfortable working across several customer projects and internal teams. Mile widziane: Exposure to or interest in sales processes, technical demos, and customer-facing engagements. O projekcie: We are looking for a Pre-Sales Engineer to help clients unlock the value of modern AI and data platforms. In this role, you will support organizations in the early stages of their transformation by aligning technical solutions – such as machine learning, LLM-based applications, and cloud data platforms – with their strategic business goals. You will become an expert in our consulting offerings across AI/ML, LLM integrations, and modern data engineering solutions, acting as a trusted technical advisor during pre-sales engagements. Working closely with sales, delivery, and engineering teams, you will help shape solution concepts, support technical discovery, and ensure a smooth transition from early discussions to project implementation. Zakres obowiązków: Serve as a technical advisor during pre-sales and early engagement stages, helping clients understand what’s possible with AI/LLMs and modern data platforms, and how these capabilities align with their strategic business goals. Lead or support technical discovery sessions, clarifying business problems, identifying solution patterns, and assessing feasibility across both AI/ML and data platform initiatives. Design and communicate solution architectures, including LLM integrations, AI/ML solution designs, retrieval-augmented generation (RAG), vector databases, orchestration pipelines, and data flows, as well as modern cloud data architectures such as data lakes, data warehouses, and big data processing solutions. Create and deliver technical PoCs and PoVs, demo narratives, and early prototypes to support proposals and shape delivery, including solutions leveraging AI/ML as well as modern data engineering and analytics platforms. Contribute to internal R&D by evaluating emerging AI tools, libraries, frameworks, and modern data technologies (e.g., cloud-native data platforms, data engineering tools), and translating insights into recommendations for internal teams and clients. Collaborate with sales, delivery, and engineering teams to ensure a smooth transition from pre-sales, through technical scoping and solution design, to hand-off to delivery teams and full implementation. Oferujemy: Work in the rapidly evolving world of AI & Big Data. Engage with top-tier global enterprises and cutting-edge startups on international projects. Enjoy flexible work arrangements, allowing you to work remotely or from modern offices and coworking spaces. Accelerate your professional growth through career paths, knowledge-sharing initiatives, language classes, and sponsored training or conferences, including a partnership with Databricks, which offers industry-leading training materials and certifications. Choose your preferred form of cooperation: B2B or a contract of mandate, and enjoy 20 fully paid days off. Participate in team-building events and utilize the integration budget. Celebrate work anniversaries, birthdays, and milestones. Access medical and sports packages, eye care, and well-being support services, including psychotherapy and coaching. Get full work equipment for optimal productivity, including a laptop and other necessary devices. With our backing, you can boost your personal brand by speaking at conferences, writing for our blog, or participating in meetups. Experience a smooth onboarding with a dedicated buddy, and start your journey in our friendly, supportive, and autonomous culture.
Mid Java Developer ( projekt AI/ML)
J-LABS sp. z o.o.
⚲ Kraków, Podgórze
125–145 zł netto (+ VAT) / godz.
Wymagania
- Java
- Spring
- Spring Boot
- Docker
- Kafka
Nasze wymagania: Minimum 4 lata doświadczenia na podobnym stanowisku Dobra znajomość Java, Spring, Spring Boot Doświadczenie w tworzeniu i integracji z REST API Umiejętność samodzielnego rozwiązywania problemów Znajomość CI/CD i konteneryzacji (Docker) Doświadczenie w pracy w środowisku Agile / Scrum Swobodna komunikacja w języku angielskim i polskim (poziom co najmniej B2). Mile widziane: Doświadczenie w projektach AI/ML Znajomość Kafka O projekcie: Dołączysz do zespołu rozwijającego centralną platformę AI, która umożliwia hostowanie i wykorzystywanie modeli ML w innych aplikacjach bankowych. Projekt jest greenfieldowy, w pełni skupiony na rozwoju nowych funkcjonalności, z architekturą mikroserwisową i pracą w metodyce Scrum / Agile. Zespół rozwija platformę opartą na rozwiązaniach OpenAI, z silnym naciskiem na automatyzację, wysoką jakość kodu i nowoczesne praktyki inżynierskie. Środowisko testowe oparte jest na konteneryzacji (OpenShift/Docker/Kubernetes), a frontend wykorzystuje Angular i automatyzację testów przy użyciu Playwright. Backend działa w Java + Spring Boot, a proces code review i repozytoria testowe wspierają utrzymanie wysokich standardów jakości. Stack w projekcie: Java 17+, Spring Boot, Hibernate, Kafka, Rest API, SOAP, SQL, PowerShell, Kubernetes, GIT, OpenShift, Angular, Docker, Python, LLM / AI / ML Zespół liczy około 25 osób, w tym specjalistów wspierających projekt z USA. W jego skład wchodzą eksperci z dziedziny Data Science, MLOps, programiści Python oraz Java/Angular. Zespół koncentruje się na wdrażaniu rozwiązań opartych na sztucznej inteligencji, automatyzacji procesów biznesowych oraz stosowaniu nowoczesnych praktyk inżynierskich, aby zapewnić wydajne i skalowalne rozwiązania technologiczne. Zakres obowiązków: Tworzenie i rozwój backendu w Java + Spring Boot w architekturze mikroserwisowej Tworzenie i integracja REST API dla platformy i aplikacji klienckich Integracja i wdrożenie modeli ML w środowisku produkcyjnym Praca z narzędziami CI/CD oraz konteneryzacją (Docker / Kubernetes / OpenShift) Projektowanie i optymalizacja zapytań do baz danych (Oracle / SQL Server) Zapewnienie bezpieczeństwa aplikacji (OAuth, OIDC, SAML) Współpraca z zespołami Data Science, MLOps i frontendowymi Udział w zapewnianiu wysokiej jakości testów automatycznych (~95% pokrycia) Praca w metodyce Agile / Scrum Oferujemy: Dołączysz do firmy stworzonej przez inżynierów dla inżynierów, która istnieje na rynku od 15 lat. Obecnie zatrudniamy ponad 500 osób. j-labs to stabilność i długofalowa współpraca – około 25% załogi to osoby pracujące już ponad 5 lata! Eksperci przyciągają ekspertów - średnie doświadczenie naszych inżynierów wynosi 11 lat, a 30% zostaje zatrudnionych z polecenia. Stawiamy na knowledge sharing i rozwój. Organizujemy Talk4Devs, meet’upy, dajemy Ci przestrzeń do budowania swojej marki osobistej jako prelegent, czy prowadzenia własnych projektów, których rezultaty możesz przedstawiać m.in. na naszym blogu. Możesz dołączyć do Gildii Technologicznej lub stworzyćwłasną - nasze community zrzeszają specjalistów w obszarach: Java, Kotlin, .NET, Frontend, Management, DevOps, Quality Assurance.
Mid Full-Stack Engineer (AI)
ARDENTCODE I sp. z o.o.
⚲ Warszawa, Wola, Wrocław, Krzyki
16 000–20 000 zł netto (+ VAT) / mies.
Wymagania
- JavaScript
- React.js
- Node.js
- TypeScript
- Python
- Django
Nasze wymagania: Minimum 4 lata doświadczenia komercyjnego w wytwarzaniu aplikacji. Bardzo dobra znajomość tworzenia aplikacji webowych (front-end), w tym pracy z API i integracjami. Praktyczne doświadczenie z nowoczesnym ekosystemem JS/TS (szczególnie React; Node.js jako duży plus). Umiejętność pracy z istniejącymi systemami (legacy) i budowania rozwiązań „obok”, które muszą działać stabilnie od pierwszego dnia. Dobre praktyki inżynierskie: testy, refactoring, czytelny kod, odpowiedzialność za dowiezienie. Komunikatywność i nastawienie na współpracę z zespołem oraz klientem. Bardzo dobra znajomość języka angielskiego (komunikacja w projekcie). Bardzo dobra znajomość języka polskiego. O projekcie: Szukamy Mid Full-Stack Engineera z minimum 4 latami komercyjnego doświadczenia, który dołączy do projektu z branży Music Publishing (global royalty collection). To rola dla osoby, która lubi modernizować dojrzałe systemy, myśli produktowo i potrafi dowozić w środowisku integrującym „nowe” ze „starym”. 🎵 Projekt Rozwój nowej wersji aplikacji wykorzystywanej w obszarze global royalty collection (music publishing). Obecna aplikacja działa ponad 10 lat – teraz celem jest: • modernizacja i rozwój nowej wersji systemu, • optymalizacja procesów developerskich oraz przygotowanie ich pod wykorzystanie AI. W tle funkcjonuje istniejący back-end, a nowa część będzie budowana jako nowoczesna aplikacja webowa. Stack technologiczny Nowa aplikacja (front-end): React + Node.js (TypeScript mile widziany). Dodatkowo w projektach spotkasz też typowe elementy współczesnego SDLC: REST/HTTP API, testy, CI/CD, praca zespołowa w iteracjach. Obecnie (back-end): Python + Django (system istniejący, z którego korzysta nowa aplikacja). Zakres obowiązków: Rozwój nowej wersji aplikacji (front-end) w nowym stacku, przy ścisłej integracji z istniejącymi usługami back-end. Współpraca z zespołem w analizie domeny i procesów (royalty collection) oraz przekładanie wymagań na rozwiązania techniczne. Dostosowanie procesu SDCL do integracji z technologiami AI. Dbanie o jakość: testy, code review, standardy wytwarzania, czytelność i utrzymywalność kodu. Współpraca z klientem (międzynarodowe środowisko) i wspólne wypracowywanie rozwiązań. Oferujemy: Dużo samodzielności i odpowiedzialności, Współpracę z doświadczonym zespołem (międzynarodowym), który stawia na jakość i partnerskie podejście. Możliwość rozwoju kompetencji w ramach projektu oraz indywidualnie, Możliwość pracy zdalnie, hybrydowo lub w jednym z naszych biur (Wrocław/Warszawa), Atrakcyjne wynagrodzenie oraz współpracę w modelu B2B.
Machine Learning /AI Engineer (Reinforcement Learning)
ACAISOFT POLAND Sp. z o.o.
⚲ Warszawa, Mokotów
25 000–38 640 zł netto (+ VAT) / mies.
Wymagania
- Python
- Langchain
- Langraph
- Claude Code
- Codex
- Reinforcement Learning
Nasze wymagania: 6+ years of experience in Python software engineering. Minimum 3 years in a Machine Learning/Environment Engineering, Data Scientist position. Practical knowledge of AI frameworks (Langchain, Langraph, mcp-server ). Extensive practical experience in working with AI, including prompt engineering and vibe coding. Experience in working with business requirements (analysis, summarizing, responding to changes). Expertise in planning your own work or that of a small team. Being able to work 2 p.m. - 10 p.m. Mile widziane: Knowledge of Codex or Claude Code. Experience in integrating AI with a system would be an advantage. Understanding of RL concepts - reward modeling, environment dynamics, verifiability, evaluation, and agent interaction loops. Familiarity with instrumentation, metrics, and data pipelines for RL evaluation. O projekcie: You will be cooperating with a leading provider of AI evaluation and optimization solutions, trusted by multinational companies to optimize AI agents and detect performance issues in large language models. In this role, you’ll help develop advanced reinforcement learning (RL) environments and scalable evaluation systems that guide and shape the behavior of cutting-edge AI models. The company’s mission is to enable safe, verifiable, and aligned AGI through rigorous, real-world agent evaluation. Due to the client’s time zone, we would appreciate a candidate who can work 2 p.m. - 10 p.m. Join us and make a real impact! If you’re ready to broaden your horizons and work with an innovative company at the forefront of AI, we’d love to hear from you. You’ll help build the environments that shape how future AI systems are trained, evaluated, and aligned - and collaborate with world-class engineers and researchers on one of the most important technical challenges of our time. Zakres obowiązków: Design and implement RL environments that support large-scale agent evaluation and reinforcement learning experiments. Build task generation pipelines, dynamic datasets, and scripted environments with controlled complexity and stochasticity. Develop verifiers and reward models to automatically score trajectories and evaluate model reasoning. Collaborate with infrastructure and systems engineers to ensure environments are scalable, reproducible, and instrumented for detailed telemetry. Design APIs and orchestration frameworks for running, resetting, and evaluating agents across environments. Optimize environment performance, logging, and reward reproducibility across distributed setups. Oferujemy: Great atmosphere - we value a friendly, informal atmosphere, and direct contact with everyone in the company. Outstanding People - we understand that great teams are about personalities, not just skills. Therefore our team accommodates a fantastic blend of individuals and management that removes roadblocks. Modern technologies - we use proven technologies that are currently up-to-date. Even if you have not used all of them, you can make up for it with us! Private medical care and Multisport - we care about your health and wellbeing so you’ll get access to private medical care for you and your family, and partial funding for a sports card.
Lead Data Scientist / ML Engineer
Addepto
⚲ Gdańsk, Katowice, Kraków, Grzegórzki, Poznań, Warszawa, Śródmieście, Wrocław, Stare Miasto
19 320–28 560 zł / mies. (zal. od umowy)
Wymagania
- Python
- Docker
- LLM
- ML
- GenAI
- AI agents
- AWS
- MLOps
Nasze wymagania: Proven commercial experience (+5 years) designing and implementing scalable AI solutions (Machine Learning, Predictive Modeling, Optimization, LLM, NLP, Computer Vision, GenAI). Proficiency in developing ML algorithms from scratch to production deployment. Strong programming skills in Python: writing clean code, OOP design, extensive knowledge of ML libraries (Scikit-Learn, PyTorch / Tensorflow). Proven expertise in deploying solutions in cloud environments (AWS or Azure). Knowledge in applying LLMs (semantic search, prompt engineering, multimodal embeddings, RAG). High proficiency in English (C1 level). Excellent communication skills and consulting experience with direct interaction with clients. Working experience in SQL and NoSQL databases (MongoDB, Snowflake, Databricks). Good knowledge of CI/CD principles (GitHub and GitHub Actions). Familiarity with MLOps practices, Kubernetes and Docker. Bachelor’s or Master’s degree in Computer Science, Data Science, Mathematics, Physics, or a related field. Mile widziane: Experience with Big Data technologies like Spark, Hadoop, and Kafka is a plus. Leadership and mentoring experience is highly desirable. O projekcie: As a Lead Data Scientist / ML Engineer, you will have the exciting opportunity to work with a team of technology experts on challenging projects across various industries, leveraging cutting-edge technologies. Here are some of the projects we are seeking talented individuals to join: • AI optimization engine for airport operation management. This project involves creating an AI-driven optimization engine to streamline airport operations, using real-time data from sources like radar, air traffic, and passenger information. • AI recommendation engine for the leading innovation company. This project involves creation of AWS-powered solutions to provide domain-specific recommendations by employing sophisticated LLMs. Zakres obowiązków: Lead the development, implementation, and validation of Machine Learning solutions, ensuring alignment with project objectives. Lead the design of AI solution architectures that meet complex business goals and drive innovation. Research, test and select the best tools and technologies as well as AI solutions to meet the business requirements. Understand clients’ needs and translate business problems into data science problems. Architect and oversee the implementation of data pipelines and workflows, setting standards for data quality and security. Coordinate with Data Engineering and Software Engineering teams to strategize and oversee the building of AI applications. Present findings and recommendations clearly and concisely to stakeholders. Prioritize, and control tasks within an Agile/Scrum framework, ensuring timely delivery. Oferujemy: Work in a supportive team of passionate enthusiasts of AI & Big Data. Engage with top-tier global enterprises and cutting-edge startups on international projects. Enjoy flexible work arrangements, allowing you to work remotely or from modern offices and coworking spaces. Accelerate your professional growth through career paths, knowledge-sharing initiatives, language classes, and sponsored training or conferences, including a partnership with Databricks, which offers industry-leading training materials and certifications. Choose your preferred form of cooperation - B2B or a contract of mandate - and enjoy 20 fully paid days off. Participate in team-building events and utilize the integration budget. Celebrate work anniversaries, birthdays, and milestones. Access medical and sports packages, eye care, and well-being support services, including psychotherapy and coaching. Get full work equipment for optimal productivity, including a laptop and other necessary devices. With our backing, you can boost your personal brand by speaking at conferences, writing for our blog, or participating in meetups. Experience a smooth onboarding with a dedicated buddy, and start your journey in our friendly, supportive, and autonomous culture.
Junior Computer Vision Engineer (F/M)
Transfer Multisort Elektronik Sp. z o.o.
⚲ Rzgów
Wymagania
- C++
- Python
- Git
- Visual Studio
Nasze wymagania: wykształcenie wyższe, kierunki: informatyka, elektronika i pokrewne; komunikatywna znajomość języka angielskiego B1/ B2; znajomość języków programowania C++ i Python w stopniu co najmniej średniozaawansowanym; umiejętność pisania czystego kodu i znajomość dobrych praktyk programistycznych; znajomość systemu kontroli wersji Git. Mile widziane: znajomość podstaw algebry liniowej; znajomość algorytmów analizy obrazów i/lub chmur punktów 3D (detekcja obiektów, segmentacja, śledzenie itp.); znajomość Visual Studio; roczne doświadczenie na podobnym stanowisku; zainteresowania nowoczesnymi rozwiązaniami na rynku technologicznym w zakresie analizy obrazu, systemów wizyjnych, systemów optycznych. Zakres obowiązków: projektowanie i programowanie autorskich systemów wizyjnych do współpracy z robotami z wykorzystaniem algorytmów komputerowej analizy obrazów i uczenia maszynowego; praca nad projektami R&D, poszukiwanie nowych rozwiązań; rozwój i utrzymywanie kodu w językach C++ i Python; przygotowanie i obróbka danych potrzebnych do testowania rozwiązań. Oferujemy: Nazwa stanowiska nie determinuje płci osoby, która może je zajmować.
Inżynier / Inżynierka Machine Learning / MLOps (Middle)
B2B.NET S.A.
⚲ Warszawa
Wymagania
- Python
- Linux
- ML
- LLM
- Kubernetes
- MLOps
- LLMOps
- Big Data
Nasze wymagania: Bardzo dobra znajomość Python (kod produkcyjny, nie tylko notebooki) Doświadczenie we wdrażaniu aplikacji ML/LLM na środowiska produkcyjne Bardzo dobra znajomość Linux (Debian / RHEL) – praca w terminalu, analiza logów, diagnostyka problemów Praktyczne doświadczenie z Kubernetes – deployment, utrzymanie, troubleshooting aplikacji konteneryzowanych Doświadczenie z Google Cloud Platform (GCP) Umiejętność projektowania i implementacji aplikacji z wykorzystaniem Machine Learning oraz Large Language Models (LLM) Znajomość praktyk DevOps / MLOps (CI/CD, automatyzacja, zarządzanie cyklem życia modeli) Samodzielność w diagnozowaniu i rozwiązywaniu problemów produkcyjnych Mile widziane: Doświadczenie w obszarze MLOps / LLMOps / Big Data Praca z narzędziami CI/CD (Jenkins, GitLab CI) Doświadczenie z hurtowniami danych i procesami ETL Znajomość narzędzi typu Airflow Doświadczenie z uruchamianiem modeli LLM w chmurze lub na infrastrukturze GPU O projekcie: Dołączysz do kilkuosobowego zespołu działającego w ramach MLOps i Formacji Sztucznej Inteligencji w dużej instytucji finansowej. Projekt dotyczy rozwiązań AI wykorzystywanych w skali enterprise. Twoją rolą będzie przenoszenie modeli z fazy eksperymentalnej do stabilnego środowiska produkcyjnego oraz dbanie o ich wydajność, skalowalność i niezawodność. To stanowisko dla osoby, która łączy kompetencje programistyczne, infrastrukturalne i ML oraz dobrze odnajduje się na styku developmentu oraz operacji. Zakres obowiązków: Projektowanie i implementacja aplikacji ML/LLM Wdrażanie i utrzymanie rozwiązań na środowiskach Linux + Kubernetes + GCP Rozwiązywanie problemów produkcyjnych (wydajność, skalowanie, monitoring) Współtworzenie standardów MLOps w organizacji Udział w inicjatywach rozwojowych zespołu AI Oferujemy: Pracę z nowoczesnymi technologiami ML i LLM w dużej organizacji finansowej Stabilny, długofalowy projekt (12+ miesięcy) Elastyczny model pracy – tylko 1 dzień w tygodniu w biurze Realny wpływ na rozwój rozwiązań AI w skali enterprise Możliwość rozwoju kompetencji w obszarze ML/MLOps
Group Digital Transformation Lead (F/M/D)
JJP VENTURES Sp. z o.o.
⚲ Warszawa
Nasze wymagania: Higher education in a technical, business or related field (computer science, management, data analysis). Minimum 8–10 years’ experience in IT, digital transformation, including hands-on experience testing and implementing IT solutions. Experience working within capital group structures or multi-entity environments. Experience in change management and complex project delivery, especially digital & data transformation and AI-related initiatives. Very good knowledge of IT architecture, data technologies, and AI tools. Knowledge of current regulatory requirements relating to information & IT security, and AI. Strong skills in digital services providers’ market research globally and locally (Poland). Ability to build relationships and collaborate with diverse stakeholders. Strategic and analytical thinking, with a strong delivery focus. Very good command of English, spoken and written (essential due to work in an international team). Desirable: ability to configure IT environments and to code at a level enabling independent testing of solutions, especially AI. Zakres obowiązków: Oversight of key transformation initiatives. Defining digital standards and overseeing their implementation across the entities. Monitoring technology trends and recommending directions for development. Collaboration with Group IT and security departments. Working within the hub coordinating the digital transformation of affiliated companies. Identifying needs and implementing solutions supporting process optimisation and consolidation of tools and systems. Participating in defining and implementing consistent IT architecture and cyber security standards. Creating a data management strategy, including data governance and data quality, taking into account regulatory requirements for data security. Increasing effectiveness in delivering data- and AI-based projects. Supporting operational units in developing AI and analytics capabilities. Recommending technology investments. Monitoring the effectiveness of delivered projects and reporting progress. Promoting a data-driven approach across the Group. Supporting the development of employees’ digital skills and capabilities. Promoting data quality standards and responsible use of data. Oferujemy: The opportunity to continue your professional development within organizations associated with one of Poland’s most renowned entrepreneurs (ranked in the Forbes Top 10). Work in a diverse environment, as part of a team of professionals with varied backgrounds who support and share knowledge with one another and grow professionally together. The opportunity to independently carry out a wide range of tasks. The opportunity to create and implement solutions. Benefits package (including a Multisport card, private health insurance, a meal card, and discounts on the Group’s products and services). Compensation commensurate with skills and experience.
GenAI Python Developer
DCV Technologies
⚲ Wrocław
Wymagania
- Python
- SQL
- Git
- Azure DevOps
Nasze wymagania: 5+ years Python development experience Hands-on experience building AI / GenAI systems Experience with agentic AI architectures (autonomous agents, planning, tool usage, memory) Experience calling APIs and handling async/streaming data Good understanding of Git workflows (branches, PRs, merge conflict resolution) Basic understanding of relational databases and SQL Strong collaboration and communication skills Ability to work hybrid in Wroclaw (2 days onsite) Mile widziane: Experience with LangChain, LangGraph or similar AI frameworks Experience with vector databases and embeddings Knowledge of prompt engineering Familiarity with Azure DevOps pipelines (CI/CD) Experience working with multi-agent systems Experience with memory management in LLM architectures Zakres obowiązków: Develop AI-driven applications using Python Design and implement GenAI workflows and AI agents Integrate external APIs and AI services Work with asynchronous and streaming data pipelines Collaborate with engineering teams in Agile/Scrum environments Implement AI orchestration and workflow management Maintain high-quality code using Git workflows Support data integration and backend services using SQL databases