Oferty pracy
Filtry
Product Manager (Remote from Poland)
Caspian One
⚲ Poland
2 000 - 2 600 PLN/dzień netto (B2B)
Wymagania
- AI
- Project Management
- Product Management
Senior AI Product Manager – AI Platforms & Financial Services We’re hiring a Senior AI Product Manager to drive the strategy, development, and adoption of advanced AI capabilities across a suite of front‑office and enterprise financial products. This role is all about shaping how AI is applied across the business, from intelligent knowledge systems to agentic AI coworkers and automated decision‑making workflows. You’ll work closely with engineering, data science, product owners, and end‑users to define requirements, translate complex AI/ML capabilities into practical product outcomes, and ensure these solutions deliver measurable value across the organisation. What You’ll Lead • End‑to‑end product strategy for AI‑powered tools used across financial domains • Defining product roadmaps for systems such as:• Smart RAG‑based knowledge platforms • Agentic AI coworkers for operational automation • AI‑driven workflow systems • Cross‑system AI orchestration • Partnering with data science and engineering teams to ensure alignment between technical feasibility and business needs • Running discovery with stakeholders to identify high‑value AI use cases • Translating business problems into well‑defined AI product requirements • Ensuring scalability, trust, governance, and compliance across AI solutions • Setting standards for how teams interact with and adopt AI across the organisation What You Bring • 10+ years in product management, product strategy, or financial systems ownership • 3+ years delivering or managing AI/ML‑powered products or workflows • Strong experience in financial services, capital markets, or complex enterprise systems • Ability to define product scope, business value, KPIs, and cross‑team alignment • Familiarity with AI/ML concepts (RAG, agentic systems, LLM workflows, model lifecycle) • Comfortable working in fast‑paced, ambiguous environments where AI capabilities are evolving • Excellent communication and stakeholder management, especially across technical and business groups
AI Engineer – pharmaceutical industry (f/m/x)
Sii
⚲ Białystok, Bydgoszcz, Gdańsk, Katowice, Kraków, Lublin, Łódź, Piła, Poznań, Rzeszów, Szczecin, Toruń, Warszawa, Wrocław
Wymagania
- Machine Learning
- AWS
- LLM
- CI/CD
- Kuberflow
- MLflow
Poszukujemy doświadczonego inżyniera ds. sztucznej inteligencji, który pomoże nam odpowiedzialnie kształtować i zarządzać szybko rozwijającym się ekosystemem narzędzi opartych na sztucznej inteligencji. Jest to strategiczna, skoncentrowana na inżynierii rola dla kogoś, kto potrafi przekształcić modele AI/ML Engineer - w tym rozwiązania oparte na LLM - w stabilne, skalowalne i dobrze monitorowane systemy produkcyjne. Jeśli masz praktyczny sposób myślenia, czujesz się pewnie pracując z infrastrukturą, pipeline'ów i automatyzacji, i rozumiesz realia pracy w regulowanym środowisku (farmacja / GxP), możesz być dokładnie tym, kogo szukamy! Twoje zadania • Projektowanie, wdrażanie i utrzymywanie kompleksowych potoków MLOps/LLMOps na potrzeby CI/CD i monitorowania jakości danych modeli AI. • Tworzenie solidnych i skalowalnych interfejsów API i usług do wdrażania i obsługi modeli AI/ML, w tym wykrywania anomalii i predykcyjnej oceny jakości danych. • Integracja i wykorzystanie zaawansowanych narzędzi AI, takich jak LangChain, Portkey, Galileo i HuggingFace Transformers w celu opracowania agentów jakości danych i zautomatyzowanej klasyfikacji błędów. • Współpraca z zespołami Data Engineer i IT Operations w celu zarządzania infrastrukturą w chmurze (AWS) na potrzeby skalowalnego serwowania modeli, monitorowania i automatycznego przekwalifikowania. • Wdrażanie systemów do monitorowania wydajności modeli, wykrywania dryfu danych i modeli oraz automatyzacji pętli ponownego szkolenia modeli • Zapewnienie wysokiej dostępności i wydajności systemów sztucznej inteligencji przy dużym obciążeniu danymi na centralnej platformie nadzoru danych. • Projektowanie i wdrażanie systemów sztucznej inteligencji zgodnie z wewnętrznymi zasadami bezpieczeństwa i standardami regulacyjnymi GxP. • Ciągłe doskonalenie architektury i procesów MLOps w celu utrzymania odporności jakości danych. Wymagania • Minimum 5 lat doświadczenia w projektowaniu i utrzymywaniu produkcyjnych pipeline'ów MLOps/LLMOps z CI/CD dla modeli. • Praktyczne doświadczenie z AWS SageMaker, Kubeflow lub MLflow, w tym monitorowanie modeli, przekwalifikowanie i wykrywanie dryfu • Biegła znajomość języka Python na poziomie produkcyjnym, w tym pisanie czystego, testowalnego i dobrze udokumentowanego kodu, interfejsów API i usług. • Silne umiejętności w zakresie konteneryzacji modeli za pomocą Dockera i orkiestracji za pomocą Kubernetes, zapewniające skalowalność i wysoką dostępność • Udokumentowane doświadczenie we wdrażaniu modeli LLM i Transformer przy użyciu HuggingFace i LangChain; doświadczenie z Portkey lub Galileo jest dodatkowym atutem • Praktyczne wykorzystanie usług AWS, takich jak Lambda, EC2 i SageMaker, we współpracy z zespołami ds. infrastruktury i inżynierii danych. • Solidne zrozumienie architektury rozproszonej, strumieniowego przesyłania danych i obsługi dużych ilości danych w środowiskach produkcyjnych • Biegła znajomość języka angielskiego • Wymagane miejsce zamieszkania w Polsce Mile widziane • Wymagana biegła znajomość języka polskiego • Doświadczenie w branży farmaceutycznej Benefity, które czekają na Ciebie: • Tytuł Great Place to Work od 2015 roku - to dzięki opiniom pracowników otrzymujemy tytuł i wdrażamy nowe pomysły • Stabilność zatrudnienia - 2,1 MLD PLN przychodu, brak długów, od 2006 roku na rynku • Dzielimy się zyskiem z pracownikami - od 2022 roku przeznaczyliśmy na ten cel już ponad 76 milionów PLN • Bogaty pakiet benefitów - prywatna opieka zdrowotna, platforma kafeteryjna, zniżki na samochody i więcej • Komfortowe miejsce pracy - pracuj w naszych biurach klasy A lub zdalnie • Dziesiątki fascynujących projektów dla prestiżowych marek z całego świata • 1 000 000 PLN rocznie na Twoje pomysły - taką kwotą wspieramy pasje i akcje wolontariackie naszych pracowników • Stawiamy na Twój rozwój - meetupy, webinary, platforma szkoleniowa i blog technologiczny – Ty wybierasz • Fantastyczna atmosfera stworzona przez wszystkich Sii Power People Dołącz do zespołu Sii – rozwijaj umiejętności, zdobywaj doświadczenie i buduj karierę!
AI Data Engineer (Remote from Poland)
Caspian One
⚲ Poland
1 600 - 2 000 PLN/dzień netto (B2B)
Wymagania
- Data
- SQL
- Python
About the Role Join a pioneering team that’s redefining how AI and cloud-native platforms power front-office trading. We’re hiring a hands-on Data Engineer to help shape the future of our platform, a critical infrastructure that supports Quantitative and Strat developers in building next-generation trading solutions. This is not a standard engineering role. You’ll work closely with front‑office traders and quantitative developers, focusing on the data engineering required to design, build, and operate bespoke generative AI and agent‑based systems used directly in trading workflows. The work you do will have a measurable impact on how strategies are developed, tested, and executed. If you’re motivated by building novel, production‑grade systems at the leading edge of technology, this role gives you the scope to do exactly that. What You’ll Do You’ll design, build, and innovate across both cloud and on-prem environments, scaling platform capabilities and driving AI adoption: • Design, build, and maintain robust data pipelines for batch and streaming workloads, ensuring high data quality, reliability, and observability across cloud and on‑prem platforms. • Model, store, and serve large‑scale datasets optimised for analytics, machine learning, and low‑latency consumption by AI‑driven trading systems. • Build and optimise real‑time and near‑real‑time data pipelines using Databricks and streaming technologies to ingest, process, and serve high‑volume market and trading data at scale. • Design and implement secure, cost-aware, scalable systems using AWS services and Kubernetes. • Contribute to best practices for agent‑based system infrastructure and mentor junior engineers when needed. • Work across organizational boundaries and champion modern engineering trends. • Stay ahead of the curve in agent‑based systems, AI infrastructure, and cloud-native tooling. • Architect and develop cutting-edge platform services for AI-driven trading. Tech Stack • Programming: Python • AWS: S3, Kinesis, Glue, Lambda, Step Functions, SageMaker, and more. • On-Prem: Managed Kubernetes Platform and Hadoop ecosystem. • Databricks as a nice to have. What we are looking for • 5 – 10 years of experience in data engineering, ideally in platform or infra roles. • Strong programming skills in Python; passion for code quality and testing. • Experience with Databricks or similar tools. • Experience with AWS services (S3, Glue, Kinesis, Lambda, ECS, IAM, KMS, API Gateway, Step Functions, MSK, CloudFormation). • Experience working in a fast-paced environment in either engineering or analytical roles. • Passion for being hands-on and contributing to a collaborative engineering culture. • Direct Impact: Be part of a team building agent‑based systems that traders and quants use daily to optimise strategies. • Creative Freedom: Open collaboration and the chance to bring your ideas to life. • Visibility: Be a big player in a small, high-impact team with exposure across the organisation. Nice to Have • Experience with on-prem Hadoop and Kubernetes. • Familiarity with AWS cost management and optimisation tools. • Knowledge of Databricks • Knowledge of front-office developer workflows in financial services
💻 ML Technical Team Manager
DAC.digital
⚲ Gdańsk
30 000 - 34 000 PLN netto (B2B)
Wymagania
- Machine Learning
- AI
- Python
We are looking for an experienced Technical Leader to join our AI Division, bringing deep expertise in Machine Learning, Computer Vision/Agentic AI, and a proven track record in building scalable, production-ready AI solutions. You will lead a team of ML engineers, shape the company’s AI strategy, and work closely with clients to deliver innovative, high-impact projects. Key information: Salary: • 30 000 - 34 000 PLN net/month - pure B2B contract • 26 000 – 29 500 PLN net/month – B2B contract (days off included) It is vital that you have: • 7 years of experience in software engineering/research, with 4+ years of hands-on experience in Machine Learning; • proven track record in Computer Vision or Agentic AI; • experience designing scalable, production-ready AI architectures; • can-do and proactive attitude; • strong communication skills; • proficient in English language (min. C1); • working in agile methodologies (Scrum, Kanban); • eager to learn and share knowledge; • willing to travel if necessary (conferences, coworking events, etc.). Nice to have: • German language • Edge AI deployment and neural networks optimization experience Technology stack: • Python, PyTorch, ONNX, Numpy, Pandas/Polars, strong proficiency in AWS/Azure, Pytest, VSCode, DVC, Experiment tracking framework (DVC studio, MLFlow, W&B, or similar) • familiarity with the Computer Vision ML stack (OpenCV, Torch Vision, TensorRT, Vision Transformers) and Agentic AI stack (Agno, LangChain+LangGraph, Milvus/Qdrant, LlamaIndex), together with multi-modal ML methods. You will be responsible for supporting our team in: • planning scalable architectures and technical roadmaps for complex AI projects • development and guiding the development of custom neural networks • supervising the end-to-end implementation of projects from data preparation • working on the projects in the tech lead role • conducting AI workshops with customers; • contributing to the company-wide AI strategy; • managing a team of up to 10 ML Engineers and Researchers; • participating in knowledge-sharing activities; • partaking in business development activities. What do we offer: • possibility to work 100% remotely or on-site at our office in Gdańsk; • b2b contract with included 30 days off; • private Medical care; • group insurance; • pre-paid card or Sport Card; • referral program; • real Agile practices; • employee well-being online platform; • cafeteria benefits.
Senior Machine Learning / Data Engineer
IT SQUAD SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Warszawa
Wymagania
- Microsoft Azure
- AWS
- Large Language Models
- SQL
- NoSQL
- ETL
- ELT
- Google Cloud Platform (nice to have)
Wymagania: - Solidne doświadczenie jako Data Engineer lub ML Engineer (preferowane ok. 5-8 lat) - Praktyczna wiedza w zakresie pracy z modelami LLM i ich integracji w przepływy danych - Silne umiejętności w projektowaniu architektury backendowej i procesów przetwarzania danych - Umiejętność pracy w warunkach niepewności (ambiguity), samodzielność w podejmowaniu decyzji projektowych oraz nastawienie na innowacje - Doświadczenie w projektowaniu potoków danych (ETL/ELT) oraz biegłość w pracy z bazami SQL/NoSQL - Bardzo dobra znajomość języka polskiego i angielskiego (praca z klientem) Mile widziane: - Znajomość specyfiki kosztorysowania lub doświadczenie w projektach związanych z infrastrukturą Data Center - Doświadczenie w tworzeniu modeli predykcyjnych opartych na parametrach technicznych - Praktyczna znajomość rozwiązań chmurowych (Azure/AWS/GCP) w kontekście wdrażania prototypów ML O firmie: - Jesteśmy firmą o profilu wdrożeniowo – doradczym. Specjalizujemy się m.in. w takich obszarach jak Rescue IT, transformacja cyfrowa i utrzymanie. Nasz team to aktualnie ponad 100 specjalistów: analityków biznesowych, analityków danych, projektantów UX/UI, programistów full-stack i testerów. Wspólnie tworzymy najnowocześniejsze rozwiązania cyfrowe przede wszystkim dla klientów z branż takich jak: opieka zdrowotna, bankowość, ubezpieczenia, e-commerce, FMCG i handel detaliczny. - Łączymy innowację z praktycznym podejściem do rozwiązywania problemów technologicznych. Nasz zespół to pasjonaci IT, którzy stawiają na rozwój, nowoczesne technologie i przyjazne środowisko pracy. Zakres obowiązków: - Aktywne wsparcie w budowie i ewolucji innowacyjnego narzędzia do wyceny oraz tworzenia kosztorysów - Dalszy rozwój bazowego modelu danych wspierającego rozwiązania kosztorysowe w branży technologicznej - Adaptacja narzędzi do mapowania schematów danych opartych na dużych modelach językowych (LLM) do nowych kontekstów domenowych - Prototypowanie i testowanie procesów wspierających wersjonowanie kosztorysów, predykcję parametryczną oraz analitykę porównawczą kosztów - Kształtowanie wyłaniającej się architektury produktu, z naciskiem na elastyczność i innowacyjność (faza prototypu, nie utrzymanie produkcji) - Ścisła współpraca z klientem oraz zespołem w celu przekładania złożonej logiki kosztorysowej na wydajne rozwiązania techniczne Oferujemy: - Pracę przy projektach klienckich i produktach własnych - Realny wpływ na rozwiązania biznesowe i technologiczne w ramach realizowanych projektów - Eventy firmowe, dostęp do usług medycznych oraz pakietów sportowych - Zatrudnienie na umowę B2B - Pracę w trybie 100% zdalnym - Proces rekrutacyjny składający się z rozmowy HR oraz dwóch rozmów technicznych
Senior Data Scientist, Machine Learning Engineer
Shelf
⚲ Kraków, Wrocław, Warszawa, Poznań, Gdańsk
8 000 - 10 000 USD netto (B2B)
Wymagania
- NLP
- LLM
- ETL
- SQL
- Python
- NoSQL
The R&D department plays a pivotal role in driving Shelf to disrupt the market. We are looking for Machine Learning experts that are able to deliver end to end with a blend of experience: Python engineering, ML engineering, and pragmatic Data science and Machine learning research. You will ship end-to-end features—from problem framing and experimentation to service deployment, and ongoing operations—quickly and with high quality. Your work will power ML- and LLM-driven services used by top enterprises like Amazon, Mayo Clinic, AmFam, and Nespresso. This role requires strong Python engineering capabilities coupled with a strong ability to deliver robust ML solutions, along with ML research literacy to choose sound methodologies, define metrics, and evaluate different approaches effectively. You’ll work in an agile environment, move fast, and own what you ship. Responsibilities • Own end-to-end delivery: ideate, research, prototype, productionize, and operate ML-powered services with an expectation to iterate and ship frequently • Stand up robust training/evaluation pipelines: dataset curation, labeling/feedback loops, experiment tracking, offline/online metrics, and A/B testing • Solve problems using sound methodology, evaluate approaches along with • Transform ML models and LLM workflows (including RAG) into reusable, versioned, observable production services with CI/CD • Collaborate with Product Owners to shape our product and requirements • Conduct and receive code reviews; champion engineering excellence, testing discipline, and documentation • Leverage AI coding assistants to accelerate development and create internal agents that automate parts of the engineering workflow • Share learnings through demos, docs, and knowledge sessions; contribute to a culture of continuous improvement Requirements • 3+ years of professional experience researching and shipping ML-based solutions, with strong Python skills and a track record of delivering fast without sacrificing quality • Proven experience in owning research problems end-to-end, starting from initial data analysis, through iterative research phases to delivering on production • Practical NLP/LLM experience: transformers, embeddings, prompt design, and evaluation; ability to choose and justify metrics and methodologies • Strong backend fundamentals: designing RESTful services, schema design, data modeling, and performance tuning for SQL and NoSQL stores • Data processing skills: pandas/NumPy; experience with batch/stream processing and ETL orchestration (e.g., Airflow, Step Functions) • Strong English verbal and written communication As a plus • LLM ops and safety: eval frameworks (e.g., RAGAS), guardrails, red-teaming, prompt optimization at scale • Model optimization: quantization, distillation, pruning; GPU/accelerator-aware serving • Experience with AWS ML stack (SageMaker, Batch, Step Functions, Lambda, SQS/SNS, DynamoDB, ECS, EC2, S3) • Vector databases and search: Pinecone, Elasticsearch, pgvector, FAISS, or DeepLake • Background in reinforcement learning, agent frameworks, or autonomous agents • Publications, open-source contributions, GitHub portfolio What Shelf Offers • B2B contract • Company Stock Options • Hardware: MacBook Pro • Modern technical stack. Develop open-source software • Premier AI development environment: GitHub Copilot, Claude Code, OpenAI, TypingMind, v0, MCP Servers, plus credits to experiment with emerging AI tools Why Shelf • Leadership with deep knowledge management, AI, and enterprise SaaS expertise • Customers love us for innovative capabilities, reliability, and measurable business impact • $60M+ raised from top-tier investors including Tiger Global, Insight Partners, and Base10 • High-velocity growth, tripling year over year for three consecutive years • 100+ employees across the U.S. and Europe with ambitious hiring plans About Shelf There is no AI Strategy without a Data Strategy. Getting GenAI to work is mission-critical for most companies, but 90% of AI projects haven't deployed. Why? Poor data quality—it’s the #1 obstacle companies face getting GenAI into production. Shelf unlocks AI readiness. We provide the core infrastructure that enables GenAI to be deployed at scale. We help companies deliver more accurate GenAI answers by eliminating bad data in documents and files before they go into an LLM and create bad answers. We’re partnered with Microsoft, Salesforce, Snowflake, Databricks, OpenAI and other leaders bringing GenAI to the enterprise. Our mission is to empower humanity with better answers everywhere.
ML Engineer
Experis Manpower Group
⚲ Warszawa
190 - 200 PLN/h netto (B2B)
Wymagania
- Machine Learning
- CI/CD
- TensorFlow
- Python
- MLOps
100% remote B2B: 190-200 zł/h netto + VAT Role description: As an ML Engineer, you will be responsible for deploying, managing, and optimizing AI/ML models in production environments. You will work closely with data scientists, software engineers, and IT teams to ensure the seamless integration and operation of AI/ML solutions. Your role will be crucial in operationalizing AI models, ensuring they are scalable, reliable, and deliver value to the business. Responsibilities: • Design, implement, and maintain end-to-end MLOps pipelines for deploying machine learning models into production. • Collaborate with data scientists to understand model requirements and ensure smooth deployment and integration. • Develop and manage infrastructure for model training, validation, deployment, monitoring, and retraining. • Implement CI/CD pipelines to streamline the deployment and updates of AI/ML models. • Ensure the scalability, reliability, and performance of deployed models through continuous monitoring and optimization. • Utilize containerization and orchestration tools (e.g., Docker, Kubernetes) to manage model deployment environments. • Work with cloud platforms (AWS, GCP, Azure) to deploy and manage AI/ML services. • Implement security best practices for AI/ML models and data pipelines. • Troubleshoot and resolve issues related to model deployment and operation. • Stay updated with the latest MLOps tools, frameworks, and methodologies. • Document processes, configurations, and procedures to ensure knowledge sharing and continuity. Requirements: • Bachelor’s or Master’s degree in Computer Science, Data Science, Engineering, or a related field. • Proven experience (4+ years) in deploying machine learning models in production environments. • Strong understanding of machine learning, deep learning, NLP, and generative AI techniques. • Proficiency with MLOps tools and frameworks such as MLflow, Kubeflow, TensorFlow Extended (TFX), or similar. • Experience with CI/CD tools such as Jenkins, GitLab CI, or CircleCI. • Proficiency in programming languages such as Python and familiarity with ML/DL frameworks like TensorFlow, PyTorch, and scikit-learn. • Experience with cloud platforms (AWS, GCP, Azure) and their AI/ML services. •Knowledge of containerization and orchestration tools (Docker, Kubernetes). • Strong understanding of version control systems (e.g., Git) and collaborative development workflows. • Excellent problem-solving skills and the ability to design robust, scalable MLOps solutions. • Strong communication skills, with the ability to collaborate effectively with cross-functional teams. What we offer: • 100% remote • Multisport card • Private healthcare • Life insurance
IT Systems & Automation Team Leader
HireWise - Rekrutacja w Sprzedaży i Marketingu
⚲ Kobielice
18 000 - 22 000 PLN netto (B2B)
Wymagania
- AI
Naszym klientem jest firma produkująca urządzenia SMART, specjalizująca się w systemach kontroli ogrzewania, ale oferująca także inne rozwiązania, takie jak kamery czy wtyczki sieciowe. W związku z rozwojem firmy poszukujemy osoby na stanowisko IT Systems & Automation Team Leader, która uporządkuje i przejmie odpowiedzialności za obszar technologiczny w organizacji. Zakres obowiązków • Nadzór nad płynnym funkcjonowaniem obecnych systemów, narzędzi IT, automatyzacji (RPA), CRM oraz infrastruktury. • Wdrażanie nowych narzędzi technologicznych oraz rozwój i porządkowanie stacku IT. • Usprawnianie procesów wewnętrznych oraz zapewnianie bezpieczeństwa danych. • Koordynacja współpracy z dostawcami zewnętrznymi (m.in. e-commerce) oraz zespołami wewnętrznymi. • Budowa i rozwój agentów oraz rozwiązań opartych o AI. • Wsparcie technologiczno-biznesowe dla kluczowych obszarów organizacji. Poszukiwane kompetencje • Bardzo dobra znajomość środowiska IT, automatyzacji, cyberbezpieczeństwa oraz narzędzi typu CRM. • Doświadczenie w nadzorowaniu sprawnego działania systemów oraz optymalizacji procesów. • Umiejętność współpracy z wieloma działami i zarządzania dostawcami zewnętrznymi. • Otwartość na rozwój, zainteresowanie AI oraz praktyczne podejście do budowy agentów i automatyzacji. • Wysoka komunikatywność oraz orientacja na cele biznesowe. • Język angielski na poziomie min. B2. Oferujemy • Współpracę w modelu B2B. • Wynagrodzenie: 18 000 – 22 000 zł netto B2B. • Elastyczny model pracy: hybrydowo lub w pełni zdalnie. • Narzędzia pracy: telefon i komputer. • Bezpośrednie wsparcie zarządu realizacji podjętych decyzji. • Realny wpływ na porządkowanie obszaru IT, bezpieczeństwa, integracji oraz kierunek rozwoju automatyzacji i narzędzi technologicznych w firmie. Skontaktujemy się tylko z wybranymi kandydatami, których CV będzie jasno wskazywało poszukiwane przez nas umiejętności i kompetencje. Proces rekrutacyjny będzie się składał z weryfikacji CV, 5-minutowej rozmowy telefonicznej, 45-minutowej wideo rozmowy kwalifikacyjnej, 90-minutowej rozmowy z elementami Assessment Center, spotkania w siedzibie firmy naszego klienta. Na koniec każdego etapu wrócimy do Ciebie z informacją zwrotną.
Data Scientist
B2Bnetwork
⚲ Warszawa, Gdańsk, Gdynia
130 - 150 PLN/h netto (B2B)
Wymagania
- Excel
- Git
- ML
- DAX
- SQL
- Python
• Rozwój i utrzymanie rozwiązań analitycznych w Power BI Service / Microsoft Fabric, • Budowa modeli Machine Learning • Automatyczna identyfikację root cause niestabilności krytycznych systemów IT, • Projektowanie modeli predykcyjnych ograniczających ryzyko incydentów i zmian powodujących incydenty, • Tworzenie generatywnych modeli AI dla w pełni zautomatyzowanych, samoobsługowych raportów (GenAI self-reporting), • Budowę zaawansowanych raportów i dashboardów (Deep Analysis), • Analiza, przetwarzanie i modelowanie danych oraz interpretację wyników w celu tworzenia actionable insights, • Zapewnienie kompletności i jakości danych zgodnie z najlepszymi praktykami data governance, • Ścisła współpracę ze stakeholderami oraz współtworzenie przyszłej usługi Insights Data Analytics, • Praca w autonomicznym zespole Scrum w ramach SAFe.
Data Engineer
Polska Agencja Żeglugi Powietrznej
⚲ Warszawa
18 000 - 20 000 zł brutto
Wymagania
- SQL
- Python
- Linux
- Git
- Docker (nice to have)
- Kubernetes (nice to have)
Wymagania: - 2-5 lat doświadczenia w roli Data Engineer - Bardzo dobra znajomość SQL + praktyka programowania w Python (ETL, integracje, automatyzacja) - Doświadczenie z przetwarzaniem dużych wolumenów danych i narzędziami klasy Spark (lub równoważne): mile widziane Kafka/streaming - Praktyka w środowisku Linux (on-prem) oraz rozumienie ograniczeń i obowiązków wynikających z self-hosted - Dobre praktyki inżynierskie: Git, code review, testy, logowanie/monitoring, dokumentacja techniczna - Umiejętność projektowania struktur danych - Współpraca przy ML/AI: zrozumienie potrzeb danych dla treningu/inferencji (reprodukowalność, wersjonowanie datasetów) - Angielski na poziomie komunikatywnym (min. B2) Mile widziane: - Orkiestracja workflow (np. Airflow lub równoważne), CI/CD, Docker/Kubernetes - Doświadczenie z obiektowym storage (MinIO) i projektowaniem Data Lake bez "gotowego" stacku (dobór narzędzi, standardów, wzorców) - Narzędzia MLOps (np. MLflow), data/model versioning, obserwowalność danych dla modeli - Doświadczenie w budowaniu rozwiązań typu data warehouse/lake i ich produkcyjnego utrzymania - Doświadczenie w pracy z systemami o wysokiej dostępności - Znajomość technik bezpiecznego przechowywania danych: szyfrowanie at rest, in transit - Doświadczenie w pracy w sektorze lotniczym, a szczególnie przy systemach związanych z kontrolą ruchu lutniczego O firmie: - Polska Agencja Żeglugi Powietrznej (PANSA) zarządza przestrzenią powietrzną w Polsce. Zapewniamy płynność ruchu lotniczego oraz niezawodność infrastruktury lotniczej. Kontrolerzy Ruchu Lotniczego czuwają nad lotami setek tysięcy pasażerów każdego dnia. - Bezpieczeństwo pozostaje naszym najważniejszym celem. - W PANSA tworzymy zespół profesjonalistów, którzy łączą wiedzę, doświadczenie i pasję, aby każdego dnia podnosić standardy naszej pracy. Stawiamy na innowacyjność technologii. Inwestujemy w rozwój i dobrostan naszych pracowników, oferując szkolenia, dostęp do zaawansowanych technologii oraz możliwość udziału w międzynarodowych projektach.Dołączając do nas, stajesz się częścią organizacji, która ma realny wpływ na rozwój lotnictwa w Polsce i na świecie.Zapraszamy do wspólnego kształtowania przyszłości lotnictwa! Zakres obowiązków: - Projektowanie i rozwijanie protokołów ETL/ELT (batch + ewentualnie streaming) z systemów źródłowych do Data Lake, opartych na narzędziach orkiestracji typu Airflow/Kubeflow/równoważne, również w systemach distributed computing - Współtworzenie fundamentów Data Lake: warstwy danych (raw/processsed/curated), standardy nazewnictwa i partycjonowania, schematy i kontrakty danych, podejście do wersjonowania - Implementacja i utrzymanie integracji danych oraz automatyzacja uruchomień - Zapewnienie jakości i niezawodności danych - Przygotowanie danych pod ML/AI: budowa zbiorów trening/valid/test, pipeline'y przygotowania cech, współpraca przy potokach treningu i inferencji oraz integracji danych z usługami ML/AI - Praca w realiach self-hosted: optymalizacja wydajności, kosztów zasobów, stabilność i bezpieczeństwo - Współpraca z zespołami BI/ML/AI/produktowymi: doprecyzowanie potrzeb, definicji KPI i priorytetów backlogu danych Oferujemy: - Umowa o pracę - Hybrydowy system pracy - Pracę w kilkuosobowym zespole - Merytoryczne wsparcie na każdym etapie wdrożenia - Bogaty pakiet medyczny w Luxmed (w tym stomatologię) - Pakiet Multisport - Możliwość korzystania z Ośrodka Sportu znajdującego się na terenie Agencji - Dyżury lekarza w przychodni znajdującej się w naszej siedzibie - Bezpłatny parking dla pracowników - Dofinansowanie do wypoczynku - Dofinansowanie do biletów do kina, teatru, na koncerty dla pracowników i członków rodziny - Dofinansowanie do edukacji dzieci - Dofinansowanie do kursów/szkoleń - Dodatkowe ubezpieczenie - Pracowniczy Program Emerytalny - Pakiet świadczeń z Zakładowego Funduszu Świadczeń Socjalnych
AI Engineering Lead
Chabre IT Services Sp. z.o.o
⚲ Warszawa
25 600 - 30 000 PLN netto (B2B)
Wymagania
- AI
Working as an AI Engineering Lead, you will: • Design and deliver modern, production-ready applications powered by AI technologies • Contribute to the definition and evolution of high-level solution architecture • Produce clear and well-structured technical documentation • Support software releases and collaborate with stakeholders to resolve technical challenges • Present technical concepts and implemented solutions to clients in a clear and business-oriented manner • Drive innovative approaches to solution development throughout the project lifecycle • Mentor and guide junior engineers, promoting engineering excellence within the team About Chabre IT Services Chabre IT Services is a global professional IT services provider, building long-lasting relationships with Enterprises. We specialize in the delivery of tailor-made solutions, smart outsourcing, try&hire, and success fee services. We are a smart IT boutique with unique knowledge, which will deliver your ideas into reality. About our Client Our client is a global technology and management consultancy specializing in driving digital transformation in the financial services industry. It operates at the intersection of business and technology by combining innovative thinking with unrivalled industry knowledge to deliver end-to-end data-driven solutions and fast-track digital initiatives for banking and payments, capital markets, wealth and asset management, insurance, and the energy sector. Qualifications • Degree in Computer Science or a related discipline • Around 2 years of professional experience in a similar role • Strong expertise in Python and solid understanding of the Software Development Life Cycle (6+ years of experience) • Hands-on experience with at least one major cloud platform (AWS, Azure, or GCP) • Practical knowledge of SQL and NoSQL databases • In-depth understanding of Large Language Models (LLMs), including transformers, embeddings, tokenization, and API integrations • Experience with prompt engineering and orchestration frameworks such as LangChain, LangGraph, or Semantic Kernel • Knowledge of AI design patterns and Retrieval-Augmented Generation (RAG) approaches • Up-to-date understanding of AI trends, tools, and industry standards • Strong software engineering skills, with adherence to coding standards and best practices • Experience with code reviews, debugging, automated testing, and version control systems • Familiarity with CI/CD pipelines and automation tools (e.g., GitHub, Azure DevOps, Docker, Kubernetes) • Experience deploying and maintaining AI solutions in enterprise environments • Ability to implement logging, monitoring, and alerting mechanisms • Solid understanding of scalable system design, including asynchronous processing and multithreading • Systems thinking approach and problem-solving mindset • Experience designing secure, scalable, and resilient architectures using microservices, serverless, containers, and API-driven solutions • Familiarity with enterprise integration patterns (messaging systems, pub/sub, event-driven architectures) • Knowledge of IAM, RBAC, secrets management, and network security concepts (e.g., VPCs, firewalls) • Experience building web applications and processing large-scale datasets We offer • Rate: 160 - 190 PLN/h + VAT • Remote work • Subsidy for peripherals in the amount of 500,00zł • Working tool (MacBook Pro or Lenovo Legion 5) • Co-financing of courses related to the position • Benefits: MultiSport, Medicover
AI Engineer
WealthArc
⚲ Warszawa
Wymagania
- Machine Learning
- PyTorch
- AI
- Langchain
- MLflow
- Python
- Hugging Face
About Us We’re launching a brand-new AI initiative at the forefront of wealth and asset management technology — and we’re building the team and infrastructure from the ground up. This is not a maintenance role: you’ll be an early architect of our AI capabilities, defining core systems, frameworks, and best practices as we grow. You will have a direct hand in shaping our technology, engineering culture, and long-term roadmap. We are assembling a next-generation AI team to design and deploy AI-native systems - from autonomous agents to intelligent decision-making tools - that power our product suite and operational pipelines. What You’ll Do? Drive New AI Capabilities & Project Launch • Lead development of next-generation AI agents and autonomous systems essential to our platform. • Set up the engineering pipeline for model development, experimentation, deployment, and monitoring — from prototyping to production quality. • Shape standards and documentation for how teams build, train, evaluate, and ship agentic AI solutions. Build & Scale Engineering Practices • Work closely with engineering leadership to define and refine architecture, processes, and tools as the team grows. • Establish CI/CD and ML/Ops workflows that ensure reliability and scalability across services. • Mentor and collaborate with new team members as the organization expands. Innovate with Cutting-Edge Models • Design, train, fine-tune, and integrate advanced LLMs, generative AI systems, and reasoning engines into high-impact use cases. • Rapidly prototype and iterate using frameworks like PyTorch, Hugging Face, LangChain, etc. • Solve hard problems around explainability, performance, and data-specific challenges in finance. Who We’re Looking For? Core Requirements • 2–5+ years of production-grade experience building or deploying AI/ML systems. • Expertise in Python and modern AI tooling (PyTorch, Hugging Face, LangChain, MLflow, etc.). • Proven track record shipping real systems — you balance thinking from first principles with delivering working code. • Comfortable architecting scalable solutions and driving technical decisions in a fast-moving startup environment. Nice to Have • Experience in fintech, investment platforms, or complex data domains. • Contributions to open-source AI/ML tooling or research. • Background in reinforcement learning, multi-agent reasoning, NLP, or decision systems. Why Join • Build a new project from scratch — you’ll influence not just code but pipeline, practice, and product direction. • Early team opportunity — join as one of the foundational engineers shaping the AI stack and culture. • Work with cutting-edge models and emerging agent paradigms in a performance-critical domain. • Competitive compensation and opportunities for long-term impact and growth. Apply Now Be part of something new: build not only systems — but the team that builds them.
AI Engineer
Chabre IT Services Sp. z.o.o
⚲ Warszawa
21 000 - 27 000 PLN netto (B2B)
Wymagania
- AI
- Python
Working as an AI Engineer, you will: • Design, develop, and operate AI-powered services integrating orchestration tools, workflows, and cloud infrastructure • Build and maintain Retrieval-Augmented Generation (RAG) pipelines for processing internal knowledge, including ingestion, indexing, and evaluation • Integrate AI-driven workflows into existing enterprise platforms and backend systems • Define and implement tool/function schemas, orchestration patterns, and prompt strategies, ensuring high-quality and secure outputs • Develop multi-agent and agentic workflows leveraging frameworks such as LangGraph or LangChain • Automate testing, evaluation, and monitoring of AI systems, including quality validation and observability mechanisms • Contribute to architectural decisions and promote engineering best practices across the SDLC • Participate in Agile ceremonies and collaborate closely with cross-functional teams • Mentor team members, foster alignment on technical direction, and raise the overall engineering standard • Ensure responsible AI usage by applying governance, security, and compliance principles About Chabre IT Services Chabre IT Services is a global professional IT services provider, building long-lasting relationships with Enterprises. We specialize in the delivery of tailor-made solutions, smart outsourcing, try&hire, and success fee services. We are a smart IT boutique with unique knowledge, which will deliver your ideas into reality. About our Client Our client is a global technology and management consultancy specializing in driving digital transformation in the financial services industry. It operates at the intersection of business and technology by combining innovative thinking with unrivalled industry knowledge to deliver end-to-end data-driven solutions and fast-track digital initiatives for banking and payments, capital markets, wealth and asset management, insurance, and the energy sector. Qualifications • Minimum 5 years of professional software engineering experience with strong backend expertise (Python preferred) • Solid understanding of GenAI concepts, including LLM APIs, prompt engineering, RAG, tool/function calling, and agent orchestration • Hands-on experience building production-grade LLM applications with focus on reliability, security, and observability • Practical experience with frameworks such as LangChain, LangGraph, Semantic Kernel, or similar • Strong knowledge of LLM evaluation techniques, hallucination mitigation, and guardrail implementation • Experience integrating AI services (e.g., Azure OpenAI or similar) with attention to timeouts, fallback mechanisms, and safe outputs • Background in distributed systems and scalable architectures (concurrency, async I/O, caching, API-driven design) • Experience designing microservices, serverless solutions, or containerized applications • Strong knowledge of cloud platforms (preferably Azure) and AI-related services • Familiarity with vector databases and search technologies (e.g., Azure AI Search) • Solid understanding of CI/CD pipelines and infrastructure automation • Proficiency with Git-based version control and collaborative development workflows • Experience implementing logging, tracing, monitoring, and metrics for production systems • Understanding of IAM, authentication/authorization patterns (JWT/OAuth), and secure secret management • Experience building automated testing frameworks, including evaluation harnesses for AI solutions • Excellent communication skills and the ability to collaborate with both technical and non-technical stakeholders • Strong problem-solving mindset and ownership attitude We offer • Rate: 130 - 170 PLN/h + VAT • Remote work • Subsidy for peripherals in the amount of 500,00zł • Working tool (MacBook Pro or Lenovo Legion 5) • Co-financing of courses related to the position • Benefits: MultiSport, Medicover
AI/Platform Engineer - Node/GO
emagine Polska
Wymagania
- Organizational (Engineering)
- Backend
- Node.js
- Artificial Intelligence (AI)
- Architectural (Engineering)
- Amazon Web Services (AWS)
- frontend
- Technical Specifications (Engineering)
- Microsoft Platform
- Go (Golang)
Vi söker en senior konsult med primärt backend-fokus - vi arbetar huvudsakligen i Go och Node.js. Det här är inte ett uppdrag där du bygger AI-funktioner i produkten. Fokus ligger i stället på att radikalt effektivisera utvecklingen genom avancerad användning av LLM:er och agentiska system. Det centrala är att hitta någon som utvecklar saker med hjälp av AI snarare än någon som utvecklar AI-produkter. Meriterande är om man har expertis inom platform engineering, AWS, och observerbarhet, då rollen dels kommer handla om att inspirera och kunskapsdela kring AI-arbetssätt men även kommer handla om att vara resursförstärkning för vårt arbete rent allmänt som del av plattformsteamet. Vad vi menar med AI Engineering I princip alla utvecklare använder LLM-tekniker idag. Vi letar efter top 5 % – personer som arbetar med AI på ett systematiskt, storskaligt och ingenjörsmässigt sätt. Det innebär att du: • Har djup erfarenhet av agentisk utveckling (inte bara prompts). • Tänker i system, flöden, verktyg och arkitektur. • Är väl insatt i modellval, begränsningar, trade-offs och de senaste metoderna. • Har arbetat med orkestrering, evaluering, observability och iteration i AI-drivna system. • Bygger lösningar som andra utvecklare faktiskt kan använda och lita på. Vi tror att du: • Är en mycket stark ingenjör i grunden. • Har primärt backend-fokus, men är inte rädd för frontend när det behövs. • Är bekväm med Go och/eller Node.js (eller lär dig snabbt). • Har praktisk erfarenhet av att använda AI för att förbättra utvecklingsprocesser. • Är nyfiken, analytisk och gillar att ligga i teknikens framkant. • Är svensktalande. Praktiskt • Start: Flexibel – vi väntar hellre på rätt person. • Längd: Löpande kontrakt. • Plats: Stockholm, 4 dagar/vecka på kontoret. • Övrigt: endast svensktalande.
Principal AI Infrastructure Engineer- Leader | Warszawa
Next Technology Professionals
⚲ Warszawa
Wymagania
- C++
- llvm
- PyTorch
- PTX
- MLIR
Dla naszego klienta poszukujemy kandydatów na stanowisko: Principal AI Infrastructure Engineer- Warszawa Projekt: 🚀 Tworzenie od podstaw oraz optymalizacja wydajności zaawansowanego stosu kompilatorów dla autorskich układów sprzętowych (działających podobnie do GPU). Aż 70% codziennej pracy to czyste R&D i prototypowanie (greenfield), natomiast pozostała część to praca nad rozwojem już istniejącej architektury bazowej. Co ważne, organizacja aktywnie wspiera i pozwala na bezpośredni wkład w projekty Open Source. Stack technologiczny: 💻 LLVM (priorytet), C++, MLIR, PyTorch, PTX oraz niskopoziomowe programowanie akceleratorów. Komercyjne doświadczenie z technologią Triton będzie potężnym atutem. Zespół: 👥 Dołączysz do innowacyjnego działu R&D, pracującego dla giganta technologicznego. Poszukujemy osoby, która nie tylko wniesie głęboką ekspertyzę, ale również przejmie rolę partnera do dyskusji architektonicznych dla pozostałych członków zespołu. Model współpracy: 🏢 Praca odbywa się w trybie w 100% stacjonarnym z biura w Warszawie. Zakres obowiązków: 📋 • Projektowanie i rozbudowa innowacyjnych rozwiązań kompilatorowych dla specjalizowanych autorskich układów (stanowiących alternatywę dla klasycznych GPU). • Ekstremalna optymalizacja wydajności na poziomie sprzętowym, ze szczególnym uwzględnieniem redukcji opóźnień (latency). • Wdrażanie skomplikowanych mechanizmów, takich jak fuzja jąder operacyjnych (kernel fusion). • Analizowanie wąskich gardeł wydajnościowych na dedykowanych klastrach sprzętowych – firma posiada własne serwery, więc praca odbywa się płynnie, bez stania w kolejkach do współdzielonych środowisk. • Dzielenie się wiedzą, przeglądy kodu (code review) i wyznaczanie standardów optymalizacyjnych dla całego działu. Oczekujemy: 🎯 • Minimum 6 lat komercyjnego doświadczenia w programowaniu niskopoziomowym, tworzeniu kompilatorów lub maksymalizowaniu wydajności układów akcelerujących. • Doskonałej, ugruntowanej w boju znajomości LLVM (to nasz absolutny wymóg) oraz języka C++. • Głębokiego rozumienia architektury sprzętowej, hierarchii pamięci oraz zarządzania rejestrami w środowiskach AI. • Praktycznego doświadczenia z frameworkami takimi jak PyTorch, TensorFlow czy JAX. • Gotowości do pracy wyłącznie stacjonarnej w biurze oraz nawiązania współpracy na podstawie umowy o pracę (UoP). • Mile widziane: zaawansowany stopień naukowy (magister/doktor) w dziedzinie inżynierii komputerowej oraz praktyczna znajomość Triton. Oferujemy: ✨ • Stabilne zatrudnienie na podstawie Umowy o Pracę (UoP) w strukturach prężnie rozwijającego się centrum R&D. • Bezpośredni, nielimitowany dostęp do fizycznej infrastruktury sprzętowej i autorskich procesorów AI. • Oficjalnie wydzielony budżet czasowy na współtworzenie globalnych rozwiązań Open Source. • Możliwość kształtowania kluczowych produktów technologicznych o zasięgu globalnym. O nas Next Technology Professionals to wyspecjalizowana agencja rekrutacyjna i firma outsourcingowa o silnym profilu technologicznym. Od ponad 10 lat wspieramy firmy w budowie zespołów IT, AI, Cybersecurity, SAP oraz w rekrutacjach dla finansów, inżynierii i marketingu. Zrealizowaliśmy ponad 1000 skutecznych procesów rekrutacyjnych dla korporacji, scale-upów i dynamicznie rosnących startupów. Przesyłając swoje CV do Next Technology Professionals, trafiasz do starannie wyselekcjonowanej bazy kandydatów realizujących projekty dla wiodących globalnych organizacji. Pracujemy wyłącznie w oparciu o aktualne, konkretne potrzeby klientów. Jeśli Twój profil będzie odpowiadał jednemu z prowadzonych procesów, skontaktujemy się niezwłocznie.
Principal AI Engineer
emagine Polska
⚲ København V
Wymagania
- Microsoft Azure
- Security
- Machine Learning (ML)
- Cloud
- CI/CD
- Artificial Intelligence (AI)
- Advisory
- Data modeling
- SQL
- Python
Division: Engineering & Client Enablement Contract: Full-Time Location: Remote (Global) About the RoleWe are seeking a senior-level AI Engineer who will own the technical delivery of complex AI initiatives from concept through production. This role is highly execution-focused and suited for someone who enjoys solving ambiguous problems, building reliable systems, and engaging with clients to ensure successful outcomes. You will operate as a trusted technical leader, responsible for system architecture, implementation quality, and operational stability, leveraging a strong software engineering foundation combined with practical experience in delivering AI solutions in enterprise settings. Main Responsibilities• Design & Build AI Systems: Lead the creation of scalable AI platforms, including retrieval-augmented generation solutions and multi-step agent-based processes using modern orchestration frameworks. • Engineering for Production: Develop robust, testable, and secure services ready for real-world use, supporting deployment workflows and contributing to operational best practices. • Technical Advisory for Clients: Act as a hands-on technical advisor during client engagements, transforming loosely defined business needs into concrete system designs and implementation plans. • Data & Knowledge Layer Development: Architect and implement data backends that combine structured databases, vector search engines, and graph-based knowledge systems for advanced AI reasoning. • Cloud Execution: Deploy and operate AI workloads on leading cloud ecosystems such as AWS, Azure, or GCP, focusing on security, scalability, and cost efficiency. Key Requirements• Deep expertise in Python with an emphasis on maintainable architecture, object-oriented design, and async execution. • Strong grasp of software architecture principles and system-level design. • Experience with Docker and modern CI/CD practices. • Hands-on work with agent-oriented frameworks including LangChain, LangGraph, or LlamaIndex. • Practical experience optimizing LLM behavior through prompt strategies, context orchestration, and lightweight fine-tuning approaches. • Solid understanding of core ML concepts such as embeddings, evaluation techniques, and performance trade-offs. • Experience implementing vector-based retrieval using platforms like Pinecone or Qdrant. • Working familiarity with graph databases (e.g., Neo4j) for modeling relationships and knowledge. • Strong SQL skills and experience with relational data modeling. • Proven experience deploying ML solutions using services such as SageMaker, Vertex AI, or Azure Machine Learning. Nice to Have• Familiarity with additional AI frameworks and libraries. • Exposure to data security best practices. • Experience in Agile methodologies. Other DetailsThis position supports remote work arrangements and offers the opportunity to engage in innovative AI projects on a global scale.
MLOps / ML Platform Engineer
emagine Polska
⚲ København V
Wymagania
- Security
- CI/CD
- training
- System Design
- Artificial Intelligence (AI)
- Powershell
- SQL
- Use Cases
- Python
- Operations
Role OverviewDo you enjoy turning experimental machine learning work into dependable, production-ready systems? Are you comfortable owning infrastructure, automation, and operational excellence for AI workloads? We are seeking an MLOps Engineer who will enable smooth transitions from research prototypes to scalable, enterprise-level ML solutions. This role focuses on building and operating resilient ML platforms across a hybrid environment, ensuring models are deployed, monitored, and governed with consistency and security. Main Responsibilities• ML Platform Automation Create and operate automated workflows that support model building, validation, deployment, and retraining using modern CI/CD and continuous training practices. • Infrastructure Automation Define and manage cloud and on-premise resources using Infrastructure as Code approaches, primarily leveraging Terraform and shell-based automation across Azure, GCP, and local environments. • Container-Based Workflows Enable standardized model packaging and scalable runtime environments through Docker images and Kubernetes-based orchestration. • Collaboration with ML Teams Work closely with data scientists and ML engineers to convert experimental notebooks and models into stable, deployable services. • Security, Compliance & Governance Establish and enforce security controls, access policies, and governance standards that protect data and models throughout their lifecycle. • Data Platform Operations Support and maintain multiple data storage technologies—including relational databases, vector search engines, and graph-based systems—aligned with different ML use cases. • Monitoring & Reliability Build observability solutions that provide visibility into model behavior, data quality, system health, and infrastructure performance. • ML Tooling Ecosystem Integrate and maintain ML development platforms and libraries (such as Hugging Face) to streamline experimentation and deployment. Key Requirements• Professional Background Hands-on experience in MLOps, DevOps, platform engineering, or similar roles focused on automation and infrastructure. • Automation & Scripting Strong scripting skills in Python and shell languages (Bash, PowerShell) for building reliable automation. • Containers & Orchestration Practical experience designing and operating Docker-based workloads and Kubernetes clusters. • Cloud & IaC Expertise Experience working with cloud platforms—preferably GCP, with Azure as a plus—and significant hands-on use of Terraform. • Security & Networking Knowledge Solid understanding of secure system design, encryption practices, identity and access management, and core networking concepts. • Data Systems Exposure Familiarity with SQL databases as well as modern vector and graph data stores. • Machine Learning Foundations Conceptual understanding of contemporary ML approaches, including LLMs, embeddings, and retrieval-augmented generation techniques. Nice to Have• Advanced Python & ML Libraries Strong Python skills with exposure to ML frameworks such as PyTorch, TensorFlow, or Transformers. • GCP ML Ecosystem Experience using Google Cloud ML services like Vertex AI or BigQuery ML. • On-Premise & GPU Workloads Background in managing on-premise systems, particularly those supporting GPU-heavy ML workloads. • Hybrid Cloud Operations Demonstrated experience designing or operating hybrid-cloud infrastructures. • Azure IaC Tools Familiarity with Bicep for Azure resource management. Other DetailsThis position offers a flexible working environment in a hybrid model and focuses on developing machine learning systems across various industries. Candidates should be prepared to work collaboratively with teams across different regions, ensuring reliability and innovation in ML deployment.
ML Data Software Engineer
emagine Polska
⚲ Malmö Metropolitan Area
Wymagania
- Machine Learning (ML)
- C++
- Python
- Data Science
We are seeking a highly skilled ML Data Software Engineer for an exciting opportunity. The role involves expanding our engineering capabilities with a focus on machine learning. The ideal candidate will exhibit strong competencies in Data Science and Machine Learning, complemented by decent skills in C++ (which is a plus), and proficient in hands-on Python coding. Experience with generative AI is also desirable. Main Responsibilities• Ownership of projects ensuring quality and timely delivery • Developing and deploying ML models • Engaging in problem-solving with an emphasis on understanding the underlying mechanisms • Collaborating with cross-functional teams • Interpreting vague requirements and translating them into actionable tasks Key Requirements• Strong expertise in Data Science and Machine Learning • Proficient in Python coding • Solid understanding of Computer Science principles • Experience with C++ is advantageous • Ability to navigate and adapt in uncertain environments Nice to Have• Experience with generative AI technologies Other DetailsThis role starts ASAP and is part of a long-term project expected to last approximately 12 months, with the possibility of extension. The position is based in Malmö and requires on-site presence five days a week.
Lead AI Engineer
emagine Polska
⚲ Lisbon
Wymagania
- Machine Learning (ML)
- LLMs
- Operational Excellence
- training
- Artificial Intelligence (AI)
- TensorFlow
- Classification (Data Science)
- Python
We are seeking a Lead AI Engineer (LLMs & Data Pipelines) to drive the design, integration, and operational excellence of LLM-powered capabilities across our platforms. In this role, you will build intelligent features such as classification, extraction, summarization, and action orchestration powered by large language models. You will design embedding and retrieval pipelines (RAG, semantic search), create robust data pipelines for training and evaluation, and define clear evaluation metrics and quality gates to ensure reliable LLM behavior in production. You will work hands-on with inference runtimes such as ONNX Runtime and TensorFlow Lite, benchmarking performance across CPU, GPU, NPU, and DSP environments, and optimizing deployments for latency, cost, and reliability—including in constrained or embedded systems. Collaborating with engineering, data, and MLOps teams, you will integrate models into real-world APIs and production systems while continuously experimenting with prompts, architectures, and model choices. If you are passionate about turning advanced AI research into scalable, production-ready systems and enjoy balancing performance, accuracy, and operational constraints, this may be your next mission. Overall responsibilities and duties: • Build and integrate LLM-powered features (classification, extraction, summarization, actions). • Integrate models with inference runtimes (such as ONNX Runtime, TensorFlow Lite / LiteRT). • Benchmark and validate model performance across different hardware backends (CPU, GPU, NPU, DSP). • Design embedding and retrieval pipelines (RAG, semantic search). • Create and maintain data pipelines for training and evaluation. • Define evaluation metrics and quality gates for LLM behavior. • Optimize inference for latency, cost, and reliability. • Integrate models into production systems and APIs. • Run experiments to evaluate prompts, models, and architectures. Qualifications: • Strong experience with LLMs and NLP systems • Hands-on experience with embeddings and vector databases • Strong Python skills and ML frameworks • Experience building production data pipelines • Solid understanding of evaluation and regression detection • Experience with RAG architectures • MLOps or monitoring experience • Experience with model calibration and accuracy/latency trade-off analysis. • Hands-on experience deploying models on edge or embedded devices (constrained environments)
KI-Entwickler (m/w/d)
emagine Polska
⚲ Berlin
Wymagania
- Data Warehouse (DW)
- Neural Networks
- Data analysis
- training
- Artificial Intelligence (AI)
- PL/SQL
- Documentation
- Test Cases
- SQL
- Python
Wir, die emagine, suchen eine:n erfahrenen KI-Entwickler (m/w/d), der die Entwicklung und Optimierung von KI-Modellen in komplexen IT-Umgebungen unterstützt. Der ideale Kandidat verfügt über fundierte technische Expertise in Machine Learning, Python-Programmierung und Datenbanktechnologien sowie über ausgezeichnete Kommunikations- und Dokumentationsfähigkeite. Deine Aufgaben:• Entwurf, Entwicklung und Training von KI-Modellen unter Verwendung von logistischer Regression, Neuronalen Netzen und Random Forests • Implementierung und Optimierung von Machine-Learning-Workflows mit TensorFlow und Keras • Umfangreiche Nutzung von Python für das Training von KI-Modellen und die Datenverarbeitung • Arbeit mit Jupyter Notebook zur Entwicklung und Dokumentation von Datenanalyseprozessen • Abfrage und Verwaltung von Daten mit PL/SQL (Oracle) • Erstellung klarer, umfassender Dokumentationen und effektive Kommunikation von Lösungen im Team • Zusammenarbeit in containerisierten Umgebungen mit Kubernetes, OpenShift und Docker • Unterstützung bei der Integration und Verwaltung von Software-Artefakten (SAMS) und Container-Images Dein Profil:• Ausbildung: Bachelor-Abschluss in Informatik, Wirtschaftsinformatik oder gleichwertig • Sprachen: Deutsch (C1-Niveau oder Muttersprache) und gute Englischkenntnisse (mindestens B1) • Mindestens 2 KI-Projekte in den letzten 3 Jahren mit insgesamt 100 Personentagen • Praktische Erfahrung in der Entwicklung von KI-Modellen mit logistischer Regression, neuronalen Netzen und Random Forests • Fortgeschrittene Python-Kenntnisse im KI-Training • Nachweisbare Erfahrung mit TensorFlow, Keras und Jupyter Notebook • Kenntnisse in PL/SQL sowie Erfahrung mit Tools wie Toad, Oracle SQL Developer, Jira und Confluence • Zusätzliche Fähigkeiten: Fähigkeit zur Erstellung detaillierter Dokumentationen und zur klaren Vermittlung technischer Lösungen Bevorzugte Qualifikationen:• Erfahrung mit Kubernetes/OpenShift, Docker und Container-Image-Management • Vertrautheit mit Systemen der Steuerverwaltung und Projekten wie KONSENS • Ausgeprägte Problemlösungsfähigkeiten und selbstständige Arbeitsweise Standort: Karlsruhe Wir freuen uns auf Deine Bewerbung!
KI Deployment Engineer (m/w/d)
emagine Polska
⚲ Berlin
Wymagania
- Red Hat OpenShift
- Machine Learning (ML)
- REST
- Artificial Intelligence (AI)
- Kubernetes
- frontend
- Deployment
- Python
- Tender
- Microsoft Platform
Für ein langfristiges Projekt im Bereich Künstlicher Intelligenz wird ein erfahrener KI Deployment Engineer (m/w/d) gesucht, der das Team bei der Bereitstellung, dem Deployment und dem technischen Betrieb von KI‑Lösungen unterstützt. Die Rolle konzentriert sich insbesondere auf den Einsatz von Kubernetes, Red Hat OpenShift sowie die Bereitstellung von Large‑Language‑Modellen (LLMs) auf containerbasierten Infrastrukturen. Der Einsatz findet im Umfeld eines großen öffentlichen IT‑Dienstleisters statt. Deine Aufgaben: • Unterstützung bei der Bereitstellung und dem Deployment von KI‑Lösungen auf einer containerbasierten Infrastruktur, insbesondere Red Hat OpenShift und Kubernetes. • Technische Mitarbeit bei der Bereitstellung von Large‑Language‑Modellen (LLMs) auf der bestehenden OpenShift‑Plattform. • Durchführung von explorativen Datenanalysen sowie Aufbereitung von Daten zur Vorbereitung KI‑basierter Lösungen. • Unterstützung beim Deployment der KI‑Lösungen unter Nutzung moderner Container‑Technologien. • Enge Zusammenarbeit mit dem KI‑Team im Referat 416, das generative und klassische Machine‑Learning‑Verfahren nutzt. Dein Profil: • Mindestens 1 Jahr Erfahrung im Deployment von KI‑Lösungen auf containerbasierten Plattformen. • Mindestens 1 Jahr praktische Erfahrung mit Kubernetes und Red Hat OpenShift. • Mindestens 1 Jahr praktische Erfahrung mit ARGO (z. B. Argo Workflows / Argo CD). • Erfahrung in der technischen Unterstützung von KI‑Lösungen — vom Datenhandling bis zum produktionsnahen Deployment. • Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift. Vorteilhaft / Nice-to-have: • Python‑Erfahrung (bis zu 7 Punkte). • Kenntnisse in vLLM. • Erfahrung im Aufbau eines RAG‑Systems. • Erfahrung mit OpenShift AI. • Erfahrung in Web‑Frontend‑Entwicklung. • Erfahrung in IT‑Projekten der Finanzverwaltung. Andere Details: Zeitraum: Rahmenvereinbarung bis 2030. Arbeitsort: eine Vor-Ort-Präsenz von weniger als einen Tag pro Monat erwartet, rest Remote/Deutschland. Bei Interesse freue ich mich auf Deine Bewerbungsunterlagen, Verfügbarkeit und Stundensätze an tamara.petrovic.turkovic@emagine.de
GenAI / Agentic AI Solution Architect
emagine Polska
⚲ Poland (Remote)
170 - 200 PLN/h netto (B2B)
Wymagania
- GenAI
- AI
- Python
The Solution Architect designs AI-driven, LLM-based technical solutions across multiple pods. This role is responsible for interpreting business requirements, shaping the architectural approach, and ensuring that solutions follow emerging standards while moving quickly enough to support high-volume demand. Architects are currently the biggest bottleneck in the program, making this a mission-critical role. What we offer: • Big International project • Full Remote • Long Term B2B Contract Core Responsibilities: • Design end-to-end architectures for GenAI/LLM-based solutions across 100+ use cases. • Review requirements & business architecture documents and translate them into actionable solution designs. • Collaborate closely with TPMs and engineering teams to guide implementation, troubleshoot risks, and ensure alignment. • Create scalable, repeatable solution patterns, allowing reuse of components across pods and industries (e.g., reusable release-management agents across SAP/Oracle/Guidewire). • Balance speed over formality early on, while gradually contributing to future standardization across teams. • Support multi-shipment planning, contributing to feasibility assessments (POC -> MVP). • Participate in an architecture guild/committee as standards mature. Key Requirements: • 4-10 years experience in architecting or engineering AI-powered systems:• LLM-based applications • Retrieval-augmented generation (RAG) • Vector databases • Agentic workflows • Python-based AI stacks (LangChain, LangGraph, etc.) • Ability to design flexible and modular architectures, not monolithic products. • Experience reviewing and validating multi-component solutions (data ingestion, ETL, AI layer, UI/UX where needed). Nice to Have • Strong problem-solving mindset with ability to propose pragmatic solutions quickly. • Comfortable working across time zones with U.S. architects and partners. • Curious, collaborative, and willing to share learnings in a community-of-practice setting. • Ability to support multiple pods simultaneously with consistent quality. • High technical credibility and ability to challenge & guide developers. Other Details This position involves working remotely and may require coordination across various teams and schedules. The nature of the work supports a dynamic and rapidly evolving environment, with a focus on integrating AI solutions across different sectors.
Data Scientist Gen.AI (h/f)
emagine Polska
⚲ Issy-les-Moulineaux
Wymagania
- Security
- LLMs
- Artificial Intelligence (AI)
- Generative AI (GANs)
Nous recherchons un Data Scientist Gen AI pour contribuer au développement de solutions innovantes basées sur l'IA générative. Le candidat idéal doit posséder une expertise en IA générative et en machine learning, ainsi qu'une aptitude avérée à créer des applications conversationnelles efficaces dans un cadre international. Missions principales : • Concevoir et développer des solutions conversationnelles basées sur des modèles d’IA générative. • Participer à l’architecture technique et au choix des frameworks tels que les LLMs, orchestration, RAG et fine-tuning. • Implémenter des systèmes agentiques lorsque pertinent, y compris des multi-agents, l’utilisation d'outils et des chaînes de raisonnement. • Mettre en place des pipelines robustes pour la collecte de données, la vectorisation, le monitoring et l’évaluation. • Optimiser la performance, la fiabilité et la sécurité des réponses générées par les systèmes. • Collaborer activement avec les équipes interfonctionnelles pour atteindre les objectifs de projet. Profil recherché : • Anglais opérationnel pour un contexte international. • Expérience confirmée en IA générative. • Compétences confirmées en machine learning. • Expérience sur le développement de solutions conversationnelles.
AI/ML Computer Vision Expert
emagine Polska
⚲ New Delhi
Wymagania
- Microsoft Azure
- Machine Learning (ML)
- Neural Networks
- training
- Artificial Intelligence (AI)
- TensorFlow
- NumPy (Python)
- Deep Learning
- Python
- API (Application Programming Interface)
Introduction & Summary: We are seeking a highly skilled AI/ML Computer Vision Expert to join our team. The ideal candidate will possess strong programming abilities, extensive experience in deep learning frameworks, and a solid understanding of mathematical foundations essential for AI modeling.Main Responsibilities: The successful candidate will be responsible for delivering innovative computer vision solutions using advanced AI methodologies. Key responsibilities include: • Developing and optimizing computer vision algorithms using TensorFlow and PyTorch. • Implementing machine learning models on cloud platforms. • Collaborating with cross-functional teams to integrate AI solutions. • Conducting performance evaluations and refining models as necessary. • Contributing to the design and architecture of scalable AI systems. Key Requirements: • Strong Python development skills. • Deep understanding of OOP concepts and threading. • Hands-on experience with NumPy and SciPy. • Proficient in computer vision libraries such as OpenCV. • Experience with deep learning frameworks such as TensorFlow and PyTorch. • Strong fundamentals in Statistics, Probability, Linear Algebra, and Calculus. • Familiarity with neural network architectures like ANN, CNN, RNN, and RL. • Frontend development experience with PyQt, JavaScript, Vue.js, and Node.js. • Backend API development experience using FastAPI. • Experience with Azure and AKS is preferred. • Knowledge in using CUDA servers and GPUs for training. • Excellent problem-solving skills. Nice to Have: • Experience with VLMs and model fine-tuning techniques such as LoRA and QLoRA. • Experience working with advanced models like Qwen. Other Details: This position may offer opportunities for remote work and is suitable for candidates looking for engaging challenges in the field of AI and machine learning in a vibrant industry.
AI Plattform Engineer (m/w/d)
emagine Polska
⚲ Berlin
Wymagania
- Coordination
- Artificial Intelligence (AI)
- Documentation
- Data modeling
- SQL
- Python
- API (Application Programming Interface)
- Tender
- maintenance
- Microsoft Platform
Über die Rolle Für ein langfristiges Projekt im Bereich Künstlicher Intelligenz wird ein erfahrener Berater (m/w/d) gesucht, der als AI Plattform Engineer den Aufbau, die Weiterentwicklung und den stabilen Betrieb einer modernen on-premise Sprachmodell-Plattform verantwortet. Der Einsatz findet im Umfeld eines großen öffentlichen IT-Dienstleisters statt. Deine Aufgaben: • Aufbau und Betreuung einer skalierbaren on-premise Sprachmodell-Plattform für generative KI • Einrichtung, Dokumentation und Verwaltung einer RAG-Chat-Anwendung in Container-Umgebungen (z. B. OpenShift) • Integration von Benutzerauthentifizierung und modularen Erweiterungsmöglichkeiten für die Plattform • Sicherstellung eines stabilen Plattformbetriebs, inkl. Monitoring von Ressourcen, Logs & Fehleranalyse • Entwicklung von Daten- und Analysepipelines für Extraktion, Transformation und Anreicherung von Daten sowie Ablage in Vektor- und NoSQL-Datenbanken • Aufbau spezialisierter Wissensdatenbanken (Datenmodellierung, Indexierung, semantische Suche) • Entwicklung einer zentralen Schnittstelle (API) für die Anbindung von Chatbot, Browser-Extensions, IDEs und Office-Tools an SQL-, NoSQL- und Vektordatenbanken • Dokumentation aller technischen Tätigkeiten und enge Abstimmung mit dem Projektteam Dein Profil: • Mehr als 8 Jahre Projekterfahrung in der Künstlichen Intelligenz, nachweisbar durch Projektreferenzen • Mindestens 5 Jahre professionelle Python-Programmiererfahrung (Datenverarbeitung, KI, Automatisierung) • Mindestens ein abgeschlossenes Praxisprojekt als AI Plattform Engineer (z. B. Aufbau KI-Infrastruktur, MLOps, GenAI-Plattformen) • Fähigkeit, on-premise KI-Lösungen zu entwickeln und zu betreiben (GPU-Umgebungen, Containerplattformen) • Erfahrung im Aufbau und Betrieb einer RAG-Chat-Lösung und im Entwickeln von Datenpipelines • Kenntnisse zu modernen KI-Frameworks, u. a. vLLM, Vektordatenbanken und Container-Orchestrierung • Vorteil: Erfahrung in IT-Projekten der öffentlichen Verwaltung • Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift Wünschenswert (Nice-to-Have): • On-Premise KI-Systeme (Dev & Ops) Erfahrung • Erfahrung mit RAG-Lösungen • Daten- und Analysepipelines • Kenntnisse zu modernen KI-Frameworks, u. a. vLLM • Projektkenntnis in der Finanzverwaltung Andere Details Zeitraum: Rahmenvereinbarung bis 2030 Arbeitsort: Vor-Ort-Präsenz von weniger als einem Tag je Monat Woche erwartet, Remote/Deutschland Kurz zusammengefasst Diese Rolle ist ideal für Dich, wenn Du: • Erfahrung mit Künstliche Intelligenz hast und bereits komplexe KI-Projekte erfolgreich umgesetzt hast • Erfahrung mit RAG-Lösungen hast • Starke Python-Programmierungskenntnisse (mind. 5 Jahre) mitbringst • Erfahrung im Aufbau von Datenpipelines und dem Arbeiten mit Vektor- und NoSQL-Datenbanken hast • Kenntnisse zu modernen KI-Frameworks, u. a. vLLM hast Bei Interesse freue ich mich auf Deine Bewerbungsunterlagen, Verfügbarkeit und Stundensätze an tamara.petrovic.turkovic@emagine.de!
AI Integrations Engineer
Vercom S.A.
⚲ Kraków
13 000 - 17 500 PLN netto (B2B)
Wymagania
- AI-assisted development (Cursor/Copilot)
- LLM
- REST API
- Prompt Engineering
W Vercom tworzymy globalne platformy komunikacyjne w chmurze (CPaaS), które umożliwiają firmom budowanie i rozwijanie trwałych relacji z odbiorcami za pośrednictwem wielu kanałów komunikacji. Nasze rozwiązania pomagają klientom przezwyciężyć złożoność komunikacji, automatyzować ją oraz zwiększać jej skalę, zachowując przy tym wysoką dostarczalność i efektywność - wszystko to w szybki, bezpieczny i niezawodny sposób. U nas rozwiniesz swoje umiejętności techniczne, ale co najważniejsze masz realny wpływ na kształtowanie naszych produktów. Pracujemy nad rozwiązaniami, które codziennie ułatwiają komunikację milionom użytkowników na całym świecie. Jeśli szukasz miejsca, gdzie Twoja praca ma znaczenie, a zespół wspiera Twój rozwój - dołącz do nas! Szukamy osoby, która: • Ma praktyczne doświadczenie w pracy z API modeli językowych, • Zna możliwości i ograniczenia LLM (halucynacje, token limits, context windows), • Ma doświadczenie w AI-assisted development (np. Cursor, GitHub Copilot, Cody) jako codzienne narzędzie pracy, • Potrafi zaprojektować architekturę rozwiązań wykorzystujących AI do automatyzacji integracji. • Ma doświadczenie w integracji systemów IT i pracy z REST API / GraphQL, • Ma doświadczenie w obiektowych językach oprogramowania (np. C#, Java, PHP, JS), • Potrafi analizować i rozwiązywać problemy techniczne. Mile widziane: • Doświadczenie w Prompt Engineering, • Znajomość podejścia Spec-Driven Development, • Doświadczenie w pracy z webhookami i event-driven architecture, • Umiejętność projektowania Dataflow. Jakie zadania na Ciebie czekają: • Projektowanie, tworzenie oraz rozwijanie integracji pomiędzy systemami IT, • Tworzenie i optymalizacja promptów sterujących logiką i przetwarzaniem danych w celu stworzenia wtyczek w systemach zewnętrznych, • Utrzymanie stabilności i ciągłości działania istniejących integracji, analiza błędów oraz wdrażanie poprawek, • Współpraca z zespołami IT i biznesowymi w celu doprecyzowania wymagań technicznych, • Kontakt z dostawcami systemów oraz partnerami zewnętrznymi. Co oferujemy? • Umowę B2B (13,000 - 17,500 zł netto), • Niezbędny sprzęt do pracy, • Współpracę z doświadczonymi liderami, • Pracę w trybie hybrydowym (3 dni z biura, 2 dni zdalnie), • Bezpłatne lekcje języka angielskiego w godzinach pracy, • Budżet na naukę i udział w wydarzeniach branżowych, • Dofinansowanie do prywatnej opieki medycznej, karty Multisport i ubezpieczenia grupowego, • Program wellbeingowy, • Komfortowe warunki pracy w nowoczesnym biurowcu w Krakowie. Jak wygląda u nas proces rekrutacji? 1. Krótka rozmowa telefoniczna z rekruterem (15 min) - poznajmy się! Opowiemy Ci trochę więcej o roli.2. Rozmowa online z przyszłym liderem (30 min) - chcemy lepiej poznać Twój background i oczekiwania. 3. Zadanie techniczne (task) - przejrzyste i dobrze opisane, abyś miał pewność co trzeba zrobić. Wykonasz je w domu, niewielkim nakładem pracy. 4. Spotkanie techniczne w naszym biurze w Krakowie (ok. 1 h) - tutaj spotykamy się na omówienie zadania. 5. Decyzja i feedback - dajemy znać jak najszybciej - niezależnie od wyniku! Masz pytania? Nie ma sprawy - chętnie odpowiemy na nie, podczas procesu rekrutacyjnego.
AI Engineer with Gen AI & LLM & RAG
emagine Polska
⚲ Warszawa
25 200 - 33 600 PLN netto (B2B)
Wymagania
- GenAI
- Machine Learning
- AI
- RAG
- REST API
- .Net
- Python
Workload: full-timeWork model: 100% Remote Rate: to be negotiated We are seeking a Senior AI Engineer who combines strong software engineering fundamentals with hands-on experience building production GenAI solutions, including agentic workflows and Retrieval-Augmented Generation (RAG). • This is an engineering and orchestration role focused on integrating LLM capabilities into enterprise systems – not a traditional model-training/ML research role. • 5+ years of professional software development experience (ideally 7+ years across backend/API/integration and cloud platforms). • Proven ability to ship production-grade LLM applications (RAG, tool/function calling, agent orchestration) with reliability, security, and observability. • Strong ownership mindset and passion for AI engineering – curiosity, experimentation, and a drive to continuously improve the product and the team. • Excellent communication and collaboration skills; ability to guide, mentor, and unblock other engineers as we build out an AI engineering capability. Main Responsibilities: • Design, build, and operate agentic AI services that orchestrate tools, workflows, and integrations across cloud systems and enterprise data sources. • Implement and continuously improve RAG pipelines for tax artifacts and internal knowledge, including ingestion, retrieval tuning, and evaluation. • Integrate AI workflows with existing internal platforms (e.g., assistant frameworks) and back-end services through robust APIs. • Define and maintain tool/function schemas and orchestration patterns; implement streaming updates, interrupts, and human-in-the-loop steps as needed. • Partner with other engineers to set direction, mentor, and unblock the team — helping establish strong foundations for the AI initiative. • Build in quality from day one: automated tests, evaluation checks, monitoring/telemetry, and performance optimization for network-bound workloads. • Participate in Agile ceremonies (daily scrums, refinement/grooming, planning) and collaborate through peer review, pair programming, and strong documentation. • Apply best practices, design principles, and security standards throughout the SDLC, with a focus on reliability and responsible AI. Key Requirements: • Strong software engineering background (not a research-only data science profile): designing, building, and operating production systems. • Proficiency in at least one backend language used for AI systems (Python preferred). • Hands-on experience building and integrating RESTful APIs; GraphQL experience is a plus. • Strong understanding of distributed systems fundamentals: concurrency, async I/O, resiliency/retries, rate limits, caching, and performance optimization. • Experience integrating with external services and internal platforms via APIs and event-driven patterns. • Solid database fundamentals (SQL design, performance, migrations); experience with vector search is required, and hybrid search stores are a plus. • Hands-on experience building LLM-powered applications end-to-end: prompt design, tool/function interfaces, structured outputs, and streaming user experiences. • Experience with RAG systems: document ingestion pipelines, chunking/metadata, embeddings, retrieval strategies, grounding, and evaluation. • Cloud services expertise: Strong knowledge of Azure cloud services used for enterprise AI solutions (e.g., Functions, Storage, Key Vault, App Configuration, Application Insights). • Development practices experience: Strong background in unit and integration testing; ability to build and maintain AI evaluation harnesses (golden sets, regression tests, automated checks). Nice to Have: • Direct experience with LangGraph and/or LangChain for multi-agent workflows. • Familiarity with emerging agentic ecosystem concepts/protocols (e.g., MCP, A2A, ADK or similar). • Experience integrating AI services into .NET (ASP.NET Core) applications or building AI microservices that serve enterprise applications. • Experience with event-driven architectures (service bus, event hubs) and real-time updates/streaming to UI. • Experience working with tax/enterprise document corpora and governance constraints (PII, retention, access control). Other Details: This position is designed for remote work and has a flexible duration, allowing for innovation in the AI space within an agile environment.
AI Engineer
Billennium
⚲ Poland (Remote), Gdańsk, Wrocław, Kraków, Poznań
Wymagania
- LLMs
- AI
- RAG
- Langchain
- Langgraph
- Python
Billennium is a global technology company with over 20 years of experience, committed to innovation and empowering businesses. As an employer, we offer a supportive, growth-focused environment where collaboration and creativity thrive. Join us to shape the future of technology together!We are seeking a Senior AI Engineer who can rapidly design, build, and deliver production-grade AI components across our LLM gateways, agentic workflows, and RAG pipelines. In this role, you’ll work closely with AI Architects and Product Managers to transform high-level solution designs into scalable, high-performance systems. This position is highly hands-on, experiment-driven, and focused on fast, reliable execution.What You’ll Do: AI Systems & Workflow Engineering • Implement LLM-based workflows, RAG pipelines, retrieval interfaces, and orchestration graphs. • Build and refine agentic solutions using LangChain, LangGraph, n8n, and internal orchestration tools. • Implement and optimize embeddings, vector search, hybrid retrieval, and model routing. Software Engineering Excellence • Write clean, well-tested Python code and contribute to reusable internal AI modules. • Package AI components into reusable building blocks (RAG modules, prompt patterns, agent templates). • Contribute to our internal AI library to ensure solutions scale across multiple client environments. Model Performance, Evaluation & Safety • Implement automated model evaluation loops; benchmark LLMs to improve accuracy, latency, safety, and robustness. • Design and run evaluation suites using Evals, PromptGuard, DSPy, and related frameworks. • Ensure compliance with Responsible AI standards, including auditability, usage logs, lineage tracking, and risk flagging. Deployment, Scaling & Observability • Own CI/CD pipelines for AI systems and deploy scalable inference services using Docker, Kubernetes, or Azure Container Apps. • Implement telemetry, tracing, and monitoring with Langfuse or equivalent observability tools. Cross-Functional Collaboration • Work with AI Architects to convert conceptual designs into executable modules and workflows. • Partner with Product and Business teams to validate prototypes rapidly and drive features to production. • Collaborate with platform, data engineering, and compliance teams to ensure enterprise-grade quality and readiness. What You Bring • Strong experience with LLM applications, RAG pipelines, embeddings, and retrieval systems. • Advanced proficiency in Python, distributed systems, and containerized deployment. • Hands-on experience with one or more: LangChain, LangGraph, n8n, DSPy, Langfuse. • Ability to work in fast-paced, experiment-driven environments with short iteration cycles. • A builder mindset: capable of turning solution designs into robust, scalable components quickly. Perks and benefits: • Comprehensive benefits - enjoy Udemy for Business, private medical care, Multisport card, veterinary package, language lessons, and shopping vouchers. • Flexibility - adaptable working hours and remote/hybrid work options to suit your lifestyle & location. • Career growth - access opportunities for professional development and learning, including perks related to our official partnerships with global IT giants: Microsoft, AWS, Snowflake, Salesforce & more. • Global collaboration - work with a diverse, international team. • Innovative environment - be part of a forward-thinking and growth-oriented workplace. • Engaging community – Work with passionate professionals and participate in team-building events, hackathons, and CSR initiatives to make an impact beyond work. • Team-building events including our company tradition (annual company event in Mazury). • A pleasant surprise to start your journey with us in the form of a welcome pack. Recruitment process: • HR call • Technical Interview • Interview with the dedicated Client • Final decision/ Feedback
AI Backend Developer/ Developerka
B2Bnetwork
⚲ Warszawa
15 120 - 16 380 PLN netto (B2B)
Wymagania
- Machine Learning
- Google Cloud Platform
- LLM
- Node.js
- Linux
- Kubernetes
- Java
- Python
• Projektowanie, rozwój i utrzymanie aplikacji backendowych w Javie, w tym rozbudowa istniejących systemów oraz implementacja nowych funkcjonalności wykorzystujących modele ML/LLM. • Tworzenie i rozwój serwisów integrujących modele AI poprzez API (REST/gRPC), w tym obsługa promptów oraz implementacja logiki orchestration. • Współtworzenie i utrzymanie AI Gateway / LLM Routera zarządzającego ruchem do modeli wewnętrznych i zewnętrznych (routing, fallbacki, limity, logowanie). • Wdrażanie, konfiguracja i utrzymanie aplikacji w środowisku Google Cloud Platform, w szczególności z wykorzystaniem GKE oraz innych usług chmurowych. • Samodzielne przygotowywanie i zarządzanie konfiguracją aplikacji w Kubernetes (manifesty, deploymenty, skalowanie, troubleshooting). • Współpraca z zespołami MLOps i DevSecOps w zakresie automatyzacji CI/CD, bezpieczeństwa oraz stabilności środowiska produkcyjnego. • Realizacja Proof of Concept dla nowych narzędzi i technologii AI oraz ocena ich przydatności biznesowej. • Monitorowanie działania aplikacji, analiza logów oraz rozwiązywanie problemów w środowisku Linux. • Dbanie o jakość, wydajność, bezpieczeństwo i skalowalność tworzonych rozwiązań w środowisku regulowanym.
Senior Data Scientist
Craftware
⚲ Warszawa
160 - 200 PLN/h netto (B2B)
Wymagania
- LLM
- Azure
- JavaScript
- Python
We are a provider of digital transformation and technology consulting services with a portfolio of solutions for both clients who do not yet have Salesforce and large organizations that work on Salesforce and use its extensive capabilities ☁. We also provide body and team leasing services in IT, providing specialists in various fields. Model: remoteEmployment type: full-time Responsibilities: • Design and implement complex multi-agent workflows using LangChain, LangGraph, or n8n, including advanced agent routing and state management. • Build and deploy advanced RAG (Retrieval-Augmented Generation) systems in production environments. • Develop and integrate multimodal conversational pipelines, including TTS/STT (Text-to-Speech / Speech-to-Text) for asynchronous Human-AI interview flows. • Architect robust Text-to-SQL pipelines, accurately mapping natural language to deterministic SQL queries and predefined business logic views. • Ensure AI systems strictly route financial and operational logic to validated backend services (no probabilistic “guessing” of calculations). • Design and implement continuous evaluation frameworks, including LLM-as-a-judge validation pipelines to monitor hallucination rates and response quality. • Implement AI observability and monitoring using tools such as Langfuse (or similar), creating a continuous improvement feedback loop. • Develop multilingual validation pipelines to evaluate RAG performance, intent classification accuracy, and transcription quality (including Italian medical/pharmaceutical terminology). • Optimize AI system performance through prompt caching, context-window management, and intelligent fallback model configuration to ensure reliability and low latency. • Define guardrails and testing strategies appropriate for GenAI systems beyond traditional QA approaches. Required: • Proven hands-on experience with LangChain, LangGraph, or n8n (multi-agent workflow orchestration). • Strong experience designing and deploying RAG systems in production. • Practical experience integrating TTS/STT pipelines into conversational AI systems. • Advanced knowledge of SQL and deterministic business logic routing (Text-to-SQL systems). • Experience with Langfuse or similar AI observability/monitoring tools. • Solid understanding of prompt caching and context-window management strategies. • Experience designing evaluation and validation pipelines for GenAI systems. • Strong system-thinking mindset with focus on reliability, optimization, and scalable AI architecture.
MLOps Engineer (NXJ-125)
Newxel
⚲ Warszawa
Wymagania
- CI/CD
- Docker
- Terraform
- Kubernetes
- Azure DevOps
- Python
- DevOps tools
We’re seeking a skilled and motivated MLOps Engineer to join a fast-moving team building an AI-powered platform for automatic sports highlights generation. In this role, you’ll take ownership of the full MLOps lifecycle—from research and model training to production deployment and scalable infrastructure. You’ll design and maintain robust ML pipelines, automate workflows across Computer Vision, NLP, and Data Science, and build reliable CI/CD processes that keep high-uptime systems running smoothly. Your work will help deliver cutting-edge AI experiences at cloud scale, powering innovation and performance across the entire platform. Responsibilities • Own and manage every aspect in the MLOps life cycle for our AI-based automatic sports highlights generation platform • Design, implement and maintain our whole ML infrastructure, from research to production and from model training to data engineering • Automate and innovate workflows such as serving and training pipelines for multidisciplinary ML algorithms including Computer Vision, NLP and Data Science • Build and maintain CI/CD pipelines, releases and Source Code workflows Requirements • 4+ years of experience as an MLOps engineer, DevOps engineer, ML Engineer, or in a similar field • Experience in a large, complex, large-scale, high-uptime production Cloud environment • Core understanding of Linux OS, Docker components, and Kubernetes • Experience with CI/CD pipelines for distributed production systems • Experience with Python scripting • Work experience with Terraform • Working with MLOps platforms such as Experiment Tracking, Model Registry, feature Store - an advantage (e.g ClearML , W&B, Aws Sagemaker) • Highly motivated, goal-driven, innovative, curious, and open-minded Will be a plus • Working with Azure Cloud in a high-scale production environment • Understanding of AI and machine learning fundamentals, concepts and frameworks What we offer • Competitive salary range • Medical insurance • Paid vacation and sick leaves • MultiSport card • Top equipment kit, co-workings • Hybrid set of works (Office location: Warsaw) • Collaborative and innovative work environment • Career growth and development opportunities • A chance to work with giants of the sports industry About the project Our partner leads the industry in generating dynamic sports videos for every digital destination. Their cutting-edge AI and Machine Learning technologies analyse live sports broadcasts from over 250 leagues and broadcast partners, including iconic names like the NBA, NHL, ESPN, FIBA and Bundesliga, to create personalized, short-form videos in real-time. The solution empowers media rights owners to unlock new revenue streams and deliver a tailored fan experience across every digital platform. Join the high-profile Engineering team and discover the forefront of sports contents innovation.
ML/Data Scientist
Ness Solution
⚲ Warszawa
140 - 170 PLN/h netto (B2B)
Wymagania
- Machine Learning
- Python
- Data Science
🕒 Współpraca długofalowa 💼 Forma współpracy: B2B 🏢 Tryb pracy: hybrydowy (Warszawa) 3 dni pracy w biurze, 2 dni pracy zdalnej 📈 Branża: Ubezpieczeniowa Projekt: Projekt polega na tworzeniu i wdrażaniu modeli statystycznych oraz uczenia maszynowego wspierających procesy aktuarialne, opartych na analizie dużych zbiorów danych, automatyzacji procesów i ścisłej współpracy z ekspertami biznesowymi w celu dostarczania praktycznych rekomendacji decyzyjnych.Zakres obowiązków: • Opracowywanie, wdrażanie i utrzymywanie modeli statystycznych oraz uczenia maszynowego wspierających funkcje aktuarialne. • Analiza dużych i złożonych zbiorów danych w celu uzyskania praktycznych wniosków wspierających proces podejmowania decyzji. • Przeprowadzanie eksploracyjnej analizy danych i tworzenie cech (feature engineering) dla poprawy jakości modeli i ich interpretowalności. • Wspieranie automatyzacji i optymalizacji procesów aktuarialnych z wykorzystaniem nowoczesnych narzędzi i frameworków data science. • Ścisła współpraca z aktuariuszami, underwriterami i zespołami likwidacji szkód w celu przekładania wyzwań biznesowych na rozwiązania analityczne. • Przygotowywanie prezentacji wyników i rekomendacji w sposób zrozumiały dla odbiorców technicznych. Wymagania: • Biegłość w Pythonie w zakresie analizy danych i modelowania. • Dobra znajomość metod uczenia maszynowego, analityki predykcyjnej oraz wnioskowania statystycznego. • Doświadczenie w pracy z narzędziami do przetwarzania danych (np. pandas, SQL) oraz wizualizacji danych (np. matplotlib, seaborn, ggplot2). • Umiejętność pracy z wykorzystaniem repozytorium kodu. • Silne umiejętności rozwiązywania problemów i pasja do odkrywania wniosków płynących z danych. • Umiejętność współpracy w interdyscyplinarnych zespołach. Mile widziane: • Znajomość narzędzi pricingowych WTW (Emblem, Radar). • Znajomość branży ubezpieczeniowej. • Znajomość narzędzi SAS. • Znajomość systemów kontroli wersji (Git). • Znajomość środowisk chmurowych (AWS, Azure). Dlaczego warto: • Projekt o realnym wpływie na dane w dużej organizacji. • Nowoczesne technologie i środowisko chmurowe. • Stabilna współpraca (B2B). • Elastyczny model pracy (hybrydowy).
AI Engineer (GenAI/Agentic Systems)
DCG
⚲ Warszawa
150 - 170 PLN/h netto (B2B)
Wymagania
- LLM
- Docker
- RAG
- Azure
- OpenAI
- Langchain
- Langgraph
- Azure DevOps
- RESTful API
- Python
As a recruitment company, DCG understands that every business is powered by experienced professionals. Our management style and partnership approach enable us to meet your needs and provide continuous support. Due to our ongoing growth and the large number of recruitment projects we undertake for our partners, we are currently looking for: AI Engineer (GenAI/Agentic Systems) Responsibilities: • Design, build, and operate agentic AI services that orchestrate tools, workflows, and integrations across cloud systems and enterprise data sources • Implement and continuously improve RAG pipelines for tax artifacts and internal knowledge, including ingestion, retrieval tuning, and evaluation • Integrate AI workflows with existing internal platforms (e.g., assistant frameworks) and back-end services through robust APIs • Define and maintain tool/function schemas and orchestration patterns; implement streaming updates, interrupts, and human-in-the-loop steps as needed • Partner with other engineers to set direction, mentor, and unblock the team – helping establish strong foundations for the AI initiative • Build in quality from day one: automated tests, evaluation checks, monitoring/telemetry, and performance optimization for network-bound workloads • Participate in Agile ceremonies (daily scrums, refinement/grooming, planning) and collaborate through peer review, pair programming, and strong documentation • Apply best practices, design principles, and security standards throughout the SDLC, with a focus on reliability and responsible AI Requirements: • 5+ years of professional software development experience (ideally 7+ years across backend/API/integration and cloud platforms) • Proven ability to ship production-grade LLM applications (RAG, tool/function calling, agent orchestration) with reliability, security, and observability • Proficiency in at least one backend language used for AI systems (Python preferred) and comfort integrating with enterprise stacks (C#/.NET is a plus) • Hands-on experience building and integrating RESTful APIs; GraphQL experience is a plus • Experience integrating with external services and internal platforms via APIs and event-driven patterns • Hands-on experience building LLM-powered applications end-to-end: prompt design, tool/function interfaces, structured outputs, and streaming user experiences • Experience with RAG systems: document ingestion pipelines, chunking/metadata, embeddings, retrieval strategies, grounding, and evaluation • Experience with agentic frameworks and orchestration concepts (planning, routing, tool use, human-in-the-loop interruptions) • Frameworks may include LangGraph, LangChain, Microsoft Semantic Kernel, or equivalent • Experience working with model platforms (e.g., Azure OpenAI/OpenAI or similar) and designing for reliability (timeouts, fallbacks, quotas) • Strong knowledge of Azure cloud services used for enterprise AI solutions (e.g., Functions, Storage, Key Vault, App Configuration, Application Insights) • Experience with search and retrieval services (Azure AI Search or similar) and building scalable, network-bound workloads • Hands-on experience with CI/CD and automated deployments (Azure DevOps preferred), including containerization (Docker)
AI Engineer
iTeamly
⚲ Kraków, Wrocław, Łódź, Gdańsk, Warszawa
15 000 - 22 000 PLN netto (B2B)
Wymagania
- AWS
- Docker
- Kubernetes
- Python
You will join a team building next-generation AI-powered products based on Large Language Models. The project focuses on transforming LLM prototypes into scalable, secure, and production-grade systems. The role covers the full AI lifecycle – from architecture and backend development to infrastructure, monitoring, and cost optimisation. ✅ Your responsibilities: • Build and maintain production-grade LLM systems (including RAG, semantic search, embeddings, vector databases). • Design and develop APIs and microservices in Python (e.g. FastAPI). • Develop and maintain CI/CD pipelines for models (LLMOps/MLOps). • Deploy and manage infrastructure in AWS (Lambda, ECS/EKS, S3, API Gateway, CloudWatch). • Implement containerisation (Docker) and orchestration (Kubernetes). • Monitor model quality (latency, drift, hallucinations, cost efficiency). • Collaborate closely with Data Science, ML, Data Engineering and Product teams. 🧠 Our requirements: • Strong Python skills with experience building production APIs. • Hands-on experience deploying LLM-based systems in production. • Practical knowledge of RAG, embeddings, vector databases, and semantic search. • Experience with AWS and scalable backend system design. • Solid understanding of Docker, Kubernetes and CI/CD. • Proven ability to move from PoC to stable production solutions. 🌟Preferred Qualifications: • Experience with multimodal models (text, image, video). • Familiarity with LLMOps/MLOps tooling and evaluation frameworks. • Experience optimising inference performance and managing AI costs at scale. • Background in product-led or data-driven organisations. 🌟 What we offer: • Opportunity to work on advanced AI systems with real product impact. • Strong influence on architecture and technology decisions. • Collaboration with an experienced Data & AI team in an international environment. • Flexible and remote-friendly working mode • Health and wellbeing benefits
AI Engineer
ITEAMLY SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Kraków
15 500 - 22 000 zł net (+ VAT)
Wymagania
- Python
- AWS
- Docker
- Kubernetes
Wymagania: - Minimum 4-5 years of experience in an AI Engineer role or a similar position. - Strong Python skills with experience building production APIs. - Hands-on experience deploying LLM-based systems in production. - Practical knowledge of RAG, embeddings, vector databases, and semantic search. - Experience with AWS and scalable backend system design. - Solid understanding of Docker, Kubernetes and CI/CD. - Proven ability to move from PoC to stable production solutions. Mile widziane: - Experience with multimodal models (text, image, video). - Familiarity with LLMOps/MLOps tooling and evaluation frameworks. - Experience optimising inference performance and managing AI costs at scale. - Background in product-led or data-driven organisations. O firmie: - As Venture Building, we create profitable technology companies from scratch. We collaborate with partners who share similar aspirations and are open to leveraging the potential of their networks, cultivated over years. We regularly launch new projects founded on long-term, amicable relationships with our associates. Zakres obowiązków: - Build and maintain production-grade LLM systems (including RAG, semantic search, embeddings, vector databases). - Design and develop APIs and microservices in Python (e.g. FastAPI). - Develop and maintain CI/CD pipelines for models (LLMOps/MLOps). - Deploy and manage infrastructure in AWS (Lambda, ECS/EKS, S3, API Gateway, CloudWatch). - Implement containerisation (Docker) and orchestration (Kubernetes). - Monitor model quality (latency, drift, hallucinations, cost efficiency). - Collaborate closely with Data Science, ML, Data Engineering and Product teams. Oferujemy: - Opportunity to work on advanced AI systems with real product impact. - Strong influence on architecture and technology decisions. - Collaboration with an experienced Data & AI team in an international environment. - Flexible and remote-friendly working mode - Health and wellbeing benefits
Senior Cloud Solutions Engineer (AI-First Mindset)
Locon Sp. z o.o.
⚲ Warszawa
26 000 - 30 000 PLN netto (B2B)
Wymagania
- IaC
- TypeScript
- AI
- Docker
- GitHub
- GCP
- Vibe Coding
- Python
Senior Cloud Solutions Engineer (AI-First Mindset) Dołącz do zespołu AI R&D w Locon! Poszukujemy osoby na stanowisko Senior Cloud Solutions Engineer, która wniesie do zespołu innowacyjne podejście, świeże spojrzenie oraz kreatywność w rozwiązywaniu złożonych wyzwań. Cenimy doświadczenie zdobyte w środowiskach B+R, otwartość na nowe technologie oraz proaktywne działanie 🤝. Locon to firma z ponad 30-letnim doświadczeniem w tworzeniu oprogramowania dla bezpieczeństwa rodzin, której zaufało ponad milion użytkowników. Weszliśmy w kolejny etap rozwoju: budujemy organizację AI-first, w której sztuczna inteligencja i agenci AI stają się integralną częścią naszych produktów, procesów oraz sposobu pracy. AI traktujemy jako warstwę infrastrukturalną – projektujemy architekturę systemów tak, aby była gotowa na integrację z modelami językowymi, agentami i automatyzacją opartą o LLM. Dołączysz do zespołu pracującego nad rozwiązaniami o dużej skali i realnej społecznej wartości. 📍 Szczegóły Lokalizacja: Warszawa Wynagrodzenie: 26 000 – 30 000 PLN (B2B) Tryb pracy: hybrydowy 🚀 Wyzwania jakie na Ciebie czekają 💡 Rozwiązania • Projektowanie i implementacja dedykowanych rozwiązań dla klienta wewnętrznego • Realizacja projektów z obszaru gromadzenia i analizy danych, Big Data oraz Business Intelligence • Budowa Agentów AI (n8n, Agentic flow) ☁️ Infrastruktura chmurowa • Projektowanie i rozwój infrastruktury w Google Cloud Platform z naciskiem na bezpieczeństwo, skalowalność i wysoką dostępność • Optymalizacja kosztów chmury oraz projektowanie przepływów danych w środowisku Big Data 🤖 Automatyzacja • Automatyzacja procesów CI/CD i rozwój pipeline’ów • Wdrażanie rozwiązań opartych na konteneryzacji • Implementacja Infrastructure as Code 🎯 Wymagania • Doświadczenie w Cloud Engineeringu (min. 5 lat), administracji systemami lub SRE • Znajomość Google Cloud Platform lub doświadczenie z AWS /Azure + chęć rozwoju w GCP • Doświadczenie z Dockerem i Kubernetesem • Umiejętność budowania CI/CD i Infrastructure as Code • Znajomość systemów Linux i skryptowania • Doświadczenie w budowie i wdrażaniu Agentów AI • Praktyczna znajomość koncepcji Agentic Systems / Agentic Flow • Doświadczenie w vibecodingu i pracy z AI w procesie developmentu • Umiejętność projektowania architektury pod rozwiązania AI-first ⭐ Mile widziane • Certyfikaty chmurowe (GCP, AWS Solutions Architect, Azure) • Świadomość zagadnień Cyber Security w chmurze • Doświadczenie w optymalizacji kosztów chmury • Praktyka w projektowaniu przepływów Big Data • Doświadczenie z AI/ML w środowisku DevOps • Certyfikaty z zakresu bezpieczeństwa • Praktyka w projektowaniu systemów rozproszonych 🎁 Oferujemy • Budżet na szkolenia, certyfikaty i konferencje — szczególnie w obszarze AI 🎓 • Ścieżka rozwoju w kierunku Lead Architect • Realny wpływ na infrastrukturę i procesy • Pracę z misją społeczną — rozwijanie technologii zwiększających bezpieczeństwo rodzin • Prywatną opiekę medyczną 🩺 • Kartę sportową 🏃 • Integracje zespołowe 🎉
Cloud Solutions Engineer (AI-First Mindset)
Locon Sp. z o.o.
⚲ Warszawa
22 000 - 24 000 PLN netto (B2B)
Wymagania
- IaC
- TypeScript
- AI
- Docker
- GitHub
- GCP
- Vibe Coding
- Python
Cloud Solutions Engineer Dołącz do zespołu AI R&D w Locon! Poszukujemy osoby na stanowisko Cloud Solutions Engineer, która wniesie do zespołu innowacyjne podejście, świeże spojrzenie oraz kreatywność w rozwiązywaniu złożonych wyzwań. Cenimy doświadczenie zdobyte w środowiskach B+R, otwartość na nowe technologie oraz proaktywne działanie 🤝. Locon to firma z ponad 30-letnim doświadczeniem w tworzeniu oprogramowania dla bezpieczeństwa rodzin, której zaufało ponad milion użytkowników. Weszliśmy w kolejny etap rozwoju: budujemy organizację AI-first, w której sztuczna inteligencja i agenci AI stają się integralną częścią naszych produktów, procesów oraz sposobu pracy. AI traktujemy jako warstwę infrastrukturalną – projektujemy architekturę systemów tak, aby była gotowa na integrację z modelami językowymi, agentami i automatyzacją opartą o LLM. Dołączysz do zespołu pracującego nad rozwiązaniami o dużej skali i realnej społecznej wartości. 📍 Szczegóły Lokalizacja: Warszawa Wynagrodzenie: 22 000 – 24 000 PLN (B2B) Tryb pracy: hybrydowy 🚀 Wyzwania jakie na Ciebie czekają 💡 Rozwiązania • Projektowanie i implementacja dedykowanych rozwiązań dla klienta wewnętrznego • Realizacja projektów z obszaru gromadzenia i analizy danych, Big Data oraz Business Intelligence • Budowa Agentów AI (n8n, Agentic flow) ☁️ Infrastruktura chmurowa • Projektowanie i rozwój infrastruktury w Google Cloud Platform z naciskiem na bezpieczeństwo, skalowalność i wysoką dostępność • Optymalizacja kosztów chmury oraz projektowanie przepływów danych w środowisku Big Data 🤖 Automatyzacja • Automatyzacja procesów CI/CD i rozwój pipeline’ów • Wdrażanie rozwiązań opartych na konteneryzacji • Implementacja Infrastructure as Code 🎯 Wymagania • Doświadczenie w Cloud Engineeringu (min. 3 lata), administracji systemami lub SRE • Znajomość Google Cloud Platform lub doświadczenie z AWS /Azure + chęć rozwoju w GCP • Doświadczenie z Dockerem i Kubernetesem • Umiejętność budowania CI/CD i Infrastructure as Code • Znajomość systemów Linux i skryptowania • Doświadczenie w budowie i wdrażaniu Agentów AI • Praktyczna znajomość koncepcji Agentic Systems / Agentic Flow • Doświadczenie w vibecodingu i pracy z AI w procesie developmentu • Umiejętność projektowania architektury pod rozwiązania AI-first ⭐ Mile widziane • Certyfikaty chmurowe (GCP, AWS Solutions Architect, Azure) • Świadomość zagadnień Cyber Security w chmurze • Doświadczenie w optymalizacji kosztów chmury • Praktyka w projektowaniu przepływów Big Data • Doświadczenie z AI/ML w środowisku DevOps • Certyfikaty z zakresu bezpieczeństwa • Praktyka w projektowaniu systemów rozproszonych 🎁 Oferujemy • Budżet na szkolenia, certyfikaty i konferencje — szczególnie w obszarze AI 🎓 • Ścieżka rozwoju w kierunku Lead Architect • Realny wpływ na infrastrukturę i procesy • Pracę z misją społeczną — rozwijanie technologii zwiększających bezpieczeństwo rodzin • Prywatną opiekę medyczną 🩺 • Kartę sportową 🏃 • Integracje zespołowe 🎉
ML Engineer - Assessments AI
Opendoor Labs Inc.
⚲ Kraków
23 000 - 36 000 PLN brutto (UoP) | 23 000 - 36 000 PLN netto (B2B)
Wymagania
- AWS
- Airflow
- PyTorch
- scikit-learn
- Python/Go
- Databricks
- MLflow
- Delta Lake
- Apache Spark
About Opendoor Founded in 2014, Opendoor's mission is to empower everyone with the freedom to move. We believe the traditional real estate process is broken and our goal is simple: build a digital, end-to-end customer experience that makes buying and selling a home simple, certain and fast. We have assembled a dedicated team with diverse backgrounds to support more than 100,000 homes bought and sold with us and the customers who have selected Opendoor as a trusted partner in handling one of their largest financial transactions. But the work is far from over as we continue to grow in new markets. Transforming the real estate industry takes tenacity and dedication. It takes problem solvers and builders. It takes a tight knit community of teammates doing the best work of their lives, pushing one another to transform a complicated process into a simple one. So where do you fit in? Whether you're passionate about real estate, people, numbers, words, code, or strategy - we have a place for you. Real estate is broken. Come help us fix it. About the Role At Opendoor, we are building the most powerful data & intelligence engine in real estate. Central to this effort is our ability to analyze every minute detail of the hundreds of thousands of homes we tour every year – from square footage and layout, to the subtleties of lighting, all the way to accurately identifying necessary repairs. The AI we build from this directly influences high-stakes decisions for billions of dollars in real estate transactions every year.We are looking for a senior ML Engineer to join our Assessments & ML engineering team which is responsible for the end-to-end assessment of properties – from co-piloting data gathering, to processing video and 3D mesh data, to deep analysis. This is a unique opportunity to work at the heart of the company – Opendoor’s deep understanding of each unique home – and collaborate side-by-side with many functions: including applied research, product & design, and business & operations. This role is perfect for an engineer who is excited to deepen their exposure to the intersection of ML and AI workflows. Our models are pragmatic and straightforward, and we care more about delivering value and reliability than optimizing hyperparameters or building complex research systems. You’ll collaborate closely with researchers bringing innovative ideas into production and contributing to the full ML lifecycle — experimentation, training, evaluation, deployment, monitoring, and iteration. What You’ll Do • Work closely with researchers and analysts to deliver production-grade models capable of navigating the complex realities of real estate data. • Own and operate model pipelines end-to-end — including training, validation, versioning, deployment, and monitoring. • Contribute to shared ML infrastructure and tooling as needed, while staying focused on solving business-critical problems. • Support day-to-day model operations and address real-world ML lifecycle challenges like retraining, drift, and model decay. • Navigate real estate-specific ML challenges (heterogeneous data, complex seasonality, sparse regions, high financial stakes). • Drive engineering best practices within the ML codebase — maintainable, testable, and scalable systems. Tech Stack • Languages: Python • ML: PyTorch, scikit-learn, MLflow • Data & Infra: Databricks, Spark, Delta Lake, Airflow, AWS We’re Looking For Someone Who • Has 5+ years of experience in software engineering and machine learning. • Enjoys working closely with data scientists and researchers and has strong collaboration and communication skills. • Is comfortable navigating data pipelines, model training pipelines, and production environments. • Is fluent in writing maintainable, modular, and testable Python code. • Is motivated by impact and learning — not just building infrastructure for others. Bonus Points For • Experience working on ML systems in business-critical environments (e.g., pricing, forecasting, logistics) • Familiarity with tools like MLflow, Airflow, Delta Lake, or Spark. • An interest in real estate or other messy, high-stakes domains with imperfect data. • Experience with video and 3D data – especially in augmented reality Here’s the Deal: • Work in the city center in a fun, non-corporate environment • Competitive compensation package that includes - a monthly base salary from 23k PLN to 36k PLN, plus RSUs • B2B contract • Enjoy 26 days of paid holiday • Private medical healthcare • MultiKafeteria perks for sports, movies, and shopping vouchers
AI Engineer (MPC + Agents)
DCG
⚲ Warszawa
160 - 180 PLN/h netto (B2B)
Wymagania
- Redis
- FastMCP
- Docker
- REST API
- fastapi
- SQL
- Python
Responsibilities: • Build MCP Servers: Design, build, and maintain high-performance servers using the FastMCP framework, ensuring reliability and maintainability • REST API Design: Design and implement RESTful APIs with strict adherence to OpenAPI/Swagger standards, focusing on proper endpoint structure and error handling • Async Programming: Write clean, efficient Python code utilizing asyncio and httpx for non-blocking I/O operations • Orchestration Systems: Implement and extend agentic workflow orchestration systems, utilizing • Event-driven architectures and webhook integrations • State Management: Leverage Redis for distributed state persistence, caching strategies, and TTL-based data management • System Reliability: Troubleshoot and debug complex issues across the distributed system stack to ensure uptime and performance • Enterprise Security: Implement robust security features, including OAuth2 flows, Azure Entra ID (SSO) integration, and secure JWT token validation • Testing & QA: Build and maintain comprehensive test suites (unit, integration, and E2E) using pytest and pytest-asyncio • Containerization: Containerize applications using Docker and manage local/prod environments via docker-compose and Azure pipelines Requirements: • Core Development: Strong proficiency in Python with deep knowledge of async/await patterns • Solid experience with FastAPI and REST API design • MCP Specialization: Proven experience building MCP servers (critical requirement) • Hands-on experience with FastMCP framework • Data & Storage: Proficiency with Relational Databases (SQL) and Key-Value stores (Redis) • Security (IAM): Deep understanding of AuthN/AuthZ protocols. Experience with OAuth2, Azure Entra ID/SSO, and JWT token handling • Architecture: Familiarity with Distributed Systems and Event-Driven Architecture • Experience with Docker and containerization principles • Soft Skills: Strong problem-solving capabilities. Ability to work independently and communicate technical concepts clearly Nice to have: • MCP Ecosystem: Orientation in the broader ecosystem of MCP applications and clients • AI Frameworks: Experience with AI/LLM agent frameworks such as LangGraph, LangChain, or Langfuse • DevOps: Familiarity with Azure CI/CD pipelines and GitHub Actions • Observability: Knowledge of Datadog or similar platforms for logging and monitoring • Modern Practices: Prior exposure to "Vibe" coding practices (AI-assisted iterative coding) Offer: • Private medical care • Co-financing for the sports card • Training & learning opportunities • Constant support of dedicated consultant • Employee referral program
AI Engineer
speedapp
⚲ Warszawa
150 - 150 PLN netto (B2B)
Wymagania
- Python
Dla klienta z branży technologii i automatyzacji poszukujemy specjalisty AI Engineer, który dołączy do zespołu rozwijającego nowoczesne rozwiązania oparte na sztucznej inteligencji. Projekt obejmuje tworzenie i integrację systemów wykorzystujących duże modele językowe (LLM), agentów, bazy wektorowe oraz narzędzia wspierające prompt engineering. ZADANIA • Projektowanie i implementacja zaawansowanych narzędzi AI, w tym LLM, agentów i systemów prompt engineering. • Tworzenie i rozwijanie rozwiązań opartych na bazach wektorowych, bazach danych i agentach automatyzujących procesy biznesowe. • Integracja modeli językowych i narzędzi AI z istniejącymi systemami oraz tworzenie API do ich obsługi. • Budowa i utrzymanie środowisk DevOps, w tym kontenerów Docker, klastrów Kubernetes oraz automatyzacja CI/CD. • Tworzenie i optymalizacja promptów dla modeli LLM, rozwijanie narzędzi wspierających prompt engineering. • Projektowanie i implementacja agentów działających w środowiskach wielosystemowych, zapewniających synchronizację i orkiestrację działań. • Analiza wymagań biznesowych i technicznych, tworzenie dokumentacji technicznej oraz testów automatycznych. WYMAGANIA • Minimum 3 lata doświadczenia w programowaniu w Python i Node.js. • Doświadczenie w pracy z narzędziami i bibliotekami AI, np. Hugging Face, OpenAI API. • Praktyczna wiedza z zakresu prompt engineering oraz tworzenia i optymalizacji promptów dla LLM. • Znajomość baz wektorowych i ich integracji z systemami AI. • Doświadczenie w tworzeniu agentów automatyzujących procesy (np. z użyciem frameworków RAG, LangChain). • Umiejętność pracy z narzędziami DevOps: Docker, Kubernetes, Jenkins, GitLab CI/CD. • Znajomość architektury mikroserwisów, API, REST, GraphQL. • Podstawowa wiedza w zakresie bezpieczeństwa i skalowania rozwiązań AI. • Umiejętność pracy w metodologii Agile/Scrum, dobra komunikacja i umiejętność pracy zespołowej. MILE WIDZIANE • Doświadczenie w tworzeniu rozwiązań AI w środowisku chmurowym (AWS, Azure, GCP). • Wiedza z zakresu NLP, systemów rekomendacyjnych lub analityki danych. • Znajomość języka angielskiego na poziomie B2/C1. • Doświadczenie w pracy w międzynarodowych projektach AI. CO OFERUJEMY NA TYM PROJEKCIE? • Współpracę w oparciu o umowę B2B. • Pracę 100% zdalną. • Wsparcie dedykowanego opiekuna. Po dołączeniu do speedapp, otrzymasz kontakt do dedykowanego opiekuna, który zadba, aby współpraca z nami oraz z klientem sprawiała Ci satysfakcję. • Wydarzenia oraz spotkania integracyjne, a także udział w różnych inicjatywach np. sportowych. • Dostęp do oferty benefitów (opieka medyczna, ubezpieczenie na życie, karta Multisport). JAK WYGLĄDA REKRUTACJA? Zgłoszenie: Zaaplikuj i prześlij swoje CV. Po weryfikacji aplikacji rekruter skontaktuje się telefonicznie z wybranymi kandydatami. Screening: Porozmawiaj z rekruterem speedapp o Twoim doświadczeniu. Kolejne etapy: Rekruter speedapp przedstawi Ci jak wygląda proces rekrutacji na dane stanowisko. Rekruter speedapp pozostanie z Tobą w kontakcie podczas całego procesu. O SPEEDAPP W speedapp wierzymy, że organizacja jest tak dobra jak tworzący ją ludzie. Jesteśmy zespołem ekspertów IT i innych specjalistów pracujących dla naszych klientów na całym świecie (m.in Izrael, Austria, USA). Wykraczamy daleko poza kategorię HR. Budujemy zespoły IT, a także pomagamy w ich zarządzaniu. 👉 10 lat doświadczenia 👉 +100 klientów na całym świecie +300 zatrudnień rocznie 💎 Jesteśmy laureatem prestiżowej nagrody Diamenty Forbes cztery lata z rzędu (2022, 2023, 2024, 2025), członkiem sieci Fast Growth Icons oraz FinTech Poland. MASZ PYTANIA? Skontaktuj się bezpośrednio z rekruterem odpowiedzialnym za ten proces. Adrianna Rudzka Junior IT Delivery Consultantadrianna.rudzka@speedapp.pl +48 884 271 647
Senior AI Engineer (REMOTE from POLAND)
Caspian One
⚲ Poland (Remote)
1 600 - 2 000 PLN/dzień netto (B2B)
Wymagania
- AI
- Langchain
- Python
About the Company A UNIQUE leading provider of global economic and financial data and technology for investment professionals, serving over 900 firms worldwide across multiple sectors. Backed by a major global tech investment firm, the company operates internationally with headquarters in Europe and offices across several global locations. The platform is rich in intellectual property and supported by a rapidly expanding global team, ensuring it remains at the forefront of its industry The Opportunity Join a small, impactful team working on next-generation AI solutions for a large-scale data platform. This is a chance to contribute to greenfield projects that will redefine how professionals interact with massive datasets You’ll help: • Move from traditional keyword search to semantic search and NLP layers • Implement knowledge graphs and vector embeddings to manage hundreds of millions of time-series datasets and millions of documents • Build AI-driven reporting capabilities and lay the foundation for advanced AI pipelines, including multi-agent systems and GenAI solutions What You’ll Do • Develop and maintain Python based applications for AI-driven solutions • Collaborate with AI specialists to integrate semantic search, knowledge graph architectures, and vector database technologies • Optimise performance for large-scale data processing and ensure secure, scalable integration of AI insights
GenAI Engineer
Vaillant Group Business Services
⚲ Katowice
15 000 - 20 000 PLN brutto (UoP)
Wymagania
- GenAI
- MS Azure
- Azure
- API
- Databricks
- Python
What we achieve together • You will design and maintain cloud‑based Generative AI services on Azure and Databricks, ensuring that our platforms support scalable, secure and reliable AI capabilities. • By integrating LLMs, vector databases and AI agent frameworks with systems like Salesforce, SAP or internal APIs, you help our teams access impactful AI solutions. • You build middleware, APIs and automation components that connect AI models with our data, allowing our business partners to benefit from seamless AI‑driven processes. • Supporting data pipelines and retrieval components (RAG) energizes your daily work, helping you ensure that each GenAI use case is grounded in trusted information. • You monitor and optimize the performance, stability and cost efficiency of GenAI services, contributing to a sustainable and high‑quality AI ecosystem. • Together with data engineers and data scientists, you ensure smooth deployments, transparent documentation and knowledge‑sharing that fosters a collaborative learning culture. What makes us successful together • Qualification: You hold a degree in computer science, engineering, mathematics or a comparable technical field. • Experience: You bring hands‑on experience with cloud environments such as Azure or Databricks in building data‑driven or AI‑powered solutions. • Know‑how and skills: You are confident working with GenAI services (e.g., Azure OpenAI), vector databases, agent frameworks, integrations (RAG, embeddings, APIs) and Python for services and automation. • Nice to have: Experience in enterprise integrations, workflow orchestration, CI/CD or AI‑related security and governance is welcome. • Personality: You enjoy collaborating across disciplines, communicate with clarity, and bring curiosity and empathy into a growing AI community. • Language skills: You communicate comfortably in English; additional languages are a plus. What you can count on • Flexible work model: adjustable starting times (7:30 – 9:00AM), hybrid work 70/30, and up to 30 days of remote work from abroad from selected countries. • Health & Wellness support: private medical care (Medicover), sports card subsidy (Multisport), group insurance (Warta), and ergonomic office spaces. • Time off & balance: additional paid 2 days off and subsidies for recreation. • Financial perks: up to 30% discount on company products, support for commuting and eyewear. • Growth & Development: access to internal training, mentoring programs, self-learning platform for languages (eTutor) and international projects. • Culture & Community: company events, family friendly activities, and open opportunities within Vaillant Group. What makes us special We take care of a better climate. In every home and our environment. As a successful family business, we have been living up to this claim for over 150 years. We are one of the world's leading providers of heat pumps, digital services and efficient gas heating appliances and offer energy-saving solutions. You will find sustainability everywhere at the Vaillant Group. In the office, at the production sites and on the road. Around 16,000 employees from over 70 countries are committed to this every day. As an international team, we take responsibility - for our future and that of our planet. We promote your personal development so that you can act with passion and together we can ensure a better climate. Become part of the Vaillant Group and help us shape the future of heating! We promote equity and do not tolerate any form of discrimination. We value the uniqueness of each individual and encourage all people to apply.
Data Scientist (GenAI focus)
Vaillant Group Business Services
⚲ Katowice
15 000 - 20 000 PLN brutto (UoP)
Wymagania
- Cloud
- AI
- Python
- Data Science
What we achieve together • In this role, you will translate business requirements into analytical use cases (generative AI and machine learning) and drive innovation and efficiency across the Vaillant Group. • You will effectively analyze business use cases regarding feasibility and effort estimation based on the Vaillant data model, including data quality and necessary preprocessing steps. • You will apply state-of-the-art machine learning and AI techniques and advanced statistical methods to achieve company goals. • In addition, you will critically evaluate ML/AI solutions and analyses using metrics to validate the achievement of business objectives and recommend improvements. • You will communicate results with cross-functional project members and stakeholders, using clear presentations and understandable visualizations of insights. • Finally, you will utilize cloud services and self-programmed (Python) applications to develop production-ready AI/ML solutions. What makes us successful together • Qualification: You have a Master’s degree in Computer Science, Mathematics, Physics, Bioinformatics, or other quantitative fields with AI/ML relation. • Experience: You bring more than 4 years of professional experience in the field of Data Science/Data Analytics with a proven track record in Data Science projects. • Know-how and skills: You have excellent programming skills (in Python); visualization of complex data; experience with cloud services and Data Science-related components (especially in Microsoft Azure). • Nice to have: You have experience with Generative AI (GenAI) or AI agents would be a plus. • Personality: You are a team player, curious, with initiative and motivation to work in an agile and interdisciplinary environment. • Language skills: You are fluent in English; German language skills would be a plus. What you can count on • Flexible work model: adjustable starting times (7:30 – 9:00AM), hybrid work 70/30, and up to 30 days of remote work from abroad from selected countries. • Health & Wellness support: private medical care (Medicover), sports card subsidy (Multisport), group insurance (Warta), and ergonomic office spaces. • Time off & balance: additional paid 2 days off and subsidies for recreation. • Financial perks: up to 30% discount on company products, support for commuting and eyewear. • Growth & Development: access to internal training, mentoring programs, self-learning platform for languages (eTutor) and international projects. • Culture & Community: company events, family friendly activities, and open opportunities within Vaillant Group. What makes us special We take care of a better climate. In every home and our environment. As a successful family business, we have been living up to this claim for over 150 years. We are one of the world's leading providers of heat pumps, digital services and efficient gas heating appliances and offer energy-saving solutions. You will find sustainability everywhere at the Vaillant Group. In the office, at the production sites and on the road. Around 16,000 employees from over 70 countries are committed to this every day. As an international team, we take responsibility - for our future and that of our planet. We promote your personal development so that you can act with passion and together we can ensure a better climate. Become part of the Vaillant Group and help us shape the future of heating! We promote equity and do not tolerate any form of discrimination. We value the uniqueness of each individual and encourage all people to apply.
ML/MLOps Engineer
Polpharma
⚲ Warszawa
Wymagania
- Machine Learning
- PySpark
- Azure Databricks
- Azure
- Azure Machine learning
- SQL
- Azure DevOps
- Python
- MLOps
Poszukujemy doświadczonej i zmotywowanej osoby na stanowisko ML/MLOps Engineer, która dołączy do naszego zespołu. Będziesz odpowiedzialny/a za rozwijanie, wdrażanie i utrzymywanie modeli uczenia maszynowego oraz zarządzanie infrastrukturą MLOps. Jeśli masz doświadczenie w tych obszarach i chcesz pracować w dynamicznym środowisku, zapraszamy do aplikowania! Twój zakres obowiązków: • Automatyzacja procesów trenowania, testowania i wdrażania modeli ML oraz deep learning (DL) • Tworzenie i utrzymywanie pipeline'ów CI\CD dla modeli ML/DL z użyciem Azure DevOps, oraz frameworków ML, • Projektowanie i implementacja pipeline’ów danych z użyciem Azure Data Factory oraz Azure Databricks • Monitorowanie i optymalizacja wydajności modeli • Implementacja najlepszych praktyk MLOps w wersjonowaniu, wdrażaniu i monitoringu modeli • Współpraca z zespołami IT w celu integracji modeli z aplikacjami biznesowymi To oferujemy: • Pracę hybrydową • Prywatną opiekę medyczną • Ubezpieczenie na życie • Kartę Multisport • Nowoczesną Platformę Benefitową • Szkolenia i rozwój kompetencji zawodowych • Kartę lunchową 350 PLN • Paczki świąteczne dla dzieci • Jeden dodatkowy dzień wolny • Pracowniczy Program Emerytalny Nasze oczekiwania: • Minimum 3 lata doświadczenia zawodowego w komercyjnych projektach związanych z modelowaniem, trenowaniem i wdrażaniem modeli uczenia maszynowego • Praktyczne doświadczenie w pracy z usługami Azure, w szczególności Azure Databricks, Azure Machine Learning, Azure DevOps • Znajomość narzędzi i frameworków MLOps, takich jak MLflow, PyTorch, TensorFlow • Umiejętność budowy pipeline’ów MLOps, konfiguracji i zarządzania ciągłym dostarczaniem (CI\CD) dla modeli oraz automatyzacji procesów MLOps • Zaawansowana praktyczna znajomość SQL, Python, PySpark • Umiejętność monitorowania, analizy i optymalizacji wydajności modeli ML • Zrozumienie podstawowych zagadnień związanych z bezpieczeństwem modeli ML i danych
Junior Research Engineer
Allegro
⚲ Warszawa
Wymagania
- Machine Learning
- NLP
- PyTorch
- AI
- SQL
- Python
- Generative AI
- Prompt Engineering
As a Junior Research Engineer, you’ll work at the intersection of machine learning, research and software engineering, helping to solve real business and technical challenges at Allegro. You’ll use modern ML models and algorithms to design, build, and improve solutions that directly impact how millions of customers search and shop. This role combines hands-on development with research work - from exploring the latest findings in the literature to turning them into practical, production-ready solutions aligned with business needs. You’ll play a key role in the AI-powered search initiative, contributing to the development of the AI Assistant - one of Allegro’s strategic products. This position is a great fit if you want to: • apply ML and research skills to real products used at scale • grow as an engineer while working closely with experienced researchers and engineers • see a clear connection between your work and real user impact Why is it worth working with us? • Strategic Impact: You will be building the agentic search backend for Allegro's AI Assistant. Your work will directly influence how millions of users discover and buy products. • Innovation: We are not just wrapping API calls. You will work on novel approaches to Agentic Commerce, using ML and Deep Learning methods and alongside frontier LLMs (like Gemini and ChatGPT). • Scale: You will deal with e-commerce data at a massive scale, creating production-grade ML models that must perform in real-time. You will support the engineering team in deploying these complex systems to production. • Collaboration: You will join a team of experienced researchers and engineers, fostering a culture of knowledge sharing. • Growth: You will stay up to date with scientific progress, reading the latest papers on NLP, Agentic AI and Information Retrieval. You will have the opportunity to participate in scientific conferences online and in-person and contribute to Allegro's presence in the AI community. In your daily work you will handle the following tasks: • Research: Explore and implement state-of-the-art NLP techniques for assistant-specific search pipeline. This includes key areas such as query understanding, query rewriting, retrieval, and ranking. • Model Development: Train, fine-tune, and evaluate deep learning models for specific tasks. Develop advanced prompting strategies for LLMs to handle complex reasoning tasks utilizing agentic approaches. • Data Analysis: Perform in-depth analysis of large-scale multimodal datasets encompassing text, images, and user signals. Utilize these insights to continuously refine and enhance the search pipeline. • Collaboration: Work closely with software engineering teams to integrate your models into the Assistant’s architecture and ensure reliable production deployment. • Continuous Learning: Monitor the rapidly evolving landscape of Generative AI and Agentic Systems (e.g., autonomous agents, tool use) and propose how to apply these advancements to Allegro's ecosystem. • Quality Focus: Contribute to the development of automatic quality estimation frameworks to ensure our AI Assistant provides safe, accurate and helpful responses. We are looking for people who have: • Bachelor’s or Master's degree in Computer Science, Computational Linguistics, Artificial Intelligence or a related field. (Strong candidates nearing completion of their degree will also be considered). • Solid understanding of machine learning fundamentals, particularly in NLP and Generative AI. • Programming proficiency in Python and experience with SQL. • Experience with ML frameworks (e.g. PyTorch, transformers, pandas). • Demonstrated experience with Prompt Engineering and interacting with LLMs. • Learning Agility and AI Literacy - ability to quickly adapt to new technologies and apply AI concepts to practical problems. • Strong analytical and problem-solving skills. • English proficiency (B2+ level). Bonus Points: • Experience with training or fine-tuning LLMs. • Familiarity with key stages of the search pipeline. • Experience with Agentic frameworks (e.g., LangChain, LangGraph), building autonomous agents. • Familiarity with e-commerce data. • Prior experience running large-scale computations on cloud platforms (GCP, Azure). • Contributions to open-source projects or publications in relevant conferences/journals. What's in it for you: • Flexible working hours in the hybrid model (4/1) - working hours start between 7:00 a.m. and 10:00 a.m. We also have 30 days of occasional remote work. • Annual bonus based on your annual performance and company results. • Well-located offices (with e.g. fully equipped kitchens, bicycle parking, terraces full of greenery) and excellent work tools (e.g., raised desks, ergonomic chairs, interactive conference rooms). • A 16" or 14" MacBook Pro or corresponding Dell with Windows (if you don't like Macs) and all the necessary accessories. • A wide selection of fringe benefits in a cafeteria plan - you choose what you like (e.g., medical, sports or lunch packages, insurance, purchase vouchers). • English classes that we pay for related to the specific nature of your job. • A training budget, inter-team tourism (see more here), hackathons, and an internal learning platform where you will find multiple trainings. • An additional day off for volunteering, which you can use alone, with a team, or with a larger group of people connected by a common goal. • Social events for Allegro people - Spin Kilometers, Family Day, Fat Thursday, Advent of Code, and many other occasions we enjoy. And that's just the beginning! You can read more about the benefits here. #goodtobehere means that: • You will join a team you can count on - we work with top-class specialists who have knowledge- and experience-sharing in their DNA. • You will love our level of autonomy in team organization, the space for continuous development, and the opportunity to try new things. You get to choose which technology solves the problem and you are responsible for what you create. • You will value our Developer Experience and the full platform of tools and technologies that make creating software easier. We rely on an internal ecosystem based on self-service and widely used tools such as Kubernetes, Docker, Consul, GitHub, and GitHub Actions. Thanks to this, you can contribute to Allegro from your very first days on the job. • You will be equipped with modern AI tools to automate repetitive tasks, allowing you to focus on developing new services and refining existing ones (also leveraging AI support). • You will create solutions that will be used (and loved!) by your friends, family and millions of our customers. • You will meet the Allegro Scale, which starts with over 1000 microservices, an open-source data bus (Hermes) with 300K+ rps, a Service Mesh with 1M+ rps, tens of petabytes of data, and production-used machine learning. • You will become part of Allegro Tech - We speak at industry conferences, cooperate with tech communities, run our own blog (it's been over 10 years!), record podcasts, lead guilds, and we organize our own internal conference - the Allegro Tech Meeting. We create solutions we love (and can) to talk about! Send us your CV and… see you at Allegro!
AI Business Partner
speedapp
⚲ Warszawa
Wymagania
- AI
- Software Development
Dołącz do projektu klienta z branży ubezpieczeniowej jako AI Business Partner i wspieraj IT oraz biznes w praktycznym wdrażaniu i efektywnym wykorzystaniu narzędzi AI! ZADANIA • Edukacja i mentoring: Prowadzenie szkoleń, warsztatów i konsultacji dla analityków i zespołów developerskich • Wsparcie analityków/ Product Ownerów w korzystaniu z narzędzi typu GH Copilot Chat oraz M365 Copilot z uwzględnieniem dopasowania konkretnego modelu do zadania • Pomoc analitykom w budowaniu efektywnych „promptów” • Tworzenie wewnętrznej bazy dobrych praktyk w zakresie wykorzystania AI • Monitorowanie nowości w świecie AI • Porównanie rozwiązań (GH Copilot Chat oraz M365 Copilot vs alternatywy) i rekomendacje na podstawie jakości, kosztu, ryzyk i zgodności • Definicja i pomiar KPI/OKR oraz ROI (produktywność, jakość, koszty), raportowanie wyników do interesariuszy IT • Prowadzenie wdrożeń AI w SDLC: analiza potrzeb, konfiguracja, standardy użycia, policy & governance, skalowanie WYMAGANIA • Doświadczenie jako developer/tech lead/trener optymalizacji procesów wytwórczych (5-8 lat) • Praktyczne doświadczenie w pracy z narzędziami AI (GitHub Copilot, ChatGPT, Claude, Llama itd.) • Znajomość realiów pracy IT oraz metodyk wytwarzania oprogramowania w dużych organizacjach finansowych • Wysokie zdolności komunikacyjne, umiejętność oraz chęć uczenia innych • Umiejętność tłumaczenia złożonych zagadnień prostym, zrozumiałym językiem • Znajomość współczesnego ekosystemu AI (LLM, generowanie treści, automatyzacje) • Umiejętność budowy skutecznych promptów i workflow • Analityczne podejście: umiejętność dostrzegania, gdzie AI wnosi wartość • Otwartość na ciągłą naukę – chęć testowania nowych narzędzi i metod pracy z AI • Doświadczenie w prowadzeniu szkoleń, warsztatów lub szkoleń wewnętrznych (w obszarze IT, digital, data, nowoczesne technologie) CO OFERUJEMY NA TYM PROJEKCIE? • Współpracę w oparciu o umowę B2B. • Pracę hybrydową z Warszawy (1 raz w tygodniu w biura). • Wsparcie dedykowanego opiekuna. Po dołączeniu do speedapp, otrzymasz kontakt do dedykowanego opiekuna, który zadba, aby współpraca z nami oraz z klientem sprawiała Ci satysfakcję. • Wydarzenia oraz spotkania integracyjne, a także udział w różnych inicjatywach np. sportowych. • Dostęp do oferty benefitów (opieka medyczna, ubezpieczenie na życie, karta Multisport). JAK WYGLĄDA REKRUTACJA? Zgłoszenie: Zaaplikuj i prześlij swoje CV.Po weryfikacji aplikacji rekruter skontaktuje się telefonicznie z wybranymi kandydatami. Screening: Porozmawiaj z rekruterem speedapp o Twoim doświadczeniu. Kolejne etapy: Rekruter speedapp przedstawi Ci jak wygląda proces rekrutacji na dane stanowisko. Rekruter speedapp pozostanie z Tobą w kontakcie podczas całego procesu. O SPEEDAPP W speedapp wierzymy, że organizacja jest tak dobra jak tworzący ją ludzie. Jesteśmy zespołem ekspertów IT i innych specjalistów pracujących dla naszych klientów na całym świecie (m.in Izrael, Austria, USA). Wykraczamy daleko poza kategorię HR. Budujemy zespoły IT, a także pomagamy w ich zarządzaniu. 👉 10 lat doświadczenia 👉 +100 klientów na całym świecie +300 zatrudnień rocznie 💎 Jesteśmy laureatem prestiżowej nagrody Diamenty Forbes cztery lata z rzędu (2022, 2023, 2024, 2025), członkiem sieci Fast Growth Icons oraz FinTech Poland. MASZ PYTANIA? Skontaktuj się bezpośrednio z rekruterem odpowiedzialnym za ten proces. Ilona Wójcik Junior IT Delivery Consultant ilona.wojcik@speedapp.pl+48 882 842 363
Tech Lead – AI & SAP Integration
Link Group
⚲ Warszawa
23 000 - 30 000 PLN netto (B2B)
Wymagania
- LLM
- AI
- SAP
- ITSM
- SAP OData
We are looking for a Tech Lead to drive the design, development, and deployment of AI-powered solutions within SAP Managed Services. You will lead a team of engineers, guiding the delivery of enterprise-grade AI agents that integrate deeply with SAP systems to automate diagnostics, enhance incident management, and improve operational efficiency. Key Responsibilities: • Lead AI agent development and SAP integration projects. • Mentor and guide team members, ensuring high-quality, scalable solutions. • Collaborate with stakeholders on production-ready AI solutions. • Oversee cloud infrastructure deployment (AWS/Azure) and secure operations. Requirements: • Proven experience in AI/LLM development and SAP integration. • Hands-on with agentic frameworks (LangGraph, MCP) and AI experience layers (CopilotKit, Vercel AI SDK, or similar). • Familiarity with SAP OData services, Function Modules, CDS Views, and managed services operations. • Strong leadership, problem-solving, and collaboration skills.
Senior MLOPS Engineer
Transition Technologies MS
⚲ Warszawa
Wymagania
- Machine Learning
- AWS
- CI/CD
- PyTorch
- TensorFlow
- Sagemaker
- Python
- MLOps
Senior Machine Learning / MLOps Engineer responsible for scaling, operating, and evolving production-grade machine learning systems with a strong focus on reliability, automation, and best engineering practices. Your responsibilities: • Lead the design and evolution of a large-scale, production recommender system • Own architectural decisions ensuring scalability, performance, and reliability • Build and maintain end-to-end ML pipelines in a cloud environment • Define and implement MLOps standards, tooling, and best practices • Develop and optimize CI/CD pipelines for ML workflows using GitLab • Ensure model reproducibility, versioning, and experiment tracking with MLflow • Deploy, monitor, and operate ML models on AWS SageMaker • Collaborate with data scientists to productionize machine learning models • Improve system observability, monitoring, and model performance • Provide technical mentorship and architectural guidance to ML and data teams • Contribute hands-on to a Python-based ML and data infrastructure codebase • Translate business and product requirements into technical ML solutions We are looking for you, if you have: • Bachelor’s degree in Computer Science, Engineering, or equivalent practical experience • 5+ years of experience in machine learning engineering or MLOps roles • Proven experience building and operating production ML systems at scale • Strong expertise in Python and the ML/data ecosystem • Hands-on experience with AWS SageMaker in production environments • Experience with deep learning frameworks such as PyTorch or TensorFlow • Solid understanding of MLOps practices including CI/CD and model lifecycle management • Practical experience using MLflow for experiment tracking and model management • Experience designing and maintaining CI/CD pipelines with GitLab • Strong background in cloud-based ML architectures, preferably on AWS • Experience mentoring engineers and collaborating across multidisciplinary teams • Ability to clearly communicate complex technical concepts to diverse stakeholders We offer: • Participation in interesting and demanding projects • Flexible working hours • A great, non-corporate atmosphere • Stable employment conditions (contract of employment or B2B contract) • Opportunities for development and promotion • Attractive package of benefits • Work model: remote or hybrid (2 days per week from the office) We reserve the right to contact the selected candidates.
Senior Data Scientist
PKO Bank Polski
⚲ Warszawa
Wymagania
- Bash
- Spark
- GCP
- SQL
- Python
Na co dzień w naszym zespole: • budujesz modele NLP - deep learning/transformery/large language models za pomocą PyTorch, • tworzysz modele ML/AI [problemy klasyfikacyjne/regresyjne/analizy przestrzenne GEO /sieci społeczne] - od prototypowania do produkcji, • zajmujesz się utrzymaniem, monitorowaniem oraz ewaluacją modeli ML w czasie [fabryka modeli], • przeprowadzasz detekcję zdarzeń o dużej mocy predykcyjnej, • budujesz kompleksowe przepływy danych i ML [AirFlow], • optymalizujesz działanie silnika decyzyjnego sterującego dystrybucją leadów kampanijnych, • uczestniczysz w innowacyjnych projektach, np. hiperpersonalizacji (m.in. z użyciem GenAI). Stack Technologiczny: • Python, • Spark (PySpark), • PyTorch, • Streamlit, • Google Cloud Platform - Big Query/AI Notebooks/ MLFlow/Data Proc/Airflow, • Sql [Big Query], • Beam / DataFlow, • Podstawy Linux/Bash, • Git. Nie wymagamy znajomości wszystkich wymienionych narzędzi, ale ważne jest abyś bardzo dobrze znał/a przynajmniej kilka z nich. To stanowisko może być Twoje, jeśli: • masz wiedzę i doświadczenie w machine learning i przetwarzaniu danych, • posiadasz wykształcenie wyższe, • jesteś osobą samodzielną, dobrze zorganizowaną, proaktywną i kreatywną, • chcesz się dalej rozwijać i podnosić swoje kwalifikacje. Dołączając do nas zyskujesz: • pakiet benefitów, w tym prywatną opiekę medyczną, Pracowniczy Program Emerytalny, System Kafeteryjny MyBenefit, kartę Multisport, • atrakcyjną ofertę produktów bankowych, w tym kredytu hipotecznego, • dedykowany system szkoleń, • możliwość zdobywania doświadczenia, poznania różnorodnej technologii, w największej instytucji finansowej w kraju, • stabilizację zatrudnienia – umowę o pracę, dedykowany system premiowy. Dodatkowe benefity: • abonament Coursery, DataCamp, • zgrany zespół! Mistrzowie ligi w piłkarzyki.
Senior AI Engineer
Craftware
⚲ Warszawa
180 - 240 PLN/h netto (B2B)
Wymagania
- Machine Learning
- Cloud
- AI
- Python
Craftware is a technology company of over 500 experts, empowering large organizations to solve complex business challenges with modern IT solutions – from sales systems and automation to data platforms and AI. We operate where technology must be reliable, secure, and scalable. We deliver end-to-end projects: from analysis and architecture through implementation to development and maintenance. We are a trusted partner of industry leaders such as Salesforce, Veeva, UiPath, and Databricks. We are looking for an experienced Senior AI Engineer to join our team and lead the development of advanced AI solutions that solve real business problems. In this role, you will work closely with data scientists, data engineers, and cloud engineers to design, build, and deploy scalable AI systems in production environments. Responsibilities AI Solution Development • Design and develop agentic systems, machine learning models, and AI algorithms. • Lead the implementation of scalable AI products aligned with business and user needs. • Deploy and operate AI/ML solutions in cloud environments (AWS preferred). • Ensure reliability, performance, and maintainability of AI systems in production. Data & Model Engineering • Design and oversee scalable data pipelines across cloud and hybrid environments. • Lead data preprocessing, ingestion, and transformation activities. • Establish data quality controls and monitor data drift. • Guide model training, evaluation, tuning, and performance optimization. Integration & Deployment • Integrate AI components into existing systems and workflows. • Manage production deployments, monitoring, versioning, and maintenance. Collaboration & Communication • Collaborate with stakeholders to gather requirements and deliver effective AI solutions. • Maintain clear technical documentation. • Communicate complex AI concepts to both technical and non-technical audiences. Research & Innovation • Stay up to date with emerging AI technologies and best practices. • Experiment with new approaches to improve existing and future solutions. Requirements Required Skills & Experience • Proven experience as an AI Engineer, Machine Learning Engineer, or similar role. • Hands-on experience building and deploying AI and ML systems. • Strong proficiency in Python. • Experience with agentic frameworks (e.g. LangChain, pydantic-ai, strands, Agent-ai). • Solid knowledge of ML frameworks (TensorFlow, PyTorch, Scikit-learn). • Experience in NLP, computer vision, or related AI domains. • Familiarity with cloud platforms (AWS preferred, Azure or GCP welcome). • Strong analytical and problem-solving skills. • Excellent communication skills. • Experience working in cross-functional teams. • Familiarity with Agile methodologies (Scrum, Azure DevOps). Employment conditions: • B2B contract, • Daily support from team leaders, • Dedicated certification budget, • Assistance in defining and support in your development path, • Benefits package, • Integration trips/events.