Oferty pracy
Filtry
Python Automation & Data Extraction Engineer / part time
Next Technology Professionals Sp. z o.o.
⚲ Warszawa
150–180 zł netto (+ VAT) / godz.
Wymagania
- Python
- Scrapy
- Selenium
- Playwright
- BeautifulSoup4
- SQL
Nasze wymagania: Od 3 do 5 lat komercyjnej praktyki jako Python Developer, ze ścisłą specjalizacją w inżynierii danych i zaawansowanym scrapowaniu stron. Mocny warsztat oparty o sprawdzone biblioteki do ekstrakcji i automatyzacji, takie jak: Scrapy, Selenium, Playwright, BeautifulSoup4 czy requests. Biegłość w transformowaniu danych oraz praktyczna znajomość języka SQL. Umiejętność płynnego rozwiązywania problemów związanych z blokadami, zarządzaniem timeoutami oraz optymalizacją pracy współbieżnej. Duża doza niezależności – szukanie osoby, która potrafi poprowadzić temat od fazy analitycznej, aż po wdrożenie i stabilne utrzymanie na produkcji. O projekcie: Projekt: 🚀 Tworzenie od podstaw oraz optymalizacja botów do automatyzacji procesów. Budowa i rozwój narzędzi służących do pozyskiwania danych z różnorodnych platform i stron internetowych, ich kompleksowa analiza, a także projektowanie niezawodnych przepływów danych. Stack technologiczny: 💻 Python, Scrapy, PostgreSQL, Docker, Git. Zespół: 🤝 Samodzielne, zadaniowe stanowisko. Będziesz współpracować z wewnętrznym, kilkunastoosobowym działem IT firmy. Model współpracy: 🏠 100% zdalnie (kontrakt B2B / współpraca freelance). Grafik jest bardzo elastyczny – zadania można realizować poza standardowymi godzinami pracy biznesowej. Wynagrodzenie: 💰 150 - 180 zł netto + VAT/h Zakres obowiązków: Projektowanie od zera i wdrażanie mechanizmów automatycznie pobierających dane z platform e-commerce (w tym skuteczne radzenie sobie ze stronami typu SPA i nieskończonym scrollowaniem). Budowa architektury przepływu informacji (ETL/ELT) – od surowych danych po ich oczyszczenie, deduplikację i poprawny zapis w hurtowniach (BigQuery, PostgreSQL) lub plikach (Parquet, CSV). Monitorowanie działania stworzonych narzędzi (ustawianie alertów, obsługa ponownych prób) oraz zarządzanie ich harmonogramem. Tworzenie przejrzystej bazy wiedzy o projektach (dokumentacja) oraz dbałość o to, by skrypty działały w pełni zgodnie z wytycznymi prawnymi (RODO) i regulaminami serwisów docelowych. Oferujemy: Stabilną współpracę opartą na kontrakcie B2B, nastawioną na budowanie długoterminowych relacji. Zadaniowy tryb pracy z ogromną elastycznością – idealne rozwiązanie dla osób preferujących kodowanie popołudniami lub wieczorami. Kompletny sprzęt firmowy oraz pełne wsparcie infrastrukturalne ze strony wewnętrznego działu technicznego. Możliwość samodzielnego decydowania o architekturze tworzonych i utrzymywanych narzędzi.
Programmatic Cloud Engineer
RTB House
⚲ Warszawa
20 000–28 000 zł netto (+ VAT) / mies.
Wymagania
- Google Cloud Platform
- Python
Nasze wymagania: 4+ years of experience in DevOps / Cloud Engineering roles Solid hands-on experience with Google Cloud Platform (GCP) or other major Cloud providers, including IAM, networking, resource management, and service configuration Good working knowledge of CI/CD systems (preferably GitHub Actions), with the ability to configure or assist in configuring pipelines, troubleshooting issues, and maintaining smooth deployment workflows. Solid understanding of infrastructure-as-code principles and practical experience with Terraform, sufficient to introduce Terraform configurations in day-to-day cloud operations. Experience designing monitoring & alerting systems Scripting skills (e.g., Python) for automating routine tasks and improving operational efficiency Excellent communication skills and the ability to support both technical and non-technical internal users Ownership mindset and ability to operate in partially defined environments O projekcie: We are looking for a Cloud Platform / DevOps Engineer (GCP) to join our Programmatic Tech Solutions team and help further design, standardize, and evolve our Cloud ecosystem. This is an excellent opportunity for an engineering professional who enjoys hands-on technical work, shaping platform standards, solving complex cloud challenges, and enabling teams to operate efficiently and confidently in a cloud-first environment. Zakres obowiązków: Contribute to shaping a scalable and well-structured DevOps environment across our GCP projects Enhance monitoring and observability practices, strengthen GitHub-based CI/CD workflows Expand the adoption of infrastructure-as-code with Terraform Develop self-service tooling (e.g., CLI utilities) that enables engineers and data specialists to experiment and deploy safely in staging environments Work closely with software engineers and data specialists, promoting consistent standards and supporting them in leveraging cloud services effectively Collaborate with the company’s core Cloud Engineering teams to ensure alignment with broader policies, security requirements, and governance standards Oferujemy: Competitive Compensation: We offer an attractive salary package with significant growth opportunities Cutting-edge Technology: Engage with the latest technologies on large-scale, dynamic projects Wellbeing: extremely flexible working cooperation - you work when it is convenient for you and devote as much time as you can; you can work fully remotely Purpose-Driven Work: being at the heart of the system, your growing knowledge and competencies will be used in practical applications directly connected to business results
Programista SQL (K/M) - Praca przy Hurtowni Danych
Kancelaria Prawna – Inkaso WEC SA
⚲ Łódź, Śródmieście
Wymagania
- PostgreSQL
- SQL
- PL/SQL
- Grafana
Nasze wymagania: Minimum 2 lata doświadczenia w pracy z DWH/BI na samodzielnym stanowisku Bardzo dobrej znajomości PostgreSQL i PLSQL, Doświadczenia w procesach ETL i narzędziach raportowych, Umiejętności projektowania modeli danych wspierających raportowanie, Zdolności identyfikacji problemów wydajnościowych i ich rozwiązywania. Zakres obowiązków: Budowaniem i projektowaniem systemów DWH/BI, Tworzeniem i optymalizacją zapytań SQL oraz procedur w PostgreSQL, Budowaniem i zarządzaniem procesami ETL, Projektowaniem modeli danych dla raportów i analiz, Optymalizacją wydajności kodu SQL i monitorowaniem procesów. Oferujemy: Stabilne zatrudnienie w innowacyjnej i dynamicznej firmie, Pracę nad projektami, które mają realny wpływ na biznes, Pracę w nowoczesnym biurze w centrum Łodzi, Możliwość rozwoju zawodowego, zdobywania nowych kompetencji, Wsparcie doświadczonego zespołu i przyjazną atmosferę, Atrakcyjny pakiet benefitów: ubezpieczenie grupowe, opiekę medyczną, możliwość uczestniczenia w wydarzeniach sportowych.
Programista / Programistka Baz Danych
Code & Pepper Sp. z o.o.
⚲ Suwałki
15 000–21 000 zł netto (+ VAT) / mies.
Wymagania
- Oracle
- PostgreSQL
- DB2
- Microsoft SQL Server
Nasze wymagania: Minimum 5 lat doświadczenia w roli programisty baz danych Doświadczenie zdobyte przy realizacji co najmniej 3 projektów informatycznych polegających na budowie systemów klasy enterprise Praktyczne doświadczenie w pracy z co najmniej jedną z relacyjnych baz danych: Oracle, PostgreSQL, DB2, MS SQL Server Zakres obowiązków: Tworzymy produkty z obszaru FinTech, HealthTech i AI (choć nie zamykamy się w sztywnych ramach). Pracujemy w modelach Team Augmentation, Full Outsourcing oraz end-to-end, głównie dla klientów spoza Polski. Nie pieprzymy o „innowacjach” ani „dynamicznym środowisku”. Interesuje nas konkret: kod, architektura i decyzje, które dowożą. Budujemy działające produkty, które przechodzą audyty, skalują się i realnie zdobywają rynek — nie kolejne slajdy ani sprinty do odhaczenia. Stawiamy na odpowiedzialność, techniczne myślenie i sensowną współpracę. A przy okazji dobrze się u nas pracuje! Oferujemy: Współpracę B2B lub umowę o pracę — Ty wybierasz 100% pracy zdalnej Budżet szkoleniowy do 2500 zł netto rocznie MacBooka i komplet niezbędnych narzędzi pracy Kartę Multisport Plus Prywatną opiekę medyczną (Luxmed)
Młodszy/a Programista/ka – Konsultant/ka Aplikacji Biznesowych
Sente S.A.
⚲ Wrocław
6 800 - 9 800 PLN brutto (UoP)
Wymagania
- Git
- .NET C#
- Relational Databases
- PL/SQL
Cześć, tutaj ekipa BohatERPów i BohatERPek! Jesteśmy polską firmą, która od 20+ lat tworzy dedykowane systemy ERP i WMS dla średnich i dużych firm. Rozwijamy nasz autorski produkt – Teneum, i teraz budujemy nowoczesną warstwę technologiczną i produktową od podstaw. Jeśli zależy Ci na pracy w miejscu, w którym Twój głos ma znaczenie i chcesz mieć realny wpływ na tworzone rozwiązania – dołącz do nas! 🔥 Chcesz dowiedzieć się więcej? Kliknij 😊 O Zespole Wspieramy klientów we wszystkich obszarach ich działalności – od logistyki, przez obsługę biura, sprzedaż i księgowość, aż po planowanie łańcuchów dostaw. Dzięki innowacyjnemu podejściu znajdujemy rozwiązania, które wpływają na zadowolenie naszego klienta i realne efekty biznesowe. Na co dzień wykorzystujemy między innymi takie technologie, jak: SQL, PL/SQL, IBExpert/Firebird, C#, system kontroli wersji GIT. We współpracy stawiamy na transparentną komunikację, partnerstwo i wzajemne wsparcie. Jeśli to brzmi jak miejsce dla Ciebie – #dołączdosente! Technologie: SQL, PL/SQL, IBExpert/Firebird, C#, system kontroli wersji GIT Wielkość zespołu: 13 osób Wynagrodzenie: 6 800 - 9 800 zł brutto dla umowy o pracę; 52 - 76 zł/h netto dla kontraktu B2B Twoimi zadaniami będą: • Codzienna praca z Klientem – obsługa zgłoszeń, ustalanie priorytetów, uzupełnianie informacji (telefonicznie lub przez JIRA), zbieranie informacji zwrotnej • Rozwijanie istniejącego systemu dedykowanego dla Klienta • Tworzenie oraz rozwój GUI w oparciu o autorską platformę Neos (wykorzystując język C#) • Odpowiedzialność za zapewnienie wysokiej jakości kodu źródłowego Poszukujemy właśnie Ciebie, jeśli: • Posiadasz pierwsze doświadczenie w pracy komercyjnej na podobnym stanowisku • Lubisz pracę z użytkownikiem biznesowym – czujesz satysfakcję z pomagania i rozwiązywania realnych problemów • Posiadasz znajomość SQL pozwalającą na swobodne tworzenie zapytań, a reszta struktur bazodanowych nie jest Ci obca • Pracowałeś zespołowo z systemem kontroli wersji (np. GIT) • Masz wiedzę z zakresu dobrych praktyk programistycznych (KISS, DRY, SOLID) • Ucieszy nas dodatkowo, jeśli: • Masz doświadczenie w pracy z oprogramowaniem klasy ERP i integracjami z zewnętrznymi systemami • Masz doświadczenie w pracy z Jenkinsem • Co my możemy Ci zaoferować? • Miejsce, w którym zostaniesz na dłużej (jeśli współpraca będzie układała się pomyślnie, zaproponujemy Ci umowę na czas nieokreślony oraz wspólnie określimy atrakcyjną dla Ciebie ścieżkę rozwoju) • Realny wpływ na swoją pracę oraz otoczenie, u nas każdy głos się liczy, a wiele firmowych decyzji podejmujemy wspólnie • Tworzenie rozwiązań, które „żyją” – dzięki implementacji Twoich zadań u Klientów, możesz obserwować wpływ Twojej pracy na rozwój innych firm • Kulturę organizacyjną promującą szacunek i odwagę, wspierającą integracje, współpracę oraz brak korporacyjności • Poznanie świetnych ludzi i nawiązanie nowych znajomości. Lubimy siebie i chętnie spędzamy razem czas – jeździmy na wyjazdy, nabijamy wspólnie kilometry w sportowych wyzwaniach, gramy w planszówki i wiele innych • Pracę w preferowanej przez Ciebie formie: zdalna/hybrydowa/stacjonarna (co jakiś czas zaprosimy Cię na spotkania/warsztaty zespołowe do biura) A dodatkowo 🎁 🎁 Indywidualnie przygotowany proces adaptacji oraz wsparcie mentora przez cały czas jego trwania Dostęp do wirtualnej biblioteki Legimi 🎁 🎁 System kafeteryjny w postaci punktów, który można wykorzystać na platformie MyBenefit lub pokrycie w całości albo dofinansowanie opieki medycznej Lux Med, czy karty Multisport Program Grantów, czyli możliwość zorganizowania integracji według własnego pomysłu 🎁 🎁 Wspólne świętowanie ciekawych świąt tematycznych Dofinansowanie wsparcia psychologicznego z Wellbee 🎁 🎁 Dostęp do biura we Wrocławiu, w którym znajduje się między innymi bilard, rzutki, PS5 i przestronny taras Możliwości rozwoju indywidualnego, dzięki dofinansowaniom z budżetu rozwojowego Kilka słów o rekrutacji: • Od samego początku będziemy zwracać się do siebie po imieniu. • Nie będziemy zwlekać, rekrutacje staramy się przeprowadzać możliwie jak najszybciej, żeby nie trzymać Cię w niepewności. • Pierwszy etap to rozmowa telefoniczna - opowiemy więcej o projekcie i zadamy pytania o Twoje doświadczenia. • Drugi etap to zadanie rekrutacyjne z obszaru SQL i C#. • Na rozmowie rekrutacyjnej poznasz członków zespołu, z którymi będziesz współpracować. • Po każdym etapie rekrutacji otrzymasz informację zwrotną.
Mid/Senior Data Scientist
Dataplace.ai
⚲ Warszawa, Wrocław, Kraków
Wymagania
- Machine Learning
- PySpark
- Amazon AWS
- Databricks
- SQL
- Python
Kilka słów o nas: Jesteśmy firmą technologiczną działającą w obszarze geoanalityki i machine learning. Nasze analizy i technologia pomagają podejmować strategiczne decyzje biznesowe największym firmom z branży retail, mediowej oraz FMCG. Wykorzystując dane przestrzenne pomagamy naszym klientom optymalizować sieć sprzedaży oraz określać najlepsze lokalizacje do jej rozwoju. Jak to robimy? Codziennie miliony użytkowników urządzeń mobilnych raportuje nam o swojej lokalizacji, a dzięki dodaniu kontekstu geoprzestrzennego i socjodemograficznego z zewnętrznych baz danych, oraz zaawansowanym modelom predykcyjnym, które rozwijamy, jesteśmy w stanie w kompleksowy sposób poznać preferencje i ruch klientów w świecie offline. Z naszego rozwiązania już dziś korzystają najwięksi gracze na rynku, nie osiadamy jednak na laurach i wciąż rozwijamy dataplace.ai oraz naszą technologię. Kogo szukamy? Aktualnie szukamy nowego talentu, który dołączy do naszego zespołu Data Science. Poszukujemy osoby, która potrafi pracować na dużych zbiorach danych, rozumie działanie modeli uczenia maszynowego i nie boi się danych przestrzennych. Co będzie należało do Twoich zadań w dataplace.ai? Pracując na stanowisku mid/senior data scientist będziesz zajmował/a się pracą na danych w ramach rozwijanych przez nas produktów SAAS (np. aplikacja location intelligence - placeme), przy projektach klienckich oraz w ramach dużego projektu B+R, który realizujemy. W szczególności do Twoich obowiązków będzie należało: • Praca z modelami nauczania maszynowego – tworzenie, wdrażanie i utrzymywanie modeli nauczania maszynowego przy użyciu algorytmów regresji liniowej i logistycznej, klasyfikacji, drzew decyzyjnych itp.; • Analityka geoprzestrzenna – praca na danych opartych na lokalizacji w celu określenia zależności i identyfikacji insight’ów, które wzbogacą procesy decyzyjne klientów; • Programowanie obiektowe w Python – rozwijanie i utrzymywanie naszej platformy Location Intelligence; • Praca z Big Data – przetwarzanie dużych ilości danych, wykorzystując technologię i narzędzia, takie jak PySpark, SQL, Databricks, AWS S3; • Wykorzystywanie LLM (Claude, Snowflake Cortex) do automatyzacji analiz i generowania insightów; • Udział w pracach B+R – uczestnictwo w pracach badawczych nad rozwojem naszej technologii przetwarzania danych przestrzennych; • Opracowywanie i utrzymywanie dokumentacji projektowej; • Wsparcie techniczne dla młodszych stażem członków zespołu Data Science. Poza pracą na danych, do Twoich zadań należało będzie też: • Ścisła współpraca z zespołem Sales - proponowanie rozwiązań analitycznych, przedstawianie rekomendacji, szacowanie zasobochłonności prac; • Przygotowywanie i prezentowanie wyników przeprowadzonych analiz, również poprzez ich wizualizację; • Sporadyczne prowadzenie warsztatów dla nowych i obecnych klientów Czego oczekujemy na tym stanowisku? • Doświadczenia (przynajmniej 3 lata) w data science, obejmującego rozwiązywanie problemów biznesowych w oparciu o eksplorację danych i machine learning; • Znajomości metod tworzenia modeli predykcyjnych; • Praktycznej wiedzy i umiejętności pracy na bazach danych z wykorzystaniem SQL; • Wiedzy i doświadczenia w programowaniu w Python; • Doświadczenia z funkcjami geoprzestrzennymi (SQL, PySpark) oraz bibliotekami do pracy z danymi przestrzennymi (GeoPandas, Shapely); • Wiedzy z zakresu ekonometrii i statystyki • Umiejętności współpracy z klientami, aby zrozumieć ich potrzeby i korelacje biznesowe analizowanych danych; • Umiejętności dobierania metod i narzędzi do analizy, wizualizacji i prezentacji danych; • Umiejętności biegłego wyciągania wniosków na podstawie liczb i komunikacji ich do biznesu; • Samodzielności, zaangażowania i poczucia odpowiedzialności za tworzone analizy; • Znajomości języka angielskiego pozwalającej na swobodną komunikację (w mowie i piśmie). Twoim dodatkowym atutem będzie: • Praktyczne wykorzystywanie LLM w codziennej pracy; • Doświadczenie pracy z AWS; • Umiejętność pracy na Snowflake; • Znajomości języka PySpark w kontekście pracy na dużych zbiorach danych (na platformie Databricks); Co oferujemy w zamian? • Wynagrodzenie adekwatne do posiadanego doświadczenia – aplikując, podziel się z nami swoimi oczekiwaniami. Preferujemy umowę UoP lub UZ • Pracę z ludźmi, którzy lubią to, co robią i siebie nawzajem :) • Możliwość pracy w pełni zdalnej – pracujemy z Portugalii, Wiednia czy Giżycka, ale jeśli wolisz przychodzić do biura, zapraszamy do naszej warszawskiej lokalizacji; • Elastyczne godziny pracy – łapiemy się na statusy, określamy cele i terminy, ale to Ty decydujesz, kiedy zaczynasz i kończysz pracę (wspólnie ustalamy zasady); • Urlop no limit – bierzesz tyle urlopu, ile chcesz, ważne żebyśmy wspólnie dowozili zadania, na które się umówimy; • Pracę przy projektach z zakresu ML i Data Science dla największych firm w Polsce; • Pracę nad innowacyjnym produktem location intelligence, w którego rozwoju będziesz miał/a swój realny udział; • Indywidualnie dopasowany pakiet benefitów; powiedz nam czego oczekujesz, a my powiemy Ci co możemy Ci zaoferować; • Możliwość stałego podnoszenia kwalifikacji - Ty wybierasz, jakie szkolenie jest Ci najbardziej potrzebne. Jeśli fascynują Cię dane przestrzenne i chcesz pracować z nowoczesnymi technologiami, dołącz do naszego zespołu i pomóż nam rozwijać innowacyjne rozwiązania w zakresie danych geoprzestrzennych!
Machine Learning Research Team Leader
RTB House
⚲ Warszawa
270–320 zł netto (+ VAT) / godz.
Wymagania
- Python
- Java
Nasze wymagania: Strong background as a Senior ML Researcher with a proven record of shipping impactful solutions Experience leading teams or projects with solid track record of delivering impact Solid understanding of statistics and probability Strong programming skills and practical ML engineering mindset Strong orientation toward execution, decision-making, and responsibility for outcomes Formal people management experience is not strictly required. We value candidates who have led complex, multi-year projects involving multiple contributors and consistently delivered high-impact results and are motivated to grow into a people management role Mile widziane: Experience working on production ML systems Experience with recommendation systems or real-time decision systems Comfort operating in environments where results are measured and visible O projekcie: If you are looking for a place where you can manage a team and provide an active hands-on technical leadership, and where you can focus on shipping solutions that have a direct impact on business results then RTB House might be the right fit for you. Selected Technologies: Python, Java, Scala PyTorch, NumPy, Pandas Jupyter Notebooks Zakres obowiązków: Manage a team of strong ML Researchers Provide deep research leadership and expertise Act as a driver of execution and accountability within the team Set clear expectations around ownership, delivery, and quality Support team members through feedback and coaching, with a strong focus on effective execution and impact Maintain a high technical and operational bar, balancing experimentation with delivery Foster a culture of impact, healthy ambition, open mindedness, teamwork, and mutual respect. Participate in hiring and onboarding as the team grows Design and implement machine learning models (most often deep neural networks) used in production systems at scale Translate research ideas into concrete, testable, and deployable solutions Conduct and evaluate A/B tests, focusing on measurable impact rather than purely academic results Develop and improve approaches to key problems such as bidding in first-price auctions, with clear ownership of outcomes Lead research initiatives end-to-end: from problem formulation, through experimentation, to production rollout Drive execution by helping the team prioritize work, remove blockers, and deliver results Communicate clearly with product and engineering to ensure alignment on goals, timelines, and impact Oferujemy: A very attractive compensation Work with a team of enthusiasts with experience in machine learning who willingly share their knowledge and skills Work in the company that operates in remote-first manner Access to the latest technologies and the possibility of real use of them in a large-scale and highly dynamic project Possibility to use knowledge and competences in practical applications - while optimizing algorithms supporting hundreds of millions of Internet users and monthly buys of billions of advertising views in the RTB model, based on extensive data sets The effects of your work immediately visible in the company's business results
ML Engineer
ITMAGINATION
⚲ Warsaw
18 480 - 22 176 PLN (B2B)
Wymagania
- PyTorch
- TensorFlow
- MLOps
- Python
- TypeScript (nice to have)
- Node.js (nice to have)
- JavaScript (nice to have)
- MLflow (nice to have)
- Kubeflow (nice to have)
- Computer vision (nice to have)
- Cloud computing (nice to have)
- AWS (nice to have)
O projekcie: We are looking for experienced team players to fill the position of ML Engineer and participate in our up-and-coming project for our client from pharmaceutical industry. Wymagania: - Experience in building and applying ML (not hosted LLM) systems with frameworks such as PyTorch, TensorFlow, JAX - Experience in building training data processing pipelines for image data - Experience in in MLOps lifecycles (model training, model validation, model deployment, quality monitoring) - Excellent Python programming skills - Software engineering best practices, the aim of writing high performant, modern, bug free code, proper documentation of code, unit-testing, code quality, etc. (required) - PyTorch (required good working knowledge) Nice to have: - TypeScript/Node/JavaScript - Experiment tracking platforms such as Weights & Biases, MLFlow (past experiences) - Processing platforms, such as Kubeflow (optional) - Computer Vision problems (recommended), e.g. experience with OpenCV (optional) - Cloud computing infrastructure, in particular AWS (recommended) - Working in a regulated environment, developing code under pre-set regulatory rules
Lead Data Scientist
Stackmine
⚲ Remote
33 600 - 43 680 PLN (B2B)
Wymagania
- Python
O projekcie: Celem projektu jest rozwój zaawansowanej platformy reklamowej dla kampanii Connected TV (CTV), umożliwiającej skalowanie zasięgu i precyzyjne targetowanie odbiorców. Projekt koncentruje się na budowie i optymalizacji modeli uczenia maszynowego wspierających efektywność kampanii w środowisku programmatic (DSP). Wymagania: - min. 7 lat doświadczenia na stanowisku Data Scientist, - doświadczenie w branży ad-tech, w szczególności w obszarze DSP i reklamy programmatic, - bardzo dobra znajomość zagadnień związanych z CTV oraz pomiarem efektywności kampanii, - doświadczenie w budowie i wdrażaniu modeli optymalizacyjnych (np. bidding, atrybucja), - zaawansowana wiedza z zakresu statystyki i uczenia maszynowego, - bardzo dobra znajomość Python oraz SQL, - zaawansowana znajomość j. angielskiego oraz j. polskiego. Codzienne zadania: - projektowanie i wdrażanie modeli uczenia maszynowego wspierających optymalizację kampanii (m.in. strategie biddingowe, alokacja budżetu, pacing), - rozwijanie i utrzymanie warstwy orkiestracji modeli w celu rozwiązywania problemów optymalizacji wielokryterialnej, - tworzenie strategii data & ML dla segmentacji użytkowników i targetowania kampanii z wykorzystaniem danych first- i third-party, - integracja modeli oraz pipeline’ów danych z systemami produkcyjnymi we współpracy z zespołami Product i Engineering, - analiza danych i identyfikacja insightów dotyczących efektywności kampanii, trendów rynkowych oraz zachowań użytkowników, - przekładanie wyników analiz na konkretne rekomendacje produktowe i biznesowe, - współpraca z interesariuszami oraz prezentowanie wyników analiz i modeli w przystępny sposób.
Junior Data Engineer - e-Xperience Program Associate
Allegro
⚲ Poznań, Wilda, Warszawa
Nasze wymagania: Are familiar with Python (or Java/Scala) and know how to write clean, maintainable code. Are familiar with the basics of SQL and want to learn how to use it in practice for processing large-scale technical datasets. Like analyses and can apply critical thinking to identify basic trends and patterns, treating complex data as a puzzle waiting to be solved. Are eager to continuously develop your skills and expand knowledge in a highly technical infrastructure environment, tackling the challenges of large-scale datasets in one of Europe's leading e-commerce platforms. Know English at B2+ level O projekcie: Start your career with Allegro e-Xperience 2026 - a talent program running from 1 July to 31 December 2026. During the program, you’ll gain hands-on experience, work on real projects and learn from teams shaping one of the largest e-commerce platforms in the region. After the initial period, candidates may be considered for future permanent opportunities at Allegro, depending on business needs and performance. You can find full details about the recruitment process and timeline here. Ready to take your first professional step? Apply now and shape the future of e-commerce with us! For this role, we’re looking for 3 Associates. Zakres obowiązków: You will develop and maintain ETL/ELT data pipelines processing massive datasets from the Allegro platform. You will expand your expertise in the Google Cloud ecosystem, working with tools like BigQuery and Cloud Composer (Airflow) You will be part of a cross-functional team, collaborating closely with Data Scientists and Analysts to provide high-quality, structured data for ML models and business reporting. You will verify data quality and implement basic monitoring solutions to ensure the reliability of our data warehouse. You will optimize existing data processes, write clean code, and learn best practices in DataOps and software engineering. You will be part of the Infrastructure department, learning how we manage and analyze vast amounts of technical data across our data centers and the public cloud. You will be responsible for assisting in building a seamless data process flow, cooperating with various teams to understand existing metrics and company targets. Oferujemy: Flexible working hours in the hybrid model (4/1) - working hours start between 7:00 a.m. and 10:00 a.m. The opportunity to learn, work on exciting challenges, collaborate with amazing people and have an unforgettable adventure Mentorship and support from your buddy throughout your entire program Additionally, you will be part of a supportive, inclusive culture that fosters personal growth, career development, and the building of meaningful connections with colleagues A wide selection of fringe benefits in a cafeteria plan - you choose what you like (e.g. medical, sports or lunch packages, insurance, purchase vouchers) The necessary tools for work Working in a team you can always count on - we have on board top-class specialists and experts to learn from Hackathons/Open days, workshops, guilds, meetups and internal knowledge sharing Internal learning platform (including training courses on work organization, means of communication, motivation to work and various technologies and subject-matter issues)
Inżynier ds. infrastruktury on‑premise i chmurowej (k / m)
Bankowy Fundusz Gwarancyjny
⚲ Warszawa, Śródmieście
Wymagania
- AWS
- Microsoft Azure
- Google Cloud Platform
Nasze wymagania: • Wyższe wykształcenie • Minimum 5–7 lat doświadczenia w obszarze infrastruktury IT: o data center, serwery, wirtualizacja (np. VMware, Hyper‑V), o systemy pamięci masowej (storage), o backup i podstawy bezpieczeństwa infrastruktury. • Udział w projektach migracyjnych lub transformacyjnych: o np. przenoszenie centrum danych, migracje P2V, V2C lub migracje do chmury. • Praktyczne doświadczenie w projektowaniu lub wdrażaniu rozwiązań chmurowych: o AWS, Azure lub GCP, o mile widziane doświadczenie w środowiskach hybrydowych lub multicloud. • Znajomość koncepcji: o disaster recovery, business continuity, backup, o podstawy łączności z chmurą (VPN, sieci hybrydowe itp.). • Dojrzałość w podejmowaniu decyzji architektonicznych: o umiejętność wyważenia kosztów, ryzyka, czasu wdrożenia i złożoności rozwiązania. • Silne fundamenty inżynierskie: o bardzo dobra znajomość wirtualizacji, storage’u i sieci w środowiskach klasy Enterprise. • Kompetencje komunikacyjne: o umiejętność rozmawiania z biznesem, tłumaczenia „technologii” na język korzyści, o umiejętność obrony swoich decyzji technicznych w oparciu o argumenty. • Podejście „hands‑on”: o gotowość, aby w razie potrzeby samodzielnie wejść w konfigurację i rozwiązywać trudniejsze problemy techniczne. Mile widziane: • Certyfikaty branżowe, np.: o AWS Certified Solutions Architect, o Microsoft Azure Solutions Architect Expert, o VMware VCP/VCAP lub podobne. • Znajomość podejścia Infrastructure as Code: o np. Terraform, Ansible lub podobne narzędzia automatyzacji. • Doświadczenie w budowie lub rozwoju rozwiązań typu „landing zone” / podstawowej architektury chmurowej. O projekcie: Jesteśmy w kluczowym momencie transformacji technologicznej. Naszym celem jest modernizacja infrastruktury IT i budowa nowoczesnego, skalowalnego środowiska, które będzie napędzać rozwój biznesu przez kolejne lata. Szukamy lidera/ki, który/a nie tylko zaprojektuje tę zmianę technicznie, ale przeprowadzi naszą organizację przez proces migracji do modelu hybrydowego/multicloud. Idealny/a kandydat/ka łączy mocne kompetencje techniczne (wirtualizacja, storage, DR, architektura cloud, backup) z umiejętnością rozmawiania z biznesem i pełnienia roli lidera technologicznego w nowym obszarze kompetencji. Twój cel: Będziesz łącznikiem między „tradycyjną” infrastrukturą on‑premise a nowoczesnymi rozwiązaniami chmurowymi. Z jednej strony – dobra znajomość serwerów, wirtualizacji, storage’u, backupu i sieci. Z drugiej – praktyczne podejście do chmury (AWS / Azure / GCP) i pracy w modelu hybrydowym. Zakres obowiązków: • Planowanie i transformacja infrastruktury o współtworzenie planu (roadmapy) transformacji infrastruktury IT, o udział w migracji zasobów do nowej lokalizacji (Data Center / colocation) i do chmury publicznej. • Projektowanie architektury hybrydowej o projektowanie i wdrażanie środowisk łączących istniejącą infrastrukturę z chmurą, o dbanie o bezpieczeństwo, wydajność i skalowalność rozwiązań. • Projektowanie infrastruktury (HLD i LLD) o przygotowywanie koncepcji i szczegółowych projektów dla obszarów: serwery, wirtualizacja, storage, sieć, backup, o dobór technologii i rozwiązań we współpracy z innymi zespołami. • Rola lidera technicznego o pełnienie roli eksperta w obszarze Data Center / chmury, o wyjaśnianie złożonych tematów technicznych w prosty sposób dla biznesu i interesariuszy, o wspieranie zespołu w kluczowych decyzjach architektonicznych. • Ciągłość działania i bezpieczeństwo o projektowanie i rozwój rozwiązań Disaster Recovery i Business Continuity, o dbałość o ciągłość działania systemów w środowisku rozproszonym (on‑premise + chmura). Oferujemy: pracę w renomowanej instytucji należącej do sieci bezpieczeństwa finansowego projekty o dużym wpływie na architekturę systemu finansowego Polski dostęp do nowoczesnych technologii cloud (Azure, AWS, Databricks) atrakcyjne możliwości rozwoju zawodowego pakiet dodatkowych świadczeń: pracowniczy program emerytalny (7% wynagrodzenia) prywatną opiekę medyczną, dofinansowanie do kart sportowych, biletów do kina/teatru i inne benefity dogodną lokalizację w bezpośrednim sąsiedztwie metra w centrum Warszawy
Expert Developer – Data Analytics & Data Engineering
Deutsche Telekom IT Solutions Hungary
⚲ Budapest
14 155 - 23 955 PLN (PERMANENT)
Wymagania
- Degree
- Data engineering architecture
- Lakehouse
- Delta Lake
- SQL
- Phyton
- Reporting (nice to have)
- Analytics (nice to have)
- Dashboarding (nice to have)
- Scrum (nice to have)
- BI (nice to have)
O projekcie: Company Description As Hungary’s most attractive employer in 2025 (according to Randstad’s representative survey), Deutsche Telekom IT Solutions is a subsidiary of the Deutsche Telekom Group. The company provides a wide portfolio of IT and telecommunications services with more than 5300 employees. We have hundreds of large customers, corporations in Germany and in other European countries. DT-ITS recieved the Best in Educational Cooperation award from HIPA in 2019, acknowledged as the the Most Ethical Multinational Company in 2019. The company continuously develops its four sites in Budapest, Debrecen, Pécs and Szeged and is looking for skilled IT professionals to join its team. Job Description At BDA_CDI HUB, we provide comprehensive IT solutions for T-Systems in the areas of data management, analytics, visualization, and process automation. Our expertise spans from self-service analytics platforms to enterprise wide data warehouse and analytics solutions. We are increasingly focusing on data-driven initiatives and advanced analytics based on cloud services, evolving our traditional data warehouse landscape into a centralized T- Systems Lakehouse architecture to optimize and enhance efficiency. Our environment is dynamic, innovative, and centered on continuous learning and development. Additional Information - Experience with Power Platform (Power Automate, Power Apps) is a plus. - Certifications (Preferred but Not Mandatory) - DP-900: Microsoft Azure Data Fundamentals - DP-100: Designing and Implementing a Data Science Solution in Azure - DP-203: Data Engineering on Microsoft Azure - DP-300: Managing Relational Databases on Microsoft Azure - AI-900: Microsoft Azure AI Fundamentals - AZ-900: Microsoft Azure Fundamentals - DP-420: Designing and Implementing Cloud-Native Applications with Microsoft Azure Cosmos DB * Please be informed that our remote working possibility is only available within Hungary due to European taxation regulation. Wymagania: Your Experience & Qualifications - Degree in (Business) Informatics, Business Administration, or equivalent practical experience. - At least 5 years of experience in data engineering architecture, with: - Minimum 5 years of hands-on experience with Databricks & Delta Lake on Azure services. - Proven expertise in migrating from traditional data warehouse solutions to modern data platforms like Lakehouse & Delta Lake. - Expected Skills & Knowledge Technical Expertise: - Strong experience in modern data platform and data warehousing architectures. - Deep knowledge of data lake storage organization and architecture. - Solid understanding of relational and multidimensional database systems. - Proficiency in data warehouse modeling methods (Kimball, Inmon, Data Vault). - Experience with data pipelines using Spark Structured Streaming and Delta Lake. - Strong programming skills in SQL, Python, and Spark. - Preferred Additional Experience: - Familiarity with reporting, analytics, and dashboarding. - Hands-on experience with Agile development methodologies (SCRUM, KANBAN, etc.). - Knowledge of BI solutions using: Azure Databricks /Azure Data Factory /Azure Storage /Azure Synapse /Azure Logic Apps / Power BI Codzienne zadania: - Design IT platforms, processes, and organizational structures for our evolving Lakehouse on Azure, leveraging: - Databricks Data Factory Data Lake Storage Event Hub … and more cutting-edge technologies. - Develop sustainable architectures, prototype solutions, and evaluate new technologies to drive innovation. - Support engineering teams in platform architecture development and coach them toward independent solution design. - Ensure data protection and security when handling business-critical and personal data. - Collaborate with the team to enhance platform architecture, establish principles, patterns, and best practices.
Emarsys Expert
Reply Polska
⚲ Katowice
33 600 - 47 040 PLN (B2B)
Wymagania
- SAP
- Swagger
- AWS
- AWS Lambda
- Apache Kafka
- Jira
O projekcie: For an Automotive Project, we are seeking a Database & API Architect and experience with SAP Emarsys. In this role, you will take responsibility for the design, governance, and quality assurance of database and API architectures within an AWS-based cloud environment. You will work closely with stakeholders and external service providers to ensure that architectural standards, documentation, and delivery quality are consistently met. About Riverland Reply Riverland Reply is specialized in consulting end-to-end customer-oriented solutions and strategies. In addition, Riverland Reply supports its customers in strategic IT decisions, implementation of defined solutions and production execution. The company combines in-depth knowledge of digital Customer Experience with the full potential of cloud native technologies. This expertise allows Riverland Reply to remove the barriers between a product-based technology and a full custom implementation. Knowing that Customer Experience in the digital era must be highly flexible to be adapted to different industries, Riverland Reply advises clients in automotive, transportation, logistics and finance industry. The strong partnership and close collaboration with Oracle made Riverland Reply the experts of Oracle’s Customer Experience products. Wymagania: - Several years of experience in roles such as Database Architect, API Architect, or Solution Architect, preferably within enterprise or large-scale project environments. - Experience working with external service providers and distributed delivery teams, including review and ownership of delivered solutions. - Proven experience in agile project environments, including hands-on use of tools such as JIRA. - Strong analytical and conceptual skills, with the ability to structure complex functional and technical requirements. - Demonstrated technical leadership or feature ownership, combined with a high level of ownership, reliability, and quality awareness. - Excellent communication and collaboration skills, enabling effective work across teams and organizational units. - University degree in Computer Science (or a related field) and fluency in English and Polish . Codzienne zadania: - Support SAP Emarsys initiatives, including email template adjustments, cross-team requests, test data creation, ESL use case reviews, and evaluation of reporting requirements. - Clarify requirements and provide support in the preparation of migration strategies, ensuring alignment across stakeholders. - Design, document, and govern database, API, and cloud architectures in line with functional and non-functional requirements, advising stakeholders on architectural decisions, technology selection, and best practices. - Define, document, and maintain functional and technical requirements in JIRA as a basis for implementation by external service providers. - Review, validate, and formally approve implementations delivered by service providers, ensuring quality, compliance, and architectural alignment. - Design and oversee RESTful APIs, including lifecycle governance, standardization, and documentation using Swagger/OpenAPI. - Design and support AWS-based solutions, with a focus on AWS Lambda, AWS Step Functions, cloud-native integration patterns, as well as event-driven architectures and data streaming using Apache Kafka and data integration using Informatica IDMC. - Act as a technical go-to person in meetings, supporting clarification, decision-making, and cross-team alignment.
Databricks Data Engineer
Link Group
⚲ Remote
22 680 - 27 720 PLN (B2B)
Wymagania
- Data engineering
- Databricks
- SQL
- PySpark
- Python
- ETL
- Data modeling
- Big Data
- Cloud platform
- AWS
- GCP
- Relational database
- Storage
- Data warehouses (nice to have)
- Data Lake (nice to have)
- Kanban (nice to have)
- DevOps (nice to have)
O projekcie: We are looking for an experienced Data Engineer who is passionate about building scalable data solutions and working with modern big data technologies. If you have solid expertise in data engineering, hands-on experience with Databricks, and enjoy turning complex data challenges into efficient, business-oriented solutions – we’d love to hear from you! Wymagania: - 5+ years of experience in Data Engineering - 2+ years of hands-on experience with Databricks - Strong skills in SQL, PySpark, and Python - Solid background in data warehousing, ETL, distributed data processing, and data modeling - Excellent analytical and problem-solving skills in big data environments - Experience with structured, semi-structured, and unstructured data - Practical experience with at least one major cloud platform (Azure, AWS, or GCP) - Knowledge of relational database design and non-relational storage solutions - Familiarity with Data Marts, Data Warehouses, Data Lakes, and Data Mesh - Very good English skills (spoken and written) - Experience working in Agile environments (Scrum, Kanban) as well as with DevOps and CI/CD practices
Database Engineer
DS STREAM
⚲ Warsaw, Kraków, Wrocław, Poznań, Katowice
26 880 - 30 240 PLN (B2B)
Wymagania
- SQL
- Azure Data Factory
- Databricks
O projekcie: Dołącz do zespołu DS Stream jako Database Engineer. Szukamy doświadczonego inzyniera, który przejmie odpowiedzialność za zarządzanie naszymi bazami danych, wdrażając najlepsze praktyki w zakresie wysokiej dostępności (HA), backupów oraz monitorowania wydajności. Obecnie operujemy na środowisku o skali około 20 GB na pojedynczy bucket bazy danych, jednak projektujemy architekturę gotową na szybki wzrost i obsługę wolumenów przekraczających 100 GB. Będziesz ściśle współpracować z zespołem deweloperskim, wspierając ich w projektowaniu optymalnej logiki biznesowej, integracji danych oraz wdrażaniu zaawansowanych polityk bezpieczeństwa. Wymagania: Wymagania (Must have) - Komercyjne doświadczenie na stanowisku Database Engineera, DBA lub pokrewnym w środowiskach produkcyjnych. - Biegła znajomość SQL i udokumentowane doświadczenie w głębokiej optymalizacji zapytań oraz monitorowaniu wydajności. - Praktyczna znajomość technik skalowania baz danych (clustering, replikacja, partitioning, sharding). - Doświadczenie w pracy z narzędziami Azure Data Factory (ADF) oraz Databricks (DBR) w kontekście integracji i procesowania danych. - Znajomość podstaw języka Python umożliwiająca skryptowanie i automatyzację operacji bazodanowych. - Biegłość w projektowaniu procesów Data Recovery (Point-in-Time Recovery) oraz wdrażaniu zabezpieczeń typu Row-Level Access Control. - Zdolność ścisłej współpracy z programistami i tłumaczenia złożonych wymogów bazodanowych na wydajną architekturę oprogramowania. Mile widziane (Nice to have) - Znajomość i umiejętność wykorzystania MCP (Model Context Protocol). - Doświadczenie ze stackiem analitycznym i narzędziami observability (np. Grafana, Prometheus). - Doświadczenie w natywnym skalowaniu chmurowych baz danych (cloud-native DB scaling) oraz zautomatyzowanym odzyskiwaniu danych. - Praktyka w obszarze Data Governance, automatyzacji audytów bezpieczeństwa oraz procesów compliance. Codzienne zadania: - Zarządzanie bazami danych zgodnie z najlepszymi praktykami rynkowymi oraz definiowanie polityk bazodanowych (DB Policies). - Zapewnienie wysokiej dostępności (HA) oraz realizacja strategii backupów spełniających rygorystyczne wymagania środowisk produkcyjnych. - Aktywne monitorowanie wydajności baz danych, w tym analiza wolnych zapytań (slow logs) oraz optymalizacja wykorzystania zasobów. - Wdrażanie rozwiązań z zakresu skalowalności (klastrowanie, replikacje, partycjonowanie/sharding, zarządzanie danymi hot/cold). - Zaawansowana optymalizacja zapytań SQL. - Wsparcie zespołu deweloperskiego w projektowaniu i implementacji skomplikowanej logiki: niestandardowe walidacje o wysokiej wydajności, mechanizmy soft delete, Point-in-Time Recovery (na poziomie tabeli/rekordu) oraz kontrola dostępu na poziomie wiersza bazująca na aplikacji RBAC. - Projektowanie przepływów danych (Dataflows) oraz dwukierunkowa integracja danych przy użyciu ADF (Azure Data Factory) i DBR (Databricks). - Zarządzanie i optymalizacja procesów zrzutów (dump), eksportów i importów danych.
Data Solution Designer - Data Contracts
T-Mobile
⚲ Warszawa, Mokotów
Wymagania
- Oracle
- Hive
- Spark
- SQL
- PL/SQL
- Data Contracts
Nasze wymagania: Min. 3-4 lat doświadczenia na stanowisku Data Engineera/Data Architecta Doświadczenie w projektowaniu modeli danych i architektury danych Doświadczenie w budowaniu architektury mikroserwisowej i wymiany danych pomiędzy architektury mikroserwisowej, a intefejsem wymianych danych Doświadczenie w realizacji projektów w obszarze danych w dużych korporacjach Znajomość zagadnień dotyczących obszaru Data Contracts i narzędzi wspierających ich automatyzację Doświadczenie w analizie, przetwarzaniu i modelowaniu danych, znajomość architektury rozwiązań Hurtowni Danych (Oracle) i Big Data (Hive, Spark) Umiejętność tworzenia zapytań SQL i PL/SQL na poziomie zaawansowanym poparta praktycznym doświadczeniem zawodowym Praktyka w zapewnieniu jakości danych (testowanie, monitorowanie, alertowanie) Doświadczenie w tworzeniu dokumentacji technicznej oraz code review Umiejętność pracy zespołowej i komunikacji z zespołami biznesowymi, technicznymi oraz analitycznymi. Proaktywność, odpowiedzialność i nastawienie na jakość w obszarze danych Mile widziane: Doświadczenie w pracy z narzędziami do zarządzania danymi, np.: dbt, Dataform Dataplex, Data Catalog Znajomość ekosystemu GCP (Google Cloud Platform) Zakres obowiązków: Zdefiniowanie architektury i standardów Data Contractów w firmie Projektowanie i wdrażanie Data Contractów (formaty, schematy, walidacja, proces wersjonowania) Dobór narzędzi wspierających automatyzację Data Contracts Ustanowienie procesów tworzenia, utrzymywania i ewaluacji Data Contracts Współpracę z zespołami produktowymi, data engineeringiem, BI i właścicielami danych, wspieranie zespołów developerskich przy definiowaniu Data Contracts Oferujemy: Dołącz do nowego, strategicznego projektu transformacji danych: przenosimy analitykę z on‑premise do GCP, budując od zera architekturę i model danych z mocnym naciskiem na zwiększanie wartości biznesowej i poprawę CX naszych klientów. Pracujemy z technologiami takimi jak GCP, Spark, Python, Kubernetes, BigQuery, Vertex AI, Terraform, Looker. Integrujemy różnorodne, wysokowolumenowe źródła danych, projektujemy warstwy przetwarzania w trybach streaming i batch, wdrażamy data governance, lineage, jakość i bezpieczeństwo danych, a także CI/CD oraz monitoring/SLO — wszystko po to, aby skrócić drogę od pytania do odpowiedzi i stworzyć solidny fundament pod rozwiązania AI/LLM. To część szerszego programu transformacji danych, który redefiniuje sposób, w jaki T‑Mobile pracuje z danymi na co dzień. Tworzymy środowisko sprzyjające eksperymentowaniu, szybkiemu prototypowaniu i innowacjom, oparte na kulturze otwartości i współpracy. Pracując z najnowocześniejszymi technologiami, masz realny wpływ na strategię danych oraz kierunek rozwoju naszej platformy.
Data Scientist Internship
Capgemini Polska
⚲ Gdańsk, Kraków, Poznań, Wrocław
Wymagania
- Python
- TensorFlow
- PyTorch
- matplotlib
- Pandas
- scikit-learn
Nasze wymagania: jesteś studentem/-ką na kierunku matematycznym lub pokrewnym, dysponujesz co najmniej 32h tygodniowo i jesteś zainteresowany/-a współpracą długoterminową; programujesz w języku Python oraz ciekawią Cię tematy takie jak sztuczna inteligencja, uczenie maszynowe, czy analiza danych; rozumiesz podstawy sieci neuronowych (funkcja aktywacyjna, neurony, algorytmy optymalizacji, uczenie supervised i unsupervised); zapoznałeś się podstawami działania Generative AI i LLM (Large Language Model); znasz takie biblioteki jak: TensorFlow, PyTorch, matplotlib, Pandas, scikit-learn; potrafisz zbudować samodzielnie proste modele uczenia maszynowego i nauczyć je na danych, którymi dysponujesz; dobrze znasz podstawy matematyki na poziomie akademickim (analizę, algebrę, rachunek prawdopodobieństwa, statystykę) i lubisz rozszerzać swoją wiedzę w tym obszarze; cechuje Cię samodzielność i aktywność w działaniu jak również doskonała umiejętność analitycznego myślenia oraz elastyczność i otwartość na różne obszary technologiczne w pracy danymi; znajomość języka angielskiego na poziomie B2 O projekcie: Twoja rola Dział Insights & Data tworzy zaawansowane rozwiązania w zakresie przetwarzania i analizy danych, koncentrując się na technologiach Big Data, chmurze obliczeniowej oraz sztucznej inteligencji. Dostarczamy rozwiązania pozwalające na przetwarzanie dużych oraz nieustrukturyzowanych zbiorów danych z wykorzystaniem takich platform chmurowych jak AWS, Azure oraz GCP. Odpowiadamy za pełny cykl życia systemu (SDLC): oprócz wykorzystywania narzędzi do przetwarzania danych (np. ETL), piszemy dużo kodu w Pythonie, PySparku i Scali, równocześnie stosując najlepsze praktyki i narzędzia DevOps. Dane są dostarczane do docelowych systemów za pomocą interfejsów / API lub wizualizowane i przedstawiane w postaci zestawień i raportów, na przykład przy użyciu Power BI jako narzędzia zintegrowanego z platformą MS Fabric. Realizujemy projekty dla klientów z branż finansowej, logistycznej, motoryzacyjnej, telekomunikacyjnej i wielu innych. Zespół Insights & Data to ponad 450 specjalistów danych, inżynierów i analityków, którzy wspólnie realizują ponad 100 projektów dla klientów na całym świecie. Zakres obowiązków: budowa modeli uczenia maszynowego rozwiązujących konkretne problemy biznesowe; przygotowanie danych potrzebnych do uczenia modeli; optymalizacja modeli uczenia maszynowego; prezentacja wyników działania modeli uczenia maszynowego i wizualizacja danych; nauka specyfiki obszaru biznesowego danego projektu; uczestnictwo w pełnym programie szkoleń oraz udział w komercyjnych projektach oraz PoC opartych na rzeczywistych projektach i zapotrzebowaniach klientów. Oferujemy: Korzystaj z hybrydowego modelu pracy, który jest dopasowany do Twojego życia - po zakończeniu onboardingu połącz pracę w nowoczesnym biurze z ergonomiczną pracą z domu, dzięki pakietom home office (m.in. laptop, monitor, krzesło). O szczegóły zapytaj swojego rekrutera. Wczesne wsparcie dzięki Programom Buddy: ucz się u boku naszych ekspertów, którzy współpracują nad najlepszymi rozwiązaniami dla globalnych przedsiębiorstw, w tym 145 firm z listy Fortune 500. Dostęp do ponad 70 ścieżek szkoleniowych z możliwością certyfikacji (np. GenAI, Excel, Business Analysis, Project Management) na naszej platformie NEXT. Zanurz się w świecie wiedzy dzięki bezpłatnemu dostępowi do platformy językowej Education First, TED Talks i Udemy Business oraz materiałów i szkoleń.
Data Scientist Catalog Quality and Selection
Allegro
⚲ Warszawa, Wola
Wymagania
- Python
Nasze wymagania: Have experience in data analysis using SQL and building machine learning solutions in production environments, especially with end-to-end experience in designing ML models Want to translate business challenges into ML problems Can clearly communicate with business units - from formulating an analytical problem to a clear and intuitive presentation of results Program in Python and efficiently use basic development tools Understand statistical and machine learning methods Embrace modern tooling, specifically possessing practical and theoretical knowledge of Generative AI and Agentic AI principles (coding tools, prompting, validation). The ideal candidate enthusiastically leverages GenAI coding tools (like Copilot) to boost and automate workflows, remaining up-to-date and critically engaged with the newest GenAI tooling. Graduated with a degree strongly related to statistical/mathematical modeling, such as Mathematics, Physics, Economics, Computer Science (or similar major) or job experience in data science / ML positions. O projekcie: Our team drives the logic that powers a trustworthy marketplace. Composed of Data Scientists, Data Engineers and Analysts we develop statistical models and rules to measure and improve Products Catalog and Product Selection. We oversee the quality and correctness of all product components: titles, descriptions, images, and parameters. Our scope also covers ensuring consistency with sellers offers, detecting product duplicates, building selection models and more. We work in close collaboration with developers and business teams, participating in the entire project lifecycle - from ideation through to implementation. Our ultimate goal is to create a seamless experience where Partners can rely on fair visibility rules and Customers can trust every product detail they see on the platform. Zakres obowiązków: Co-creating projects on each stage - from concept to productization - to deliver insights and models solving business problems from different areas Using a wide range of model types, including boosting models, Bayesian methods, causal inference, optimization methods, deep learning and Generative AI solutions including LLMs and Agentic AI Processing terabytes of data using Google Cloud Platform solutions Working not only with tabular data, but also with spatial data, natural language texts, images and time series Taking part in implementations of off-line and on-line models Brainstorm, provide mentorship, share knowledge Cooperation with other teams: business stake-holders, analytics, data engineers Oferujemy: Flexible working hours in the hybrid model (4/1) - working hours start between 7:00 a.m. and 10:00 a.m. We also have 30 days of occasional remote work. Annual bonus based on your annual performance and company results. Well-located offices (with e.g. fully equipped kitchens, bicycle parking, terraces full of greenery) and excellent work tools (e.g., raised desks, ergonomic chairs, interactive conference rooms). A 16" or 14" MacBook Pro or corresponding Dell with Windows (if you don't like Macs) and all the necessary accessories. A wide selection of fringe benefits in a cafeteria plan - you choose what you like (e.g., medical, sports or lunch packages, insurance, purchase vouchers). English classes that we pay for related to the specific nature of your job. A training budget, inter-team tourism (see more here), hackathons, and an internal learning platform where you will find multiple trainings. An additional day off for volunteering, which you can use alone, with a team, or with a larger group of people connected by a common goal. Social events for Allegro people - Spin Kilometers, Family Day, Fat Thursday, Advent of Code, and many other occasions we enjoy.
Data Scientist / MLOps Engineer
Antal
⚲ Kraków
30 240 - 38 640 PLN (B2B)
Wymagania
- Python
- pandas
- scikit-learn
- TensorFlow
- Data pipelines
- MLOps
- CI/CD
- AWS
- Data visualization
O projekcie: 📍 Location: Kraków (hybrid: 2 days in the office per week) 📄 B2B: 180 - 230 PLN / h 🏦 Industry: Banking We are currently looking for a Data Scientist / ML Ops Engineer to join a strategic global banking initiative focused on building, deploying and scaling machine learning solutions in production environments. The role sits at the intersection of data science and engineering, with strong ownership of end-to-end ML pipelines and operational excellence. You will work within a cross-functional, international team of data scientists, ML engineers, software engineers and cloud specialists, contributing to enterprise-scale analytics and AI platforms used across the organization. What we offer: - Opportunity to work on global, high-impact AI and advanced analytics initiatives. - Real influence on how machine learning solutions are built and operated in production. - Access to modern cloud and ML technologies in a mature engineering environment. - Collaboration with experienced, international expert teams. Wymagania: - Strong Python skills (Pandas, Scikit-learn, TensorFlow or similar). - Experience in building and maintaining data pipelines. - Hands-on experience with ML Ops practices: CI/CD, monitoring, versioning. - Experience with AWS and cloud-based ML solutions. - Solid background in data analysis and data visualization. - Ability to work effectively in cross-functional engineering teams. Codzienne zadania: - Design, develop and maintain end-to-end data and ML pipelines. - Build, train and evaluate machine learning models using Python and modern ML frameworks. - Implement ML CI/CD processes, model versioning and automated deployments. - Monitor models in production (performance, drift, reliability) and ensure their stability. - Collaborate closely with engineering, platform and business teams to deliver scalable ML solutions. - Contribute to cloud-based ML architectures and best practices.
Data Scientist - Remote
Link Group
⚲ Remote
17 000 - 22 000 PLN (B2B)
Wymagania
- Python
- Data science
- Data analysis
- pandas
- NumPy
- Machine learning
- SQL
- NoSQL
- Data visualization
- Tableau
- Power BI
- Matplotlib
- Git
- Big data (nice to have)
- Hadoop (nice to have)
- Spark (nice to have)
- Deep learning (nice to have)
- TensorFlow (nice to have)
- PyTorch (nice to have)
- Cloud platform (nice to have)
- AWS (nice to have)
- Azure (nice to have)
- GCP (nice to have)
O projekcie: At Link Group, we specialize in building tech teams for Fortune 500 companies and some of the world's most exciting startups. Our mission is to connect talented professionals with opportunities that align with their skills, interests, and career aspirations. We are currently looking for a Data Scientist to join our team and work on innovative, data-driven projects for global clients. About the Project The project involves leveraging advanced data analytics and machine learning techniques to generate insights and predictions for the finance/stock exchange industry. You will work on developing predictive models, data pipelines, and decision-making tools to improve financial performance and drive innovation. Tech Stack - Python (NumPy, Pandas, Scikit-learn, TensorFlow, PyTorch) - SQL/NoSQL databases - Big Data technologies (Hadoop, Spark) - Data visualization tools (Tableau, Power BI, Matplotlib, Seaborn) - Cloud platforms (AWS, Azure, GCP) - Version control tools (Git) What We Offer - Tailored opportunities to match your professional interests and goals. - A leadership role in a dynamic and collaborative work environment. - Access to exciting and diverse projects for global clients. - Competitive compensation aligned with your expertise. - Ongoing opportunities for professional growth and development. If you're ready to take on a leadership role and work on groundbreaking projects in the IT industry, we'd love to hear from you! Apply today and join us at Link Group to make an impact! Wymagania: Must-Have Qualifications - At least 3+ years of experience in data science or a related field. - Strong proficiency in Python and data analysis libraries (e.g., Pandas, NumPy). - Solid understanding of machine learning techniques and algorithms. - Experience with SQL/NoSQL databases for querying and managing data. - Familiarity with data visualization tools (e.g., Tableau, Power BI, Matplotlib). - Knowledge of version control tools like Git. - Strong problem-solving and critical-thinking skills. - Good command of English. Nice to Have - Experience with Big Data technologies like Hadoop or Spark. - Knowledge of deep learning frameworks (e.g., TensorFlow, PyTorch). - Familiarity with cloud platforms such as AWS, Azure, or GCP. - Understanding of statistical modeling and A/B testing. - Academic background in Computer Science, Mathematics, Statistics, or a related field. Codzienne zadania: - Analyze large, complex datasets to identify trends, patterns, and actionable insights. - Develop predictive models and machine learning algorithms to solve business problems. - Design and implement data pipelines for preprocessing and transforming raw data. - Visualize data and present findings in a clear, actionable way to stakeholders. - Collaborate with engineers and domain experts to deploy data-driven solutions. - Research the latest advancements in data science to improve methodologies and tools.
Data Scientist - Expert
ING Bank Śląski S.A.
⚲ Katowice
Wymagania
- Python
- SQL
- Hadoop
Nasze wymagania: masz doświadczenie jako developer Python (3-5 lat) masz praktyczną znajomość SQL i relacyjnych baz danych masz doświadczenie w pracy w środowisku Hadoop i Spark pracujesz z danymi tekstowymi, klasyfikacją, ekstrakcją informacji, generowaniem odpowiedzi, znasz potrzebne biblioteki masz doświadczenie w pracy z modelami ML, LLM, RAG, prompt engineeringiem oraz orkiestracją agentów AI masz doświadczenie w ocenie jakości modeli, monitoringu, testach i MLOps znasz technologie dostępne w środowiskach chmurowych potrafisz współpracować w środowisku wykorzystujących Agile/Scrum myślisz analitycznie i potrafisz być cierpliwy w rozwiązywaniu problemów potrafisz zaprezentować wyniki swoich analiz i propozycje rozwiązań przejmujesz inicjatywę w budowaniu nowych rozwiązań AI Mile widziane: tworzysz i optymalizujesz chatboty i agentów AI (np. opartych o LLM) O projekcie: Dołącz do zespołu mającego za zadanie wdrożenie zaawansowanych rozwiązań wspierających analizę danych finansowych i ESG. Buduj z nami najlepsze środowisko analityczne rozwijające raportowanie w Pionie Finansów. Jako Data Scientist w naszym zespole będziesz poszukiwał nowego podejścia do wyciągania wniosków, projektował rozwiązania E2E na potrzeby zaawansowanej analizy i monitoringu danych, projektował rozwiązania wykorzystujące zaawansowane możliwości środowiska chmurowego Google. Zakres obowiązków: projektujesz i wdrażasz produkcyjnie zaawansowane modele statystyczne oraz algorytmy z rodziny ML/LLM, aby analizować i wyciągać wnioski ze złożonych zbiorów danych – w szczególności szeregów czasowych i danych tekstowych z uwzględnieniem optymalizacji zasobów, czasu przetwarzania i uniwersalności podejścia projektujesz rozwiązania oparte o chatboty i agentów AI rekomendujesz sposoby weryfikacji jakości danych m.in. poprzez identyfikację trendów, definiowanie progów (thresholdów) i detekcję anomalii monitorujesz metryki jakości modeli działających w środowisku produkcyjnym i reagujesz na zmiany ich wartości migrujesz i rozwijasz procesy w chmurze (Google, Microsoft) oraz rekomendujesz zmiany w istniejących rozwiązaniach, by lepiej wykorzystać możliwości chmurowe dbasz o bieżące aktualizacje kodu w repozytorium GIT oraz dokumentacji technicznej dla procesów produkcyjnych zapewniasz testy jednostkowe, by zwiększyć kontrolę nad poprawnością działania kodu po wprowadzeniu zmian współpracujesz z zespołami IT i biznesowymi przy wdrażaniu rozwiązań analitycznych przedstawiasz wnioski i rekomendacje interesariuszom w sposób jasny i zwięzły, dbając o efektywną komunikację z biznesem ustalasz priorytety i zarządzasz zadaniami zgodnie z metodyką Agile/Scrum, zapewniając ich terminową realizację Oferujemy: Pracę w dojrzałym biznesowo i technologicznie ponad 1000-osobowym Pionie IT, w którym razem z nami będziesz tworzyć rozwiązania dla nowoczesnej bankowości Kompleksowy rozwój kompetencji w zakresie wytwarzania oprogramowania, bezpieczeństwa IT, metodyki DevOps poprzez udział w projektach m.in. dotyczących migracji naszych środowisk i aplikacji do chmury publicznej Dostęp do platform edukacyjnych m.in. Microsoft ESI, Udemy Business, eTutor oraz dofinansowanie niezbędnych szkoleń technicznych Współpracę we wzajemnie uczących się społecznościach programistycznych, analitycznych, testerskich, Women in Tech, w tym pracę z mentorami i uczenie się na stażu towarzyszącym Pakiet medyczny, ubezpieczenie na życie, platformę Mindgram, Pracowniczy Program Emerytalny i Program Profilaktyki Onkologicznej Karty sportowe (Medicover Sport i Multisport) i kafeterię benefitową na punkty Dodatkowe dni wolne Program Poleceń Pracowniczych ze świadczeniem pieniężnym Możliwość skorzystania z autorskich kosztów uzyskania przychodu (do 70%) za wkład twórczy w rozwój oprogramowania Atrakcyjne konkursy z nagrodami i rabaty do wybranych sklepów
Data Science Consultant (GenAI/AgenticAI)
Capgemini Polska
⚲ Gdańsk, Kraków, Poznań, Warszawa, Wrocław
Wymagania
- Python
- Databricks
- Snowflake
- GCP
- AWS
- Azure
- RAG
- LLMs
Nasze wymagania: Strong foundation in data science and applied machine learning. Hands‑on Python experience for analytics and ML. Practical exposure to GenAI tools (LLMs, RAG, prompt design, evaluation). Interest or experience in agentic AI and LLM orchestration frameworks. Familiarity with at least one cloud platform (GCP, AWS, Azure). Understanding of production fundamentals: versioning, testing, CI/CD. Experience with modern data platforms (Databricks or Snowflake). Confidence in client‑facing and consulting environments. Pragmatic, delivery‑focused mindset. High ownership, autonomy, and problem‑solving maturity. O projekcie: ABOUT INSIGHTS AND DATA: Imagine a role where your analytical mindset and creativity directly influence business decisions, shape future-ready products, and redefine how organizations use data. At Insights & Data, we operate at the intersection of data science and cuttingedge AI — from predictive modeling and advanced analytics to modern generative and agentic AI. YOUR ROLE: As Data Scientist Consultant, you’ll work in an innovation-driven, client facing environment where complex business challenges turn into meaningful AI solutions. Your work goes far beyond building models — you will translate business needs into practical, usable systems and deliver them end-to-end with speed, clarity, and measurable impact. If you’re looking for a place to create intelligent solutions with real value, explore emerging technologies, and thrive in a dynamic consulting setting, you’ll feel right at home here. Zakres obowiązków: Translate business challenges into analytical and AI-driven solutions. Design and deliver end-to-end data science and GenAI use cases. Build LLMbased applications (RAG, copilots, AI workflows). Prototype and implement agentic AI solutions. Develop models and pipelines in Python. Work with cloud AI stacks (GCP, AWS, Azure). Contribute to deployment, testing, and CI/CD processes. Participate in workshops and stakeholder alignment. Communicate insights and tradeoffs clearly. Oferujemy: Well-being culture: medical care with Medicover, private life insurance, and Multisport card. But we went one step further by creating our own Capgemini Helpline offering therapeutical support if needed and the educational podcast "Let's talk about wellbeing" which you can listen to on Spotify. Access to over 70 training tracks with certification opportunities (e.g., GenAI, Excel, Business Analysis, Project Management) on our NEXT platform. Dive into a world of knowledge with free access to Education First languages platform, Pluralsight, TED Talks, Coursera and Udemy Business materials and trainings. Continuous feedback and ongoing performance discussions thanks to our performance management tool GetSuccess supported by a transparent performance management policy. Enjoy hybrid working model that fits your life - after completing onboarding, connect work from a modern office with ergonomic work from home, thanks to home office package (including laptop, monitor, and chair). Ask your recruiter about the details.
Data Platform Developer
Deutsche Telekom IT Solutions Hungary
⚲ Budapest
14 155 - 23 955 PLN (PERMANENT)
Wymagania
- Lakehouse
- Data warehouse
- Data Lake
- SAFe
- Kanban
- Cloud
- Google Cloud
- Data engineering
- Azure
- AWS
O projekcie: Company Description As Hungary’s most attractive employer in 2025 (according to Randstad’s representative survey), Deutsche Telekom IT Solutions is a subsidiary of the Deutsche Telekom Group. The company provides a wide portfolio of IT and telecommunications services with more than 5300 employees. We have hundreds of large customers, corporations in Germany and in other European countries. DT-ITS recieved the Best in Educational Cooperation award from HIPA in 2019, acknowledged as the the Most Ethical Multinational Company in 2019. The company continuously develops its four sites in Budapest, Debrecen, Pécs and Szeged and is looking for skilled IT professionals to join its team. Job Description We are seeking an experienced Data Platform Developer to strengthen the clarity and consistency of our cloud-based Lakehouse platform architecture. Your primary mission is to define, evolve, and enforce platform-level architectural standards and contracts, so teams build solutions consistently and transparently - with a shared understanding of what belongs where, why it belongs there, and how it moves through the platform. A key focus is establishing clear semantics and promotion rules across our layered data architecture (from raw ingestion to curated, consumption-ready data). As part of the Common Data Intelligence Hub, you will collaborate with data architects, data engineers, analytics engineers, and solution designers to drive a target platform architecture and an architectural runway (platform enablers) that unlocks future use cases - without owning day-to-day development or operations. Additional Information - Solution Design knowledge is advantage. * Please be informed that our remote working possibility is only available within Hungary due to European taxation regulation. Wymagania: Qualifications - 3-5 years of experience in data platform architecture, including at least 2 years in cloud-based data architecture (Lakehouse/Data Warehouse/Data Lake). - Proven ability to define and enforce architecture standards that are adopted across teams (guardrails, review gates, exception handling). - Strong understanding of Lakehouse concepts including layering, governance, schema evolution, CDC implications, and operational quality attributes. - Experience collaborating with cross-functional stakeholders (engineering teams, governance/security, enterprise architecture, product/domain stakeholders). - Excellent communication skills in English (spoken and written), able to make complex architecture understandable and actionable. - Hands-on experience with Agile development methodologies (SAFe, TOGA, SCRUM, KANBAN, etc.). Skills - Cloud data ecosystem architecture, e.g. Azure (ADF, Databricks, Unity Catalog), AWS (Glue, EMR, Lake Formation), or Google Cloud (Dataflow, Dataproc, Dataplex) and comparable Lakehouse governance patterns. - Architecture standards & documentation as code (ADRs, templates, structured diagrams, versioned documentation). - Platform-level governance patterns (catalog, access controls, auditability, lineage concepts). - Data engineering architecture fundamentals (batch/streaming trade-offs, reliability patterns, observability requirements, schema evolution). - Defining layer semantics and platform contracts that reduce ambiguity and enable scale. - Translating target architecture into a practical roadmap (runway/enablers, sequencing, trade-offs). - Solution design facilitation and review (focus on platform conformance and long-term maintainability). - Systems thinking and strong conceptual clarity; ability to turn ambiguity into crisp rules and boundaries. - Influencing without authority; facilitation across multiple teams and domains. - Pragmatism: balances architectural idealism with delivery constraints and incremental progress. - Ability to work in cross-functional teams and support collaborative knowledge transfer. Codzienne zadania: - Define, document, and continuously refine layer semantics and promotion rules across Landing, Sources, Bronze, Silver, and Gold (what belongs where quality gates, required metadata, and readiness criteria, and ensure these rules are embedded in governance tooling such as Databricks Unity Catalog or Microsoft Fabric OneLake. - Establish and govern platform guardrails and contracts, including schema evolution, CDC principles at platform level, data/interface contracts between layers, and key non-functional requirements (reliability, performance, security, cost). - Own and evolve the platform reference architecture, including capability/service boundaries, responsibilities, standard integration patterns, and architectural standards. - Drive the target platform architecture and an incremental roadmap towards it, maintaining a prioritized architectural runway of platform enablers and technical debt initiatives. - Support and review solution designs for new use cases, ensuring alignment with platform standards, governance requirements, and the layered architecture. - Establish an architecture documentation practice that remains current and usable (templates, ADRs, review checklists, clear artifact ownership, and regular drift checks). - Ensure consistent representation of the platform within enterprise architecture tooling and processes (e.g., LeanIX), and act as the interface to enterprise architecture stakeholders. - Partner with Data Architects and domain teams to ensure platform rules enable high-quality modelling and cross-domain consistency - while keeping ownership of business semantics/canonical models with the Data Developer role.
Data Modeler (k/m/os)
DOZ S.A.
⚲ Łódź
Wymagania
- SQL
- Power BI
- DAX
- Power Query
- MS SQL Server
- SSIS
- SSAS
- SSRS
- Databricks
- Azure
- AWS
- GCP
- Power Apps
- Power Automate
Nasze wymagania: Wykształcenie wyższe Doświadczenie na podobnym stanowisku i w pracy z dużymi bazami danych, Bardzo dobra znajomość SQL oraz doświadczenie w pracy z bazami danych, Znajomość narzędzi do modelowania danych i narzędzi Business Intelligence (Power BI) oraz języka DAX i Power Query, Umiejętność analizy procesów biznesowych i pracy z wymaganiami, Umiejętność tworzenia kompleksowych raportów i analiz, Wysokich zdolności analitycznych i umiejętności logicznego myślenia oraz formułowania wniosków, Dokładności, samodzielności, odpowiedzialności i dobrej organizacji pracy Mile widziane: Praktyczna znajomość MS SQL Server (SSIS, SSAS, SSRS) oraz platformy Databricks Doświadczenie w projektach Big Data lub chmurowych (Azure, AWS, GCP) Wiedza z zakresu Data Governance i Data Quality Znajomość komponentów Power Platform (Power Apps, Power Automate) Zakres obowiązków: Opracowywanie i utrzymywanie zintegrowanych, zorientowanych tematycznie modeli danych, odzwierciedlających różne rodzaje danych biznesowych, operacyjnych i informatycznych wykorzystywanych do obsługi procesów firmy oraz raportowania, Projektowanie raportów w środowisku Power BI oraz dostosowywanie ich do potrzeb odbiorców biznesowych, Formułowanie wniosków i rekomendacji na podstawie analizowanych danych, Analiza wymagań biznesowych oraz przekładanie ich na struktury danych, Współpraca z zespołami Data Engineering, BI, Analytics oraz IT przy wdrażaniu rozwiązań do modelowania danych w celu usprawnienia i wsparcia zarządzania informacjami w przedsiębiorstwie Oferujemy: 👩💻 ambitną pracę, w której nie sposób się nudzić 🔏możliwość dołączenia do dobrego ubezpieczenia grupowego na preferencyjnych warunkach, które zapewni poczucie bezpieczeństwa Tobie i Twoim bliskim 🩺prywatną opiekę medyczną dzięki, której będziesz miał możliwość skonsultowania się ze specjalistami na trenie całego kraju 💉akcje profilaktyczne dzięki którym chcemy zadbać o Twoje zdrowie! ☕pyszną kawę w miłym towarzystwie współpracowników 📉zniżki oraz karty rabatowe na wybrane produkty 💪karty sportowe dzięki którym zadbasz o swoje dobre samopoczucie 👼udział w akcjach CSR, bo lubimy pomagać 🤝regularny feedback, który pomoże rozwijać Twoje kompetencje Udział w akcjach CSR (np. akcje charytatywne)
Data Governance Specialist
Mindbox Sp. z o.o.
⚲ Warszawa
24 000–27 000 zł netto (+ VAT) / mies.
Wymagania
- SQL
- Microsoft Power BI
Nasze wymagania: Experience: 4–5 years in data quality, data governance, data management, or data migration. Education: Bachelor’s in Computer Science, Data Science, Information Systems, Business, or related. Working with data: proficiency in SQL, spreadsheets, and reporting/BI; bonus points for hands-on with metadata repositories, MDM, and data quality solutions. Business & leadership: strong business understanding, initiative ownership, excellent communication, and project management. Regulatory awareness: good grasp of data protection and compliance requirements. Collaboration: relationship building, influencing cross-functional teams, driving consensus. Ways of working: familiarity with Agile and change management. Languages: fluent English (written and spoken). Mile widziane: Knowledge of recognized frameworks/standards (e.g., DMBOK, relevant certifications). Experience with common platforms for data cataloging, MDM, and data quality. Facilitation skills for workshops and broad stakeholder communications. Zakres obowiązków: Co-create and enforce data governance: rules, roles, standards, and metrics. Own data quality and semantics: business glossary, metadata repository, and data lineage. Bridge business and IT: gather needs, set priorities, translate them into an actionable plan. Support master data, data lake/warehouse initiatives, plus UAT and change documentation. Promote a data-driven culture: communication, materials, training, and best- practice adoption. Note: Detailed project information will be shared during the recruitment process. Oferujemy: We are open to the employment form according to your preferences Work with experienced and engaged team, willing to learn, share knowledge and open for growth and new ideas Hybrid or remote working system Mindbox is a dynamically growing IT company, but still not a large one – everybody can have a real impact on where we are going next We invest in developing skills and abilities of our employees We have attractive benefits and provide all the tools required for work f.e. computer Interpolska Health Care, Multisport, Warta Insurance, training platform (Sages)
Data Engineer (AWS/GCP/Azure) - Remote
Link Group
⚲ Remote
18 000 - 23 000 PLN (B2B)
Wymagania
- Data engineering
- Cloud platform
- Python
- SQL
- Java
- Scala
- Big data
- IaC
- Data warehouses
- Snowflake
- BigQuery
- Docker
- Kubernetes
- Kafka Streams (nice to have)
- Kinesis (nice to have)
- Redshift (nice to have)
- Machine Learning (nice to have)
- GDPR (nice to have)
- CCPA (nice to have)
- Degree (nice to have)
O projekcie: At Link Group, we specialize in building tech teams for Fortune 500 companies and some of the world's most exciting startups. Our mission is to connect talented professionals with opportunities that align with their skills, interests, and career aspirations. We are currently looking for a Data Engineer with expertise in cloud platforms such as AWS, GCP, or Azure to join our team and work on innovative data solutions for global clients. About the Project The project involves designing and implementing robust data pipelines and infrastructure on the cloud to enable real-time analytics and business insights for the finance/stock exchange industry. You will play a key role in developing scalable, secure, and high-performance data solutions. Tech Stack - Cloud Platforms: AWS, GCP, Azure - Big Data Tools: Hadoop, Spark, Kafka - Data Warehouses: Snowflake, BigQuery, Redshift - Programming Languages: Python, SQL, Java/Scala - Infrastructure as Code: Terraform, CloudFormation - CI/CD: Jenkins, Git, Docker, Kubernetes What We Offer - Tailored opportunities to match your professional interests and goals - A dynamic and collaborative work environment - Access to diverse and innovative projects for global clients - Competitive compensation aligned with your expertise - Continuous learning and career growth opportunities If you're passionate about driving Agile excellence and transforming teams, we’d love to hear from you! Apply today and join us at Link Group! Wymagania: Must-Have Qualifications - At least 3+ years of experience in data engineering. - Strong expertise in one or more cloud platforms: AWS, GCP, or Azure. - Proficiency in programming languages like Python, SQL, or Java/Scala. - Hands-on experience with big data tools such as Hadoop, Spark, or Kafka. - Experience with data warehouses like Snowflake, BigQuery, or Redshift. - Familiarity with Infrastructure as Code tools like Terraform or CloudFormation. - Knowledge of CI/CD pipelines and containerization tools like Docker and Kubernetes. - Strong problem-solving and debugging skills. - Good command of English. Nice to Have - Experience with real-time streaming data solutions (e.g., Kafka Streams, Kinesis). - Knowledge of machine learning pipelines and data science workflows. - Familiarity with data governance and compliance frameworks (e.g., GDPR, CCPA). - Certification in AWS, GCP, or Azure. - Academic background in Computer Science, Data Engineering, or a related field. Codzienne zadania: - Design, build, and maintain scalable data pipelines and cloud-based infrastructure. - Collaborate with data scientists, analysts, and stakeholders to understand data requirements. - Optimize data workflows for performance, scalability, and cost-efficiency. - Implement ETL/ELT processes to clean, transform, and store data. - Ensure data security, compliance, and best practices across cloud environments. - Monitor and troubleshoot data pipelines and resolve issues efficiently.
Data Engineer ( Spark / Streaming / Java)
KMD Poland
⚲ Warsaw
26 880 - 33 600 PLN (B2B)
Wymagania
- Kafka
- CD
- Big Data
- Microsoft Azure
- Domain-driven design
- Microservices
- Databricks
- Apache Spark
- Apache Kafka
- Data engineering
- Git
- Data pipelines
- SQL
- Spark
- Azure Databricks (nice to have)
- Java (nice to have)
- MS SQL Server (nice to have)
- NoSQL (nice to have)
- Elasticsearch (nice to have)
- Redis (nice to have)
- Docker (nice to have)
- DevOps (nice to have)
- CI/CD Pipelines (nice to have)
- ArgoCD (nice to have)
- Helm (nice to have)
- Kubernetes (nice to have)
O projekcie: #Data Engineer #Apache Spark #Databricks #Java #Apache Kafka #Batch Processing #Structured Streaming #Azure #SQL #Microservices #CI/CD #Docker #DDD Are you ready to join our international team as a Data Engineer? We shall tell you why you should... What product do we develop? We are building an innovative solution, KMD Elements, on Microsoft Azure cloud dedicated to the energy distribution market (electrical energy, gas, water, utility, and similar types of business). Our customers include institutions and companies operating in the energy market as transmission service operators, market regulators, distribution service operators, energy trading, and retail companies. KMD Elements delivers components allowing implementation of the full lifecycle of a customer on the energy market: meter data processing, connection to the network, physical network management, change of operator, full billing process support, payment, and debt management, customer communication, and finishing on customer account termination and network disconnection. The key market advantage of KMD Elements is its ability to support highly flexible, complex billing models as well as scalability to support large volumes of data. Our solution enables energy companies to promote efficient energy generation and usage patterns, supporting sustainable and green energy generation and consumption. We work with always up-to-date versions of: - Apache Spark on Azure Databricks - Apache Kafka - Delta Lake - Java - MS SQL Server and NoSQL storages like Elastic Search, Redis, Azure Data Explorer - Docker containers - Azure DevOps and fully automated CI/CD pipelines with Databricks Asset Bundles, ArgoCD, GitOps, Helm charts - Automated tests How do we work? #Agile #Scrum #Teamwork #CleanCode #CodeReview #Feedback #BestPracticies - We follow Scrum principles in our work – we work in biweekly iterations and produce production-ready functionalities at the end of each iteration – every 3 iterations we plan the next product release - We have end-to-end responsibility for the features we develop – from business requirements, through design and implementation up to running features on production - More than 75% of our work is spent on new product features - Our teams are cross-functional (7-8 persons) – they develop, test and maintain features they have built - Teams’ own domains in the solution and the corresponding system components - We value feedback and continuously seek improvements - We value software best practices and craftsmanship Product principles: - Domain model created using domain-driven design principles - Distributed event-driven architecture / microservices - Large-scale system for large volumes of data (>100TB data), processed by Apache Spark streaming and batch jobs powered by Databricks platform Our offer: - Contract type: B2B - Work Mode: Flexible — this role supports on-site, hybrid, and remote arrangements, depending on your individual preferences. - Occasional on-site presence may be required — for example, onboard new team members, explore new business domains, or refine requirements in close collaboration with stakeholders or team building activities. What does the recruitment process look like? - Phone conversation with Recruitment Partner - Technical interview with the Hiring Team - Cognitive test - Offer Wymagania: Personal requirements: - Have 4+ years of Apache Spark experience and have faced various data engineering challenges in batch or streaming - Have an interest in stream processing with Apache Spark Structured Streaming on top of Apache Kafka - Have experience leading technical solution designs - Have experience with distributed systems on a cloud platform - Have experience with large-scale systems in a microservice architecture - Are familiar with Git and CI/CD practices and can design or implement the deployment process for your data pipelines - Possess a proactive approach and can-do attitude - Are excellent in English and Polish, both written and spoken - Have a higher education in computer science or a related field - Are a team player with strong communication skills Nice to have requirements: - Apache Spark Structured Streaming - Azure - Domain Driven Development - Docker containers and Kubernetes - Message brokers (i.e. Kafka) and event-driven architecture - Agile/Scrum Codzienne zadania: - Develop and maintain the leading IT solution for the energy market using Apache Spark, Databricks, Delta Lake, and Apache Kafka - Have end-to-end responsibility for the full lifecycle of features you develop - Design technical solutions for business requirements from the product roadmap - Maintain alignment with architectural principles defined on the project and organizational level - Ensure optimal performance through continuous monitoring and code optimization. - Refactor existing code and enhance system architecture to improve maintainability and scalability. - Design and evolve the test automation strategy, including technology stack and solution architecture. - Prepare reviews, participate in retrospectives, estimate user stories, and refine features ensuring their readiness for development.
Data Engineer
Fun Crafters
⚲ Kraków, Prądnik Czerwony
15 000–20 000 zł / mies. (zal. od umowy)
Wymagania
- Python
- Scala
- Google Cloud Platform
- AWS
- Microsoft Azure
- Airflow
- Kafka
Nasze wymagania: 2+ years of experience in Data Engineering with a track record of building scalable data platforms and pipelines. Strong proficiency in Python; experience with Scala is a plus. Solid understanding of data modeling, warehousing, and analytics best practices — schema design, partitioning, versioning. Experience with cloud platforms (GCP, AWS, or Azure) and modern data stack tools. Hands-on experience with ETL/ELT orchestration (Airflow or similar). Ability to develop and maintain systems from early-stage MVP to high-volume production. High collaboration and communication skills Passion for games. Mile widziane: Expertise in event streaming technologies (Kafka or similar) and real-time data processing. Experience in gaming, mobile products, or other high-event-volume environments. Knowledge of BI tools and analytics workflows. Familiarity with observability practices (logging, metrics, tracing) and data quality frameworks. O projekcie: Do you like games? Are you ready to build the data platform that powers unforgettable gaming experiences? Can you build and maintain a scalable data pipeline for a mobile game? If the answer to these questions is yes, we have a job for you. We're looking for a Data Engineer with a passion for technology, and a sharp technical mind. If you thrive in a fast-paced environment and know how to use your skills to deliver great data solutions - let’s talk! Location: Remote / Hybrid (Krakow, Poland) We're looking for a passionate Data Engineer to build our analytics and data infrastructure from the ground up. You'll work on the core data platform that powers gameplay insights and LiveOps decisions. Zakres obowiązków: Build our analytics platform powering gameplay insights, LiveOps, and telemetry. Develop and maintain high-quality data pipelines (batch and real-time) that transform raw gameplay data into clean, structured datasets to be used by analytics, marketing, tech, and AI teams. Track and maintain data quality standards and build automated monitoring, alerting, and validation systems. Oferujemy: An epic journey in the mobile RPG gaming industry. Flexible contract options: employment or B2B. Remote, in-office, or hybrid work. Opportunities for professional growth with a training budget. A fantastic team and many company events. Competitive benefits package. A modern office with all the essentials.
Data Engineer
Cyclad
⚲ Warszawa
100–120 zł netto (+ VAT) / godz.
Wymagania
- SQL
- Snowflake
- Python
- Tableau
- Microsoft Power BI
Nasze wymagania: Minimum 5+ years of experience in building and maintaining data processing solutions Strong foundation in SQL Familiarity with Snowflake or other database systems Understanding of ETL tools and version control systems (GitLab CI/CD) Basic Python skills for data processing tasks Demonstrates analytical thinking, adaptability, and effective collaboration within teams Fluent in English and Polish (minimum B2) Mile widziane: Knowledge of reporting tools such as Tableau or Power BI O projekcie: In Cyclad we work with top international IT companies in order to boost their potential in delivering outstanding, cutting-edge technologies that shape the world of the future. We are seeking for an experienced Data Engineer to join a hybrid, development team in Warsaw. The role requires strong technical expertise in data processing and cloud-based solutions, as well as direct collaboration with client stakeholders. Type of project: IT services Office location: Warszawa, Poland Work mode: Hybrid, 2 days in the office Budget: 100–120 PLN net/h – b2b Project length: Long-term Only candidates with citizenship in the European Union and residence in Poland Start date: ASAP (depending on candidate’s availability) Zakres obowiązków: Build and maintain data solutions tailored to clients’ analytical and business needs Work on data systems using high-level programming languages including SQL and Python Apply modern, cloud-based data technologies and engineering methodologies following best practices and international standards Join an international, cross-functional team, enhancing both technical expertise and communication skills Work with technologies such as Snowflake, Python, Tableau, or GitLab CI/CD Collaborate directly with the client to deliver assigned tasks Contribute to project documentation and knowledge transfer Oferujemy: Opportunity to work on modern cloud-based data engineering projects Professional development in data engineering and analytics Hybrid working model Full-time job agreement based on b2b Private medical care with dental care (covering 70% of costs) Multisport card (also for an accompanying person) Life insurance
Data Engineer
Mindbox Sp. z o.o.
⚲ Kraków
22 000–26 000 zł netto (+ VAT) / mies.
Wymagania
- SQL
- Apache Airflow
- Python
- Java
- Scala
- AWS
- Microsoft Azure
- Google Cloud Platform
Nasze wymagania: Bachelor’s degree in Computer Science, Engineering, or related field Proven experience as a Data Engineer or similar role Strong knowledge of data processing technologies and database systems (SQL, NoSQL) Experience with data pipeline and workflow management tools (e.g., Apache Airflow, ETL) Proficiency in programming languages (Python, Java, or Scala) Familiarity with cloud services (AWS, GCP, Azure) Strong problem-solving skills and attention to detail Excellent communication and teamwork abilities O projekcie: At Mindbox we connect top IT talents with technology projects for leading enterprises across Europe. We create an inspiring place for talented individuals to thrive. We leverage expertise and courage to introduce future-ready technology into businesses. Zakres obowiązków: Design, implement, and maintain scalable data infrastructure Optimize data pipelines and ensure data integrity across platforms Collaborate with cross-functional teams to drive data-driven decisions Contribute to the development of advanced analytics tools If you enjoy creating impactful solutions and working in a collaborative environment, this role is for you! Note: Detailed project information will be shared during the recruitment process. Oferujemy: Flexible cooperation model – choose the form that suits you best (B2B, employment contract, etc.) Hybrid work setup – remote days available depending on the client’s arrangements Collaborative team culture – work alongside experienced professionals eager to share knowledge Continuous development – access to training platforms and growth opportunities Comprehensive benefits – including Interpolska Health Care, Multisport card, Warta Insurance, and more High quality equipment – laptop and essential software provided
Data Analyst - Remote
Link Group
⚲ Remote
14 000 - 17 000 PLN (B2B)
Wymagania
- SQL
- Tableau
- Power BI
- Python
- R
- Data modelling
- ETL (nice to have)
- Alteryx (nice to have)
- Talend (nice to have)
- AWS (nice to have)
- GCP (nice to have)
- Azure (nice to have)
- Machine learning (nice to have)
O projekcie: At Link Group, we specialize in building tech teams for Fortune 500 companies and some of the world's most exciting startups. Our mission is to connect talented professionals with opportunities that align with their skills, interests, and career aspirations. We are currently looking for a Data Analyst to join our team and help transform raw data into actionable insights for global clients. About the Project The project focuses on analyzing complex datasets from the finance/stock exchange industry to provide insights that drive strategic decision-making. You will work closely with business stakeholders to deliver impactful data visualizations and reports. Tech Stack - Data Analysis Tools: Python, R, SQL - Data Visualization: Tableau, Power BI, Matplotlib, Seaborn - Databases: SQL/NoSQL (MySQL, PostgreSQL, MongoDB) - ETL Tools: Alteryx, Talend - Cloud Platforms: AWS, GCP, Azure What We Offer - Tailored opportunities to match your professional interests and goals. - A dynamic and collaborative work environment. - Access to exciting and diverse projects for global clients. - Competitive compensation aligned with your expectations. - Ongoing opportunities for professional growth and development. If you're ready to take on new challenges and work on groundbreaking projects in the IT industry, we'd love to hear from you! Apply today and join us at Link Group to make an impact! Wymagania: Must-Have Qualifications - At least 3+ years of experience in data analysis or a related field. - Strong proficiency in SQL for querying and managing data. - Experience with data visualization tools like Tableau or Power BI. - Proficiency in Python or R for data analysis. - Excellent analytical and problem-solving skills. - Strong understanding of statistical methods and data modeling. - Fluent English communication skills. Nice to Have - Familiarity with ETL processes and tools like Alteryx or Talend. - Experience with cloud platforms such as AWS, GCP, or Azure. - Knowledge of machine learning concepts and tools. - Background in finance or experience working with financial datasets. - Academic degree in Statistics, Data Science, or a related field. Codzienne zadania: - Analyze and interpret complex datasets to provide actionable insights. - Design and maintain dashboards and reports using visualization tools. - Collaborate with stakeholders to define data requirements and metrics. - Perform data cleaning, preprocessing, and validation for accuracy. - Support decision-making by identifying trends, patterns, and outliers in data. - Document processes, methodologies, and findings clearly and concisely.
Data Analyst - Expert
ING Bank Śląski S.A.
⚲ Katowice
Wymagania
- SQL
- Python
- SAS
Nasze wymagania: masz doświadczenie w analizie danych (min.5 lat) umiejętnie odpytujesz bazy danych dzięki zoptymalizowanym zapytaniom SQL (m.in. funkcje okienkowe) posiadasz doświadczenie w modelowaniu dużych zbiorów danych umiejętne wykorzystujesz SQL/SAS 4GL lub Python w analizie dużych zbiorów danych (m.in: pobieranie danych z bazy, agregacja i transformacje danych, optymalizacja kodu dzięki wzorcom projektowym, budowa klas i bibliotek, działania na plikach, łączenie z zewnętrznym API) projektujesz wizualizuje danych z wykorzystaniem narzędzi BI bierzesz odpowiedzialność za swoje produkty, wychodzisz z inicjatywą i prowadzisz efektywne działania, by osiągnąć zamieszony cel posiadasz wysoko rozwinięte umiejętności komunikacyjne w zakresie logicznego argumentowania i krytycznego myślenia O projekcie: Buduj z nami najlepsze środowisko wspierające raportowanie w Pionie Finansów. Jako ekspert_ka data analyst będziesz odpowiadać w naszym zespole za przekrojowe analizy danych, projektowanie oraz algorytmizację procesów w zakresie danych finansowych i zarządczych. Twoje zadania będą polegały na budowie rozwiązań E2E (od budowy data setu po wizualizację w postaci raportu) oraz współpracy z biznesem, developerami oraz data scientistami w ramach automatyzacji AI. Zakres obowiązków: współpracujesz z interesariuszami i zbierasz wymagania biznesowe tworzysz algorytmy pozwalające efektywnie raportować dane i odpowiadasz za budowę POC modelujesz i wizualizujesz dane na potrzeby analiz biznesowych odpowiadasz za raportowanie danych finansowych oraz zarządczych budujesz standard kontrolny pozwalający monitorować jakość danych (m.in. progi akceptacji, statystyki, prognozy, trendy) opracowujesz i przedstawiasz rekomendacje zmian/usprawnień w zakresie modelu danych przeprowadzasz testy akceptacyjne w ramach rozwoju środowiska produkcyjnego (data martów) przygotowujesz oceny wpływu zmian na istniejący model danych wspierasz linie biznesowe i analityków finansowych w zakresie algorytmizowanych i raportowanych danych wspierasz rozwój rozwiązań AI automatyzujących analizę danych finansowych przygotowujesz dokumentacje wspierającą zarządzanie Oferujemy: Inwestujemy w rozwój - proponujemy dofinansowanie szkoleń i kursów oraz dostęp do platform edukacyjnych: Udemy Business, eTutor, wewnętrznej platformy elearningowej. Oferujemy także staże rozwojowe czy konsultacje z doradcami kariery Dbamy o zdrowie i bezpieczeństwo - oferujemy pakiet medyczny i ubezpieczenie na życie dla Ciebie i Twoich bliskich, dostęp do platformy Mindgram z indywidualnymi konsultacjami ze specjalistami i webinariami. Pracując w ING masz możliwość dołączenia do Pracowniczego Programu Emerytalnego i Programu Profilaktyki Onkologicznej Work life balance w praktyce to dodatkowe dni wolne: „dzień dla rodziny” (od Ciebie zależy jak go wykorzystasz), wolne dni w formie nagrody i wolne godziny na wolontariat czy profilaktykę zdrowotną Dla rodziców mamy dodatkowe dni urlopu macierzyńskiego i ojcowskiego oraz dni wolne na opiekę nad dzieckiem, niezależenie od wykorzystanego limitu przez drugiego rodzica Dołączając do nas decydujesz się na pracę w stabilnej i zorientowanej na komfortowe warunki pracy organizacji z certyfikatem Top Employer. Przyszłość to nasza wspólna inwestycja - razem z ING możesz zaangażować się w każdą inicjatywę wspierającą ESG i odpowiedzialność społeczną Decydujesz na jakim sprzęcie pracujesz. Każdemu pracownikowi zapewniamy niezbędny sprzęt do pracy, ale jeśli chcesz pracować na wybranej przez siebie marce laptopa czy smartfona, który jednocześnie wykorzystasz do swoich celów prywatnych, to dajemy taką możliwość. Oferujemy program refundacji i zniżek na wybrane zakupy Świętujemy wspólnie i poznajemy się na zespołowych wyjazdach, imprezach rodzinnych i sportowych, jak Dzień Dziecka, Biegnij Warszawo czy Turnieje sportowe Pełne zieleni przestrzenie biurowe przeznaczone do pracy i spotkań oraz miejsca relaksu - wszystko do Twojej dyspozycji
DC & Procurement Specialist
RTB House
⚲ Warszawa
110–160 zł netto (+ VAT) / godz.
Nasze wymagania: 4–7 years of experience in an infrastructure-heavy environment. Proven track record in at least two of the following: Data Center operations, IT infrastructure procurement, Technical Project Management. Experience in coordinating global hardware deliveries and maintaining accurate asset registries (MOP/SOP/Runbooks). You possess a broad understanding of the IT lifecycle with deep expertise in operational delivery. Background we value: Former Infrastructure Project Managers with procurement experience, Technical Procurement Managers, ex-Systems/Network Engineers moving into management, or Presales Engineers from IT integrators. O projekcie: We are looking for a Data Center Operations & Procurement Specialist to take full operational ownership of our global Data Center footprint. This is not a role for a "ticket coordinator"—we need a driver who can bridge the gap between technical requirements, vendor management, and project execution. Working under the guidance of our Head of Infrastructure, you will ensure our DCs run like clockwork. You will be the glue connecting our Network and Server teams with external providers, managing everything from global hardware logistics and procurement to infrastructure project lifecycles and SLA monitoring. Zakres obowiązków: Operational Ownership: You don’t just watch processes; you own the outcome. You are responsible for the end-to-end delivery of hardware and the stability of our DC relationships. Infrastructure Project Management: Ability to lead projects involving new hardware tranches, capacity expansions, and site migrations, including creating schedules, installation plans, and maintenance windows. Vendor & Telco Management: Experience in negotiating with carriers and DC providers, monitoring SLAs, handling escalations, and managing contract renewals. Technical Literacy (Infrastructure): While you won't be configuring routers, you must understand rack density, power planning, cross-connects, and the dependencies between Network, Server, and DC environments. Process & Financial Acumen: Ability to connect technical requirements with business reality, including managing CAPEX/OPEX budgets, TCO analysis, and integrating workflows with Finance and Legal. Oferujemy: Competitive Compensation: We offer an attractive salary package with significant growth opportunities. Cutting-edge Technology: Engage with the latest technologies on large-scale, dynamic projects. Wellbeing: extremely flexible working conditions - you provide service when it is convenient for you and devote as much time as you can; you can work fully remotely. Purpose-Driven Work: High-impact position that offers a massive breadth of responsibility. You will have a real influence on how our global infrastructure scales, working in a role that combines technology, negotiations, and strategic planning.
Big Data Engineer (Scala, Spark) - Remote
Link Group
⚲ Remote
21 000 - 25 000 PLN (B2B)
Wymagania
- Big data
- Scala
- Spark
- Hadoop
- Kafka
- SQL
- NoSQL
- Git
- ETL
- Cloud platform (nice to have)
- AWS (nice to have)
- Azure (nice to have)
- GCP (nice to have)
- Docker (nice to have)
- Kubernetes (nice to have)
- CI/CD Pipelines (nice to have)
O projekcie: At Link Group, we specialize in building tech teams for Fortune 500 companies and some of the world's most exciting startups. Our mission is to connect talented professionals with opportunities that align with their skills, interests, and career aspirations. We are currently looking for a Big Data Engineer with expertise in Scala and Spark to join our team and contribute to innovative, large-scale data processing projects. About the Project The project focuses on building a high-performance data platform for the finance/stock exchange industry, processing massive datasets to enable real-time analytics, reporting, and decision-making. You will work with modern big data tools and frameworks to ensure scalability and efficiency. Tech Stack - Scala - Apache Spark - Hadoop ecosystem (HDFS, Hive, HBase) - Kafka - SQL/NoSQL databases - Cloud platforms (AWS, Azure, GCP) - Docker, Kubernetes - Agile development methodologies What We Offer - Tailored opportunities to match your professional interests and goals. - A leadership role in a dynamic and collaborative work environment. - Access to exciting and diverse projects for global clients. - Competitive compensation aligned with your expertise. - Ongoing opportunities for professional growth and development. Apply today and join us at Link Group to make an impact! Wymagania: Must-Have Qualifications - At least 3+ years of experience in big data engineering. - Proficiency in Scala and experience with Apache Spark. - Strong understanding of distributed data processing and frameworks like Hadoop. - Experience with message brokers like Kafka. - Hands-on experience with SQL/NoSQL databases. - Familiarity with version control tools like Git. - Solid understanding of data architecture and ETL processes. - Good command of English. Nice to Have - Experience with cloud platforms such as AWS, Azure, or GCP. - Knowledge of containerization tools like Docker and orchestration with Kubernetes. - Familiarity with CI/CD pipelines for big data workflows. - Experience in optimizing Spark jobs for large-scale data processing. - Academic background in Computer Science, Data Engineering, or a related field. Codzienne zadania: - Design, implement, and optimize big data processing pipelines using Scala and Spark. - Work with massive datasets, ensuring scalability and performance. - Collaborate with data scientists and analysts to develop data solutions. - Monitor and troubleshoot data workflows to ensure reliability and efficiency. - Integrate with data sources and ensure proper data ingestion and transformation. - Research emerging big data technologies to improve the architecture.
BI Developer - Remote
Link Group
⚲ Remote
17 500 - 20 500 PLN (B2B)
Wymagania
- BI
- SQL
- Power BI
- Tableau
- Data warehouses
- ETL
- SSIS
- Apache Airflow
- Python (nice to have)
- R (nice to have)
- Data analysis (nice to have)
- Spark (nice to have)
- Hadoop (nice to have)
- AWS QuickSight (nice to have)
- Looker (nice to have)
- Machine learning (nice to have)
O projekcie: At Link Group, we specialize in building tech teams for Fortune 500 companies and some of the world's most exciting startups. Our mission is to connect talented professionals with opportunities that align with their skills, interests, and career aspirations. We are currently looking for a BI Developer to join our team and work on data-driven solutions for global clients. About the Project The project involves designing and developing Business Intelligence (BI) solutions to help organizations analyze and visualize key business data. You will work with large datasets, reporting tools, and cloud platforms to deliver valuable insights for finance/stock exchange industry projects. What We Offer - Tailored opportunities to match your professional interests and goals. - A dynamic and collaborative work environment. - Access to exciting and diverse projects for global clients. - Competitive compensation aligned with your expectations. - Ongoing opportunities for professional growth and development. If you're ready to take on new challenges and work on groundbreaking projects in the IT industry, we'd love to hear from you! Apply today and join us at Link Group to make an impact! Wymagania: Must-Have Qualifications - At least 3+ years of experience as a BI Developer. - Strong knowledge of SQL for data querying and manipulation. - Hands-on experience with Power BI, Tableau, or other BI tools. - Experience with data warehousing and working with large datasets. - Knowledge of ETL processes and tools such as SSIS, or Apache Airflow. - Strong analytical and problem-solving skills. - Good command of English. Nice to Have - Experience with Python or R for data analysis and automation. - Familiarity with big data technologies such as Spark or Hadoop. - Knowledge of cloud-based BI solutions (AWS QuickSight, Google Looker). - Understanding of machine learning and predictive analytics. - Certification in BI tools or cloud platforms. Codzienne zadania: - Design, develop, and maintain BI dashboards and reports. - Extract, transform, and load (ETL) data from multiple sources into BI platforms. - Optimize database queries and ensure data accuracy and integrity. - Work closely with stakeholders to gather requirements and develop data models. - Implement data visualization best practices for clear and actionable insights. - Troubleshoot and resolve data-related issues in BI environments.
Azure Data Engineer
Nordcloud sp zoo
⚲ Poznań
Wymagania
- Azure
- Terraform
- Docker
- Kubernetes
- Azure DevOps
- Python
Nasze wymagania: 3+ years of professional programming experience and hands-on experience in building modern data platforms/pipelines At least one programming language: Python / Scala / Java Experience in job orchestration (Airflow, Composer, etc) Experience in Azure Experience in Data Engineering related technology stack (Azure Synapse, ADF etc.) Databricks are a must Spark (Scala or pySpark) Familiarity with Big Data file formats Commercial and open-source databases Infrastructure as a Code: Bicep or Terraform Consultancy experience Previous experience gained in mid-size/large, international companies Fluent communcation skills in English Mile widziane: Snowflake Hadoop, HDFS, Hive/Impala, Pig Experience in SQL Data modeling (Kimball, Inmon, Data Vault etc.) Advanced SQL in any SQL dialect Experience building ETL processes for data warehousing solutions Knowledge of more than one cloud MongoDB or Cassandra Familiarity with data lake architectures Active certificates O projekcie: Join Nordcloud and be part of the European cloud revolution. We supercharge our customers to innovate in hyperscaler cloud, enabling seamless migration, advanced security, and data-driven success. Currently, we are looking for an Azure Data Engineer to join our team in Poland. Zakres obowiązków: designing, architecting, and implementing modern, secure, cloud-native data platforms on Azure building the underlying infrastructure that makes data accessible for a new wave of data-powered apps and GenAI services Oferujemy: An individual training budget, coverage of certain hyperscaler certification exam fees and bonuses upon successful certification Flexible working hours and remote working model Company laptop and needed equipment Local package such as private health care, life insurance, MyBenefit cafeteria system Workcation possibilities within selected locations
Architekt Hurtowni Danych (k/m)
Scanmed S.A.
⚲ Katowice, Kraków, Stare Miasto
Wymagania
- SQL
- Oracle
Nasze wymagania: Doświadczenie w projektowaniu i rozwoju hurtowni danych lub platform analitycznych, Praktyczna znajomość modelowania danych (model gwiazdy, śnieżynki, Data Vault), Znajomość procesów integracji danych (ETL / ELT), Znajomość technologii Apache Nifi, Umiejętność projektowania architektury przepływu danych od systemów źródłowych do warstwy raportowej, Praktyczna znajomość relacyjnych baz danych (np. Oracle, Microsoft SQL Server, PostgreSQL), Znajomość narzędzi integracyjnych i/lub platform ETL (np. SSIS, Informatica, Talend, dbt, Airflow), Doświadczenie we współpracy z zespołami BI oraz tworzeniu warstw pod raportowanie, Umiejętność analizy wymagań biznesowych i przekładania ich na modele danych, Znajomość zagadnień jakości danych, wersjonowania schematów i zarządzania metadanymi, Podstawowa znajomość zagadnień bezpieczeństwa danych (uprawnienia, maskowanie, audyt), Znajomość narzędzi monitoringu, raportowania oraz podstaw ITSM. Mile widziane: Doświadczenie z platformami big data (w szczególności Cloudera), Doświadczenie w pracy ze środowiskami produkcyjnymi o wysokiej krytyczności danych, Znajomość architektur on-premise oraz rozwiązań hybrydowych, Doświadczenie w projektowaniu architektury danych w środowiskach regulowanych (np. finanse, medycyna), Znajomość narzędzi BI (Power BI, Tableau, Qlik), Świadomość zagadnień wydajności przetwarzania danych i optymalizacji zapytań, Znajomość dobrych praktyk ITIL / SRE, Wcześniejsze doświadczenie techniczne (data engineer, BI developer, administrator baz danych). Zakres obowiązków: Projektowanie i rozwój architektury hurtowni danych oraz ekosystemu analitycznego, Definiowanie standardów modelowania danych (warstwy: staging, ODS, DWH, data marts), Odpowiedzialność za jakość, spójność i dostępność danych dla celów raportowych i analitycznych, Projektowanie procesów integracji danych (ETL / ELT) z systemów źródłowych, Nadzór architektoniczny nad zmianami w obszarze hurtowni danych i integracji danych, Ocena wpływu zmian w systemach źródłowych na hurtownię danych i warstwę raportową, Współpraca z zespołami aplikacyjnymi, integracyjnymi oraz bezpieczeństwa danych w obszarze technicznym, a także z Managerem ds. Jakości Danych w zakresie warstwy merytorycznej i raportowej, Udział w analizie przyczyn źródłowych (RCA) problemów danych oraz inicjowanie działań naprawczych, Definiowanie zasad wersjonowania struktur danych oraz zarządzania metadanymi, Udział w projektowaniu rozwiązań raportowych i analitycznych (BI, self-service BI, zaawansowana analityka), Zapewnienie zgodności architektury danych z wymaganiami bezpieczeństwa i regulacyjnymi, Współtworzenie roadmapy rozwoju hurtowni danych i platformy analitycznej. Oferujemy: Indywidualnie dopasowaną formę współpracy, Możliwość pracy z jednego z naszych biur zlokalizowanych w Krakowie lub w Katowicach, System benefitów pozapłacowych uzależniony od formy umowy, Wsparcie zespołu na każdym etapie zatrudnienia, Możliwość podnoszenia swoich kwalifikacji poprzez udział w szkoleniach i kursach, Współpracę z jedną z największych firm świadczących usługi w sektorze ochrony zdrowia, o ugruntowanej pozycji na rynku.
Analityk(-czka) jakości danych
Santander Bank Polska
⚲ Poznań
Wymagania
- SQL
- BPMN
- UML
- Swagger
- Soap UI
- Postman
- Visual Studio Code
- Enterprise Architect
- draw.IO
- Camunda
Nasze wymagania: masz wykształcenie wyższe (wymagane nauki ścisłe lub ekonomiczne), znasz język angielski na poziomie średniozaawansowanym, masz kompetencje analityczne, cechuje Cię ciekawość i otwartość na biznes, jesteś odpowiedzialny(-a) i zaangażowany(-a), jesteś sumienny(-a) i dokładny(-a), jesteś komunikatywny(-a), potrafisz priorytetyzować cele i zadania oraz pracować samodzielnie, masz dobrą organizację pracy i potrafisz pracować pod presją czasu, potrafisz dzielić się wiedzą i doświadczeniem, masz proaktywną postawę w zakresie promowania dobrych praktyk, myślisz analitycznie, potrafisz pracować w zespole. Zakres obowiązków: dbałość o jakość danych klientów w systemach w celu zapewnienia: dokładności, kompletności, spójności, aktualności, użyteczności, dostępności oraz zrozumienia danych niezbędnych przy przekazywaniu danych do raportowania do Grupy, analiza problemów związanych z jakością danych w celu wyeliminowania: błędów wprowadzania, duplikatów, braków , niezgodności, braku aktualności oraz niejednoznaczności danych, zapewnienie wysokiej jakości danych poprzez: walidację danych (sprawdzenie zgodności danych z określonymi regułami), standaryzację, czyszczenie, integrację, profilowanie oraz monitorowanie jakości danych, Rozwój kompetencji analitycznych poprzez realizację prac dla systemów w zakresie: analizy systemowej obejmującej projektowanie, rozwój i optymalizację produktów oraz procesów, zarządzania i dbałości o jakość wymagań i dokumentacji, zapewniając możliwość śledzenia powiązań i zarządzania zmianami, uczestnictwa w pełnym cyklu wytwarzania oprogramowania – od założeń biznesowych, przez testowanie, aż po wdrożenie, współpracy z zespołami biznesowymi nad dopracowaniem ostatecznego kształtu produktu, kontaktów z dostawcami, audytorami zewnętrznymi oraz innymi instytucjami branżowymi, regulatorami oraz jednostkami w Banku i w Grupie, wsparcia mniej doświadczonych pracowników, definiowania MVP ze wsparciem zespołu, przygotowywania i promowania wymiany wiedzy w zakresie standardów i dobrych praktyk w pracy analityka, szacowania dla standardowych zmian czasu potrzebnego na realizację oraz zasobów niezbędnych do realizacji projektów, proponowania rozwiązań i wsparcia we wdrażaniu rozwiązań wspierających efektywność biznesu, zapewnienia wsparcia podczas wdrażania produkcyjnego rozwiązań informatycznych oraz po ich wdrożeniu, w tym wsparcia dla problemów produkcyjnych, identyfikacji problemów, przyczyn źródłowych oraz proponowania opcji rozwiązań oraz udzielania wsparcia mniej doświadczonym pracownikom, wsparcia w procesie testowania oprogramowania w zakresie posiadanej wiedzy dziedzinowej lub systemowej, wsparcia procesu dzielenia się wiedzą z zakresu systemów i ich powiązań w ramach Tribe i innych jednostek, wsparcia w tworzeniu makiet i prototypów rozwiązań (np. wsparcie UX, DEV i innych ról). Oferujemy: umowę o pracę, pracę w trybie hybrydowym w (lokalizacja na początku oferty), prywatną opiekę medyczną Medicover (z możliwością wykupienia pakietu stomatologicznego), system kafeteryjny z punktami do wymiany na aktywności, np. wypoczynkowe, kulturalne, gastronomiczne lub dofinansowanie do przedszkola/żłobka/klubu dziecięcego, kartę Multisport, ofertę produktową banku oraz pożyczki na pracowniczych warunkach, aktywności wellbeingowe, np. Kluby Zainteresowań, webinary, ćwiczenia, podcasty; inicjatywy w biurach np. mammobus, profilaktyczne badanie wzroku, warsztaty z samoobrony, wyprawkę dla dzieci, benefity dla osób z niepełnosprawnościami: dodatek finansowy na cele prozdrowotne, dodatkowe 2 dni urlopu dla pracowników z lekkim stopniem niepełnosprawności, całkowita praca zdalna, jeśli charakter pracy na to pozwala, platformę ze szkoleniami zewnętrznymi i wewnętrznymi – np. programowanie czy analiza danych lub komunikacja, podejście strategiczne, negocjacje i inne, program poleceń pracowniczych – nagrodę pieniężną za polecenie osoby do pracy w banku.
Technical Project Manager
Lingaro
⚲ Warszawa
Wymagania
- Power BI
- Azure
- Project Management
- Web Development
We’re looking for an experienced Project Manager with a technical background to own multiple projects in the BI / Data & Analytics / Azure space for a global FMCG client, spanning several business areas. The projects focus on the implementation of custom Data & Analytics solutions, Reporting Applications, Data Platforms, and Web Applications as part of a broader Data Lake ecosystem. Solutions are built mostly on Microsoft Azure and leverage a wide range of technologies, including Azure, Databricks, Power BI, Java, React, as well as custom-built applications for enterprise clients. Tasks: • End‑to‑end ownership of technical IT projects, from initiation and planning through delivery and handover to Operations, within Data & Analytics, Business Intelligence, Web Development, and Data Platform domains. • Act as a technical partner for the client, driving and moderating technical discussions, understanding architecture decisions, key design trade‑offs, and non‑functional requirements. • Deep collaboration with technical teams (data engineers, developers, architects), providing guidance, removing impediments, and supporting teams at a technical level when required. • Translate business requirements into technical scope, ensuring feasibility, alignment with architecture standards, and clear implementation plans. • Manage scope, budget, timeline, risks, and dependencies, with particular attention to technical risks and architectural constraints. • Ensure full alignment with the Software Development Life Cycle (SDLC), including requirements analysis, design, development, testing, deployment, and stabilization phases. • Oversee and support solution architecture understanding, including data flows, integrations, cloud components, security, and performance considerations. • Drive Scrum ceremonies (or support them in hybrid models), ensuring effective backlog management, sprint planning, reviews, and retrospectives. • Organize and lead client-facing meetings, presenting progress, technical decisions, risks, and next steps in a clear and structured way. • Ensure knowledge management, documentation, and lessons learned are captured and reused across projects. • Continuously raise technical and delivery standards, setting ambitious goals for both project outcomes and personal development. What We're Looking For: • Technical background: • Technical education (e.g. Computer Science, Engineering) or • Previous hands‑on experience as a developer, data engineer, or technical lead. • Strong ability to go deep into technical details and understand design and architecture‑level discussions. • Solid understanding of BI, Data Lake, and Cloud concepts. • Good knowledge of Azure Cloud fundamentals, including:• Data storage and processing concepts • Integration patterns • Security and access concepts • Typical cloud‑based data architectures • Strong understanding of SDLC, dependencies between phases, and quality gates. • Scrum / Agile background, with practical experience working in Agile or hybrid delivery models. • Proven experience in project planning, monitoring, controlling, and reporting. • Strong analytical and problem‑solving skills, especially in complex technical environments. • Excellent communication skills, with the ability to bridge business and technical stakeholders. • High level of ownership, responsibility, and customer focus. • Ability to perform under time pressure and delivery constraints. • Fluency in English (spoken and written). • Experience working in enterprise‑scale, global environments.
System - Business Analyst
Scalo
⚲ Remote
22 680 - 24 360 PLN (B2B)
Wymagania
- User story
- UML
- BPMN
- Enterprise Architect
- SQL
- REST API
- Kafka
O projekcie: Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Co dla Ciebie mamy: - Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt - Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych - Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób - Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort - Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci - Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Wymagania: Ta oferta jest dla Ciebie, jeśli: - masz minimum 4 lata doświadczenia w obszarze analizy biznesowej i systemowej, - posiadasz doświadczenie w projektach związanych z rozwojem systemów IT, - posiadasz umiejętności opisu wymagań między innymi przy użyciu User Story, - bardzo dobrze potrafisz tworzyć i czytać modele UML/BPMN, - na co dzień wykorzystujesz Enterprise Architect, - posiadasz doświadczenie we współpracy z interesariuszami, programistami, testerami, - posiadasz praktyczną znajomość SQL oraz wykorzystujesz narzędzia do przeglądu baz jak np. SQL developer, pgAdmin lub podobne, - masz doświadczenie w integracji systemów (REST API, KAFKA). Codzienne zadania: - uczestnictwo w projekcie dot. branży bankowej. <span lang="EN-US">Wykorzystywany stos technologiczny: Enterprise Architect, UML/BPMN, SQL, Rest API, Kafka,</span> - przygotowanie analizy systemowej aplikacji bankowych, - współpraca z jednostkami biznesowymi przy określaniu wymagań biznesowych (opis wymań np. przy użyciu User Story), - zbieranie i analiza wymagań oraz przygotowywanie i walidacja user strories, - współpraca z programistami, testerami w zakresie rozwoju aplikacji oraz dbania o ich jakość, - koordynacja zadań między zespołami IT w zakresie realizowanej funkcjonalności, - modelowanie funkcjonalności (UML lub BPMN) zgodnie z przyjętym standardem, - prowadzenie i utrzymywanie dokumentacji funkcjonalnej realizowanych wdrożeń, - praca z backlogiem, - stawka do 145zł/h przy B2B w zależności od doświadczenia.
Specjalista/ka informatyk w obszarze Business Intelligence (BI)
Politechnika Wrocławska
⚲ Wrocław, Śródmieście
Wymagania
- SQL
- T-SQL
- Microsoft SQL Server
- Microsoft Power BI
- Visual Studio
- Python
Nasze wymagania: wykształcenie wyższe (preferowane kierunki techniczne: informatyka, telekomunikacja, matematyka stosowana), co najmniej 3 letnie doświadczenie zawodowe na podobnym stanowisku, praktyczne doświadczenie w pracy z relacyjnymi bazami danych (SQL Server / Oracle), bardzo dobra znajomość: SQL, T-SQL, DAX, MS SQL Server 2017, SSIS, SSAS, umiejętność optymalizacji zapytań i wydajności baz danych, doświadczenie w projektowaniu modeli danych w technologii SSAS tabular, znajomość narzędzia Microsoft Power BI, umiejętność analizy potrzeb użytkowników i tworzenia rozwiązań raportowych, doświadczenie w tworzeniu raportów i analiz z wykorzystaniem hurtowni danych, wiedza dotycząca zabezpieczeń baz danych, umiejętność pracy pod presją czasu, umiejętność pracy w zespole, komunikatywność i wysoka kultura osobista. Mile widziane: dobra znajomość Visual Studio, Python, umiejętność budowy dokumentacji technicznej. Zakres obowiązków: współpraca z analitykami i użytkownikami biznesowymi – przekładanie ich potrzeb na gotowe rozwiązania, integracja danych z wielu systemów (m.in. USOS, Teta EDU, systemy lokalne), projektowanie, rozwój i utrzymanie procesów ETL (SSIS, Visual Studio), projektowanie, rozwój i utrzymanie modeli danych w systemie raportowym, tworzenie raportów i dashboardów zgodnie z wymaganiami użytkowników, budowa i integracja interfejsów do zewnętrznych systemów (np. REST API, pliki). Oferujemy: stabilne zatrudnienie na umowę o pracę w jednej z czołowych uczelni technicznych w Polsce; pracę stacjonarną w godzinach 7.30–15.30 na Kampusie Politechniki Wrocławskiej; trzyskładnikowe wynagrodzenie: wynagrodzenie zasadnicze + premia regulaminowa + dodatek za wieloletnią pracę (3–20%); dodatkowe wynagrodzenie roczne, dofinansowanie do wypoczynku dla pracowników i ich dzieci, preferencyjne pożyczki mieszkaniowe; możliwość przystąpienia do grupowego ubezpieczenia na życie; szkolenia wewnętrzne i zewnętrzne, dofinansowanie kursów, możliwość udziału w szkoleniowych wyjazdach zagranicznych, zajęciach sportowych oraz kursach językowych; wsparcie psychologiczne i mediacyjne; dostęp do biblioteki PWr; miejsca parkingowe dla samochodów i rowerów; możliwość udziału w inicjatywach integracyjnych i społecznych.
Specjalista IT - Administrator - Helpdesk
M99 PIOTR WESOŁOWSKI SPÓŁKA KOMANDYTOWA
⚲ Warszawa, Wola
6 000–9 000 zł brutto / mies.
Wymagania
- HTML
- JavaScript
- CSS
- SQL
- Adobe Illustrator
- Adobe InDesign
- Adobe Lightroom
- Adobe Photoshop
- Adobe XD
Nasze wymagania: doświadczenie w pracy na podobnym stanowisku (Helpdesk / Administrator IT) dobra znajomość systemów Windows oraz podstaw sieci komputerowych umiejętność samodzielnego diagnozowania i rozwiązywania problemów odpowiedzialność, dokładność i dobra organizacja pracy komunikatywność oraz nastawienie na współpracę z użytkownikami Mile widziane: znajomość Linux (podstawy) doświadczenie w pracy z routerami/switchami, monitoringiem, backupami znajomość narzędzi do zdalnego wsparcia użytkowników doświadczenie w firmie e-commerce lub środowisku sprzedaży online Zakres obowiązków: bieżące wsparcie użytkowników (Helpdesk / IT Support) – rozwiązywanie problemów sprzętowych i programowych przygotowanie, instalacja i konfiguracja komputerów, drukarek oraz urządzeń peryferyjnych zarządzanie kontami użytkowników, dostępami i uprawnieniami utrzymanie infrastruktury IT (sieć LAN/Wi-Fi, sprzęt, podstawowe usługi) diagnozowanie awarii oraz reagowanie na zgłoszenia pracowników tworzenie i aktualizacja kopii zapasowych (backup) dbanie o bezpieczeństwo systemów oraz podstawowe działania administracyjne współpraca przy usprawnieniach i rozwoju narzędzi IT w firmie Oferujemy: stabilną współpracę w rozwijającej się firmie atrakcyjne wynagrodzenie adekwatne do umiejętności pracę w przyjaznym zespole i realny wpływ na usprawnienia IT elastyczną formę zatrudnienia (UoP / B2B) możliwość rozwoju i zdobywania doświadczenia w szerokim zakresie IT
Specjalista / Specjalistka Zarządzania Danymi o Produkcie
HBH
⚲ Swadzim (pow. poznański)
Nasze wymagania: Umiejętności analityczne, praca z dużą ilością danych Rzetelność i terminowość w wykonywaniu zadań Doskonała zdolność komunikacji i umiejętność pracy w zespole Silna motywacja do pracy i uczenia się Znajomość pakietu MS Office (MS Excel oraz MS Access) będzie dodatkowym atutem O projekcie: Poszukujemy Specjalisty Zarządzania Danymi o Produkcie, który dołączy do naszego zespołu i będzie odpowiedzialny za zapewnienie integralności, jakości i dostępności danych o produktach w systemach informacyjnych firmy. Zakres obowiązków: Zarządzanie danymi produktów w systemach PDM (Product Data Management), wprowadzanie danych do systemu Tworzenie i utrzymywanie baz danych produktów, w tym opisów technicznych, specyfikacji, zdjęć, atrybutów oraz dokumentacji Współpraca z dostawcami oraz Managerami Produktu w celu zbierania i aktualizacji informacji produktowych Oferujemy: Pracę w nowoczesnej organizacji będącej liderem w swojej branży Pracę w międzynarodowym środowisku Stabilne warunki pracy, w oparciu o umowę o pracę na pełny etat Możliwość częściowej pracy zdalnej Możliwość rozwoju zawodowego dzięki dużej różnorodności zagadnień Wsparcie merytoryczne doświadczonych pracowników Pakiety medyczne, Multisport Bezpłatny autobus firmowy
Solution Architect role
emagine Polska
⚲ Copenhagen
Wymagania
- Salesforce
- SAP
- Documentation
- Business Intelligence (BI)
- SQL
- Python
- Microsoft SQL Server
- Operations
- Performance optimization
- Data Integration
The Solution Architect will be responsible for designing and delivering comprehensive data platform solutions across our Data platform stack, including Azure Synapse and Databricks environments. This hands-on architectural role involves translating business requirements into technical solutions while collaborating with lead engineers. The architect will guide implementations for key transformation projects such as SAP, Salesforce, POS, and o9, ensuring that solutions are scalable, maintainable, and aligned with data architecture principles, thereby supporting Pandora's vision of becoming a leading jewellery company. Main Responsibilities: • Designing end-to-end data platform solutions that align with data architecture principles. • Working directly with lead engineers to propose architectural direction and ensure scalability and performance. • Providing architectural guidance across transformation projects ensuring data integration aligns with business objectives. • Designing integration architectures that connect source systems to our data platform via Kafka. • Architecting solutions for centralized and lakehouse patterns. • Reviewing technical designs and code to ensure adherence to data platform standards. • Defining and documenting solution patterns and best practices to enhance data product quality. • Leading technical design sessions with stakeholders and engineering teams. • Creating relevant technical documentation including architecture decision records and data flow diagrams. • Supporting modernization efforts while maintaining business continuity. • Mentoring teams on solution design patterns and cloud-native best practices. Key Requirements: • 5-7+ years of experience in data platform solutions with proven delivery of production-grade systems. • Strong Python development skills for data engineering workflows. • Proficient in SQL development including optimization and performance tuning. • Deep experience with Databricks lakehouse and Delta Lake features. • Technical expertise in Azure Synapse and data schema design. • Practical experience designing end-to-end data pipelines. • Experience with streaming and lambda architectures. • Knowledge in designing data quality frameworks. • Understanding of centralized and federated architectural patterns. • Practical knowledge of DAX calculations and Power BI performance optimization. • Collaboration skills and ability to work closely with engineering teams. • Strong communication skills for technical and business stakeholder engagement. Nice to Have: • Understanding of retail, manufacturing, finance, or supply chain processes. • Ability to write code to support engineering teams in a hands-on environment. Start: ASAP Duration: 3-6 months + option Workload: Fulltime Location: office in CPH working onsite 3 days and 2 days remote per week
Snowflake Engineer with Informatica
Link Group
⚲ Remote
20 160 - 25 200 PLN (B2B)
Wymagania
- Snowflake
- dbt
- Informatica
- SQL
- Relational database
- Cloud platform (nice to have)
- AWS (nice to have)
- Azure (nice to have)
- GCP (nice to have)
- ETL (nice to have)
O projekcie: We are looking for a Senior Data Engineer to join our growing data team and play a key role in building and optimizing modern data platforms. You will be responsible for designing, developing, and maintaining scalable data pipelines and data models, ensuring high data quality and performance across the organization. This role is ideal for someone who enjoys working with cloud data warehouses, transforming data into valuable insights, and collaborating with cross-functional teams to deliver robust data solutions. Wymagania: - Proven experience as a Data Engineer or in a similar role. - 2–3 years of hands-on experience with Snowflake and dbt. - Solid understanding of data modeling and data transformation concepts. - Experience building and maintaining data pipelines. - Basic knowledge or hands-on exposure to Informatica. - Strong SQL skills and experience working with relational databases. - Good problem-solving skills and attention to detail. - Ability to work collaboratively in a team environment. - Good communication skills and proficiency in English. Nice to Have - Experience with cloud platforms (e.g., AWS, Azure, GCP). - Familiarity with ETL/ELT processes and data integration tools. - Knowledge of data warehousing concepts and best practices. - Experience working in Agile environments. Codzienne zadania: - Design, build, and maintain scalable data pipelines and data processing workflows. - Develop and optimize data models using Snowflake and dbt. - Transform raw data into clean, structured datasets for analytics and reporting purposes. - Ensure data quality, consistency, and reliability across systems. - Collaborate with data analysts, BI teams, and business stakeholders to understand data requirements. - Monitor and troubleshoot data pipelines and performance issues. - Support integration of data from multiple sources and systems. - Contribute to best practices in data engineering, including documentation and data governance.
Senior Staff BI Architect – GenBI & AI Solutions
Link Group
⚲ Remote
38 000 - 45 000 PLN (B2B)
Wymagania
- Business Intelligence
- DAX
- Data modelling
- Databricks
- SQL
- Python
- Gen AI
- LLM
- Communication skills
- Problem-solving
- Embedded analytics (nice to have)
- FusionCharts (nice to have)
O projekcie: We are currently looking for an experienced Senior Staff BI Architect to join an innovative product-driven organization operating in the construction technology space. You will play a key role in shaping next-generation data solutions that go far beyond traditional reporting. The focus of this position is to redefine how data is consumed by introducing AI-driven insights, conversational analytics, and intelligent data interactions. The team is working on modern platforms that support the full lifecycle of construction processes -from planning and estimation to execution -leveraging advanced analytics, cloud technologies, and AI. Wymagania: - 9+ years of experience in Business Intelligence, working on complex and scalable data solutions - Advanced expertise in Power BI (including DAX and data modeling) and Databricks - Strong SQL and/or Python skills for data transformation and pipeline optimization - Hands-on experience or strong interest in Generative AI and LLM-based solutions - Proven ability to design user-centric dashboards and data products with a strong focus on usability and performance - Experience translating complex data into intuitive, business-friendly insights - Ability to work independently and take ownership of end-to-end solutions - Entrepreneurial mindset with a proactive approach to problem-solving - Comfortable working in distributed, international environments - Fluent English C1/C2. Nice to have - Experience with embedded analytics tools (e.g. FusionCharts or similar) - Background in construction, manufacturing, or related industries Codzienne zadania: - Design and build AI-powered data experiences, enabling users to explore insights using natural language and intelligent assistants - Evolve the BI ecosystem from static dashboards toward dynamic, insight-driven platforms - Optimize and manage data pipelines, ensuring high-quality, well-structured datasets for analytics and AI use cases - Translate complex business challenges into clear, data-driven narratives and visualizations - Collaborate with engineering teams to deliver embedded analytics within web and mobile applications - Drive the development of application-integrated reporting solutions - Leverage AI and automation to improve efficiency across data development processes (e.g. query generation, documentation, testing) - Act as a technical leader and advisor in BI and AI domains, promoting best practices and new technologies - Continuously identify areas for improvement and proactively introduce scalable solutions.
Senior Snowflake Developer
AVENGA (Agencja Pracy, nr KRAZ: 8448)
⚲ Remote
25 200 - 31 080 PLN (B2B)
Wymagania
- SQL
- Snowflake
- ETL
- Cloud platform
Wymagania: - 5+ years of experience working with Snowflake - Strong SQL skills - Experience with ETL/ELT processes - Knowledge of data warehousing concepts - Familiarity with cloud platforms - Strong problem-solving skills Codzienne zadania: - Develop and optimize solutions in Snowflake - Build and maintain data pipelines and transformations - Design efficient data models and schemas - Monitor and improve performance of Snowflake workloads - Collaborate with data engineers and analysts - Ensure best practices in data security and governance
Senior Data Scientist /AI Engineer (RL)
Acaisoft
⚲ Warszawa
25 200 - 38 640 PLN (B2B)
Wymagania
- Python
- Machine learning
- Reinforcement Learning (nice to have)
- Claude Code (nice to have)
- Codex (nice to have)
O projekcie: You will be cooperating with a leading provider of AI evaluation and optimization solutions, trusted by multinational companies to optimize AI agents and detect performance issues in large language models. In this role, you’ll help develop advanced reinforcement learning (RL) environments and scalable evaluation systems that guide and shape the behavior of cutting-edge AI models. The company’s mission is to enable safe, verifiable, and aligned AGI through rigorous, real-world agent evaluation. Due to the client’s time zone, we would appreciate a candidate who can work 2 p.m. - 10 p.m. Join us and make a real impact! If you’re ready to broaden your horizons and work with an innovative company at the forefront of AI, we’d love to hear from you. You’ll help build the environments that shape how future AI systems are trained, evaluated, and aligned - and collaborate with world-class engineers and researchers on one of the most important technical challenges of our time. Wymagania: - 5+ years of experience in Python software engineering. - Minimum 3 years in a Data Scientist, Machine Learning/Environment Engineering position. - Being able to work 2 p.m. - 10 p.m. - Practical knowledge of AI frameworks (Langchain, Langraph, mcp-server ). - Extensive practical experience in working with AI, including prompt engineering and vibe coding. Nice to have: - Knowledge of Codex or Claude Code. - Experience in integrating AI with a system would be an advantage. - Understanding of RL concepts - reward modeling, environment dynamics, verifiability, evaluation, and agent interaction loops. - Familiarity with instrumentation, metrics, and data pipelines for RL evaluation. - Expertise in planning your own work. Codzienne zadania: - Design and implement RL environments that support large-scale agent evaluation and reinforcement learning experiments. - Build task generation pipelines, dynamic datasets, and scripted environments with controlled complexity and stochasticity. - Develop verifiers and reward models to automatically score trajectories and evaluate model reasoning. - Collaborate with infrastructure and systems engineers to ensure environments are scalable, reproducible, and instrumented for detailed telemetry. - Design APIs and orchestration frameworks for running, resetting, and evaluating agents across environments. - Optimize environment performance, logging, and reward reproducibility across distributed setups.
Senior Data Engineer (AWS)
Link Group
⚲ Warszawa
21 840 - 26 880 PLN (B2B)
Wymagania
- SQL
- Python
- AWS
- S3
- Glue
- Lambda
- Redshift
- Data
- Data architecture
- CI/CD
- GitLab
- IaC
- Terraform
- BI (nice to have)
- Power BI (nice to have)
- Communication skills (nice to have)
- Stakeholder management (nice to have)
O projekcie: We are looking for a Data Engineer to join a project focused on building and scaling modern data platforms in a cloud-based environment. Wymagania: - 4–6 years of professional experience in data engineering - Strong hands-on skills in SQL and Python - Practical experience working with AWS services (e.g. S3, Glue, Lambda, Redshift) - Good understanding of data architecture concepts and best practices - Experience with CI/CD processes and tools (e.g. GitLab) as well as Infrastructure as Code (Terraform) - Ability to troubleshoot and solve complex data-related problems - Experience building and maintaining ETL/ELT workflows - Familiarity with Agile ways of working - English proficiency at C1 level. Nice to have - Experience with BI tools such as Power BI - Strong sense of ownership and accountability - Proactive attitude and willingness to improve existing solutions - Good communication skills and ability to work with stakeholders Codzienne zadania: - Develop and manage batch data processing pipelines using AWS-based solutions - Implement efficient data transformations with Apache Spark and SQL - Design robust data structures to support reporting and analytical use cases - Maintain high standards of data quality, availability, and system performance - Identify and resolve issues within data pipelines, ensuring stability and scalability - Gather and analyze business needs, translating them into effective technical solutions - Work in a self-organized manner while collaborating with cross-functional teams.
Senior Data Architect (f / m)
Bankowy Fundusz Gwarancyjny
⚲ Warszawa, Śródmieście
Wymagania
- Azure Synapse Analytics
- Snowflake
- Google BigQuery
Nasze wymagania: Minimum 7–10 lat w roli Senior Data Architect, w tym: • Systemy istniejące (3+ lat): o IBM Cognos Analytics lub porównywalne platformy BI (Power BI, Tableau, Looker) o Hurtownie danych: modelowanie danych, procesy ETL/ELT, optymalizacja SQL, data governance • Systemy bankowe (2+ lat): o Doświadczenie z systemami finansowymi, raportowanie regulacyjne (podstawowa wiedza) DORA/KNF • Transformacja do chmury obliczeniowej (Cloud Modernization) (3+ lat): o Architektura hybrydowa; głęboka wiedza o minimum jednej platformie (Azure Synapse Analytics, Snowflake, lub Google BigQuery) o Strategie migracji (lift-and-shift, replatforming, refactoring) o Cloud governance i optymalizacja kosztowa (zasady FinOps) • Architektura korporacyjna (Enterprise Architecture): o Umiejętności do definiowania stanu docelowego (rezultatu), ocena ryzyka, strategiczne mapowanie o Komunikacja na poziomie kierownictwa (C-level) • Języki: Angielski B2+ (dokumentacja techniczna, komunikacja z dostawcami) • Minimum 2 ukończone/wdrożone projekty cloud modernization w dużych organizacjach (banking, insurance, fintech) • Komunikacja na poziomie C-level - zdolność tłumaczenia złożonych koncepcji dla non-tech stakeholders • Umiejętność przekazywanie wiedzy • Proaktywne rozwiązywanie problemów i niezależność • Umiejętność pracy w dynamicznym środowisku transformacji strategicznej • Dbałość o szczegóły w obszarach compliance i governance oraz skuteczność w realizacji powierzonych projektów Mile widziane: Certyfikacje: AWS Solutions Architect Professional, Azure Certified Solutions Architect Expert, lub IBM certifications Znajomość architektury typu „data lakehouse” (Delta Lake, Apache Iceberg) Podstawowe zrozumienie Kubernetesa / konteneryzacji (Docker) – jeśli architektura obejmuje potoki uczenia maszynowego (ML pipeline) Doświadczenie z Databricks lub Azure ML w zakresie analityki predykcyjnej Procesy zamówień publicznych (RFI/RFP/RFQ) w finansach/sektorze publicznym ITIL, PRINCE2, lub PMP O projekcie: Szukamy osoby na stanowisko Architekta danych do wsparcia wieloletniej transformacji dwóch kluczowych systemów: hurtowni danych business intelligence (IBM Cognos) oraz systemu zarządzania gwarancjami depozytów bankowych. Będziesz odpowiadać za techniczny i biznesowy design migracji z on-premise na hybrydowe/cloud-native architektury, z uwzględnieniem strategii lift-and-shift, replatformingu, i pełnej modernizacji. Rola wymaga równowagi między głęboką wiedzą techniczną (SQL, modeling, ETL/ELT optimization) a umiejętnością komunikacji z biznesem i przygotowania specyfikacji dla procedur zamówień publicznych. Zakres obowiązków: Architektura migracji: będziesz projektować strategie migracji dla dwóch systemów z ewaluacją lift-and-shift, replatformingu, i refactoringu. Docelowa koncepcja: przygotowanie docelowej architektury (data lakehouse vs warehouse, cloud governance, FinOps) z business case i roadmap. Wsparcie zamówienia: współpraca przy przygotowaniu RFI/RFP, specyfikacji technicznej i ewaluacji ofert dostawców (szacunkowo 15–20% czasu). Transfer wiedzy: mentorowanie zespołu analityków w obszarze nowych technologii i best practices. Compliance & Governance: zapewnienie zgodności z wymaganiami regulacyjnymi i data governance framework. Oferujemy: pracę w renomowanej instytucji należącej do sieci bezpieczeństwa finansowego projekty o dużym wpływie na architekturę systemu finansowego Polski dostęp do nowoczesnych technologii cloud (Azure, AWS, Databricks) atrakcyjne możliwości rozwoju zawodowego pakiet dodatkowych świadczeń: pracowniczy program emerytalny (7% wynagrodzenia) prywatną opiekę medyczną, dofinansowanie do kart sportowych, biletów do kina/teatru i inne benefity dogodną lokalizację w bezpośrednim sąsiedztwie metra w centrum Warszawy