Oferty pracy
Filtry
IT Data Scientist Graduate Program
DHL Supply Chain (Poland) Sp. z o.o.
⚲ Warszawa
Nasze wymagania: We are looking for passionate individuals who show initiative and are eager to explore new paths for growth. Bachelor’s degree completed or currently in the final year of a long-cycle Master’s program. Knowledge of analyzing complex datasets and building mathematical models (academic or practical), along with basic skills in at least one programming or scripting language (e.g., Python, R, or Java). Basic knowledge of SQL, or a strong willingness to learn if not yet experienced. Willingness to travel for business (2–3 days per month). Ability to produce creative analytical solutions based on clear and thorough analyses of complex processes and business relationships. Independent work ethic, integrity and loyalty, positive “can-do”- attitude. Familiarity with Microsoft Azure – nice to have. English language – advanced. O projekcie: Through a meticulously designed 24-month structured development program, you will be responsible for delivering data analytics projects and translating insights into actionable business decisions. Working closely with project leads, you’ll analyze business processes, identify data needs, build statistical or machine learning models, and develop prototypes for business users. Along the way, you will also support knowledge transfer from completed projects and help uncover new opportunities for data-driven innovation. Zakres obowiązków: Support the definition of project contents, deliverables and timelines of data analytics projects. Derive analytical requirements, select and execute appropriate mathematical methods and interpret the results in consultation with the project lead. Identify, validate and exploit internal and external data sets to support respective projects. Apply mathematics, statistics, predictive modelling and machine learning techniques to develop and build predictive models for (real-time) decision making and to optimize processes. Jointly deploy models into production with data/software engineer. Liaise with other experts cross-functionally to share best practices. Oferujemy: Real development opportunities - over 70% of recruitment processes are selected from internal candidates, Medical Care, Co-financing for holidays, Christmas vouchers, Co-financing for sports cards (Multisport), Possibility to join group insurance on preferential term
F/M: Java Python Developer (Big Data)
PEOPLEVIBE SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Warszawa
Wymagania
- Java
- Python
- Docker
- Kubernetes
- SQL
- Hadoop
- Spark
- Kafka
- NiFi
- Elasticsearch
- Hive
- Flink
- Jenkins
- Bamboo
- PostgreSQL
- Spring Boot
- Spring Framework
- MongoDB
- HBase
- IntelliJ
- PyCharm
Nasze wymagania: Doświadczenie w projektowaniu i programowaniu systemów IT Bardzo dobra znajomość Java i Python oraz zasad OOP i clean code Doświadczenie w technologiach Big Data (Hadoop, Spark, Kafka, NiFi, Elasticsearch, Hive, Flink lub podobne) Doświadczenie w tworzeniu mikroserwisów i REST API Praca z Dockerem i Kubernetesem Doświadczenie z narzędziami CI/CD (Jenkins, Bamboo lub podobne) Znajomość SQL oraz baz danych (preferowany PostgreSQL) Umiejętność pracy zespołowej i doświadczenie w środowisku zwinnym Mile widziane: Spring Framework / Spring Boot / Liquibase Bazy NoSQL (MongoDB, HBase) Git oraz IDE: IntelliJ IDEA / PyCharm Język angielski umożliwiający czytanie dokumentacji technicznej Doświadczenie w Agile (Scrum) O projekcie: Dołączysz do zespołu Big Data, który realizuje różnorodne projekty biznesowe związane z pozyskiwaniem, przetwarzaniem oraz udostępnianiem danych w różnych formach – API, raporty, dashboardy. Pracujemy zarówno na danych ustrukturyzowanych, jak i nieustrukturyzowanych. Projekt opiera się głównie na Javie oraz Pythonie, a kluczowym obszarem są mikroserwisy oraz API uruchamiane na Kubernetesie. Zespół działa w metodyce Agile i stawia na jakość, skalowalność oraz nowoczesne podejście do Big Data. 📍 Lokalizacja: Praca hybrydowa (4 dni zdalnie + 1 dzień w biurze, Warszawa – Rondo Daszyńskiego) Zakres obowiązków: Współtworzenie specyfikacji wymagań i wycenianie pracochłonności zmian Projektowanie i implementowanie rozwiązań Big Data oraz mikroserwisów REST API Praca z danymi ustrukturyzowanymi i nieustrukturyzowanymi Tworzenie i rozwijanie API udostępniających dane dla systemów zewnętrznych Nadzorowanie prac implementacyjnych oraz opiniowanie rozwiązań dostawców zewnętrznych Dbane o dokumentację techniczną oraz standardy projektowe i programistyczne Zapewnianie jakości, wymagań funkcjonalnych i niefunkcjonalnych dostarczanych rozwiązań Wspieranie wdrożeń, stabilizacji oraz utrzymania systemów (III linia ServiceDesk) Identyfikowanie ryzyk i wdrażanie działań je mitygujących Praca w dojrzałym zespole Agile (Scrum) i wdrażanie nowych technologii Oferujemy: Pracę przy nowoczesnych projektach Big Data o realnym znaczeniu biznesowym Udział w projektach opartych o skalowalne rozwiązania chmurowe i konteneryzację Realny wpływ na standardy techniczne i kierunek rozwoju systemów Partnerską współpracę w interdyscyplinarnym zespole Środowisko nastawione na jakość, rozwój technologiczny i stabilność projektu
Executive Azure Data Engineer - Data & Cloud
KPMG
⚲ Gdańsk, Młyniska, Katowice, Kraków, Prądnik Czerwony, Łódź, Widzew, Poznań, Jeżyce, Warszawa, Śródmieście, Wrocław, Śródmieście
Nasze wymagania: Min. 4 lata doświadczenia w dostarczaniu rozwiązań z zakresu inżynierii danych w środowisku konsultingowym lub w ramach projektów dla wielu firm; Bardzo dobra znajomość platformy Azure (Databricks, Fabric, Data Lake, Synapse Analytics, Data Factory, Logic Apps); Doświadczenie komercyjne we wdrażaniu platform danych w technologiach Databricks lub Synapse Analytics lub Microsoft Fabric; Bardzo dobra znajomość SQL i Python; Doświadczenie w projektowaniu testów wdrażanych rozwiązań analitycznych; Wspieranie i promowanie dobrych praktyk inżynierii oprogramowania w ramach zespołu; Doświadczenie w samodzielnej współpracy z klientem w zakresie identyfikacji i analizy wymagań oraz realizacji projektów wdrożeniowych; Doświadczenie w sporządzaniu podsumowań wyników testów, analiz i dokumentacji w językach polskim i angielskim; Wykształcenie wyższe – preferowane: informatyka, metody ilościowe lub pokrewne; Bardzo dobra znajomość języka angielskiego w mowie i piśmie; Doskonałe umiejętności komunikacyjne i zdolność do współpracy zarówno z osobami technicznymi, jak i interesariuszami biznesowymi. Znajomość narzędzi AI (np. Microsoft Copilot) i umiejętność ich wykorzystania do usprawniania procesów, analizy danych oraz automatyzacji zadań Mile widziane: Praktyczna znajomość administracji platformą Azure; Doświadczenie w automatyzacji wdrażania rozwiązań chmurowych oraz tworzenia infrastruktury w postaci kodu (DevOps, CI/CD, Infrastructure as a Code) oraz wykorzystaniu narzędzia Azure DevOps; Wdrażanie rozwiązań opartych o przetwarzanie danych streamingowych; Znajomość systemów wersjonowania Git; Znajomość PowerShell. O projekcie: Zespół Data & Cloud zajmuje się dostarczaniem Klientom usług z zakresu szeroko pojętej analityki danych, modelowania platform danych i Business Intelligence. Wykorzystujemy nowoczesne technologie Microsoft i Databricks, jednocześnie stale rozwijamy się i poszukujemy nowych sposobów, by zaspokoić wymagania rynku. Aktualnie poszukujemy doświadczonego developera z kompetencjami w zakresie budowy platform danych (Data Lakehouse), w tym wdrażania infrastruktury chmurowej, tworzenia procesów przetwarzania danych ELT oraz projektowania modeli danych. Zakres obowiązków: Projektowanie nowoczesnych platform danych w środowisku Azure (Data Warehouse, Data Lakehouse) z uwzględnieniem wydajności, skalowalności i niezawodności; Projektowanie, utrzymanie oraz wdrażanie przepływów danych wsadowych włączając w to procesy ELT, oraz integracje pomiędzy systemami chmurowymi i systemami on-premises; Projektowanie, utrzymanie oraz wdrażanie przepływów danych strumieniowych; Automatyzacja wdrożeń w ramach procesów CI/CD; Wsparcie klienta w zakresie analizy wymagań i identyfikacji źródeł danych; Analiza zebranych danych, oraz zarządzanie nimi w hurtowniach, oraz relacyjnych bazach danych; Doradztwo w obszarze wyboru optymalnych rozwiązań, dostosowanych do potrzeb klienta; Ścisła współpraca z właścicielem biznesowym, kierownikiem projektu, ekspertami obszarów biznesowych w celu efektywnej realizacji projektów; Opracowywanie i utrzymywanie dokumentacji projektowej. Oferujemy: Możliwość współpracy z rynkowymi liderami zarówno w Polsce jak i za granicą; Udział w projektach wdrożeniowych w najnowszych technologiach i frameworkach (data lakehouse, Azure, zaawansowana analityka oparta o Power Platform, Data Science); Atrakcyjny system premiowy; Możliwość samorealizacji oraz rozwoju osobistego poprzez udział w dedykowanych szkoleniach, w tym z technologii Microsoft i Databricks; Szeroki dostęp do platform e-learningowych, takich jak: Degreed, LinkedIn Learning, Pluralsite i Databricks Academy; Zaplanowany czas na przygotowanie do egzaminów, oraz budżet na zdobycie certyfikatów; Możliwość wyboru technologii, oraz wpływ na kierunki rozwoju zespołu; Pełną wyzwań pracę w wiodącej na rynku polskim oraz międzynarodowym firmie wdrażającej rozwiązania cyfrowej transformacji i usług chmurowych; Szansę na zdobycie cennego doświadczenia zawodowego; Atrakcyjny pakiet socjalny, w tym kartę MultiSport, bilety do kina, teatru, vouchery i zniżki, bony okolicznościowe; Prywatną opiekę medyczną, dodatkowe ubezpieczenie i program wellbeing; Przyjazną atmosferę pracy, w tym m.in. wyjazdy integracyjne i zespołowe spotkania okolicznościowe; Program mentoringowy – wsparcie w zaplanowaniu ścieżki kariery; Program poleceń – szansę na dodatkowy bonus finansowy za skuteczną rekomendację znajomego do pracy; Dni wolne na wolontariat - możliwość zaangażowania się w różnorodne formy wolontariatu pracowniczego oraz program grantowy wspierający zgłaszane przez pracowników inicjatywy; Możliwość: pracy zdalnej / hybrydowej / w biurze.
Ekspert / Ekspertka ds. Data Science w Obszarze Customer Intelligence
Bank Millennium S.A.
⚲ Warszawa, Mokotów
Wymagania
- SQL
- Python
Nasze wymagania: Minimum 3 lata doświadczenia w obszarze analityki biznesowej, predykcyjnej lub przetwarzania danych (preferowane doświadczenie w sektorze finansowym lub telekomunikacyjnym) Praktyczne doświadczenie w tworzeniu i wdrażaniu modeli opartych na uczeniu maszynowym i sztucznej inteligencji (m.in. modele klasyfikacyjne, segmentacyjne, rekomendacyjne) Doświadczenie projektowe we współpracy z zespołami IT, jednostkami biznesowymi oraz dostawcami zewnętrznymi Rozwinięte umiejętności analityczne, w tym interpretacji danych i formułowania wniosków Bardzo dobra znajomość SQL i Pythona Znajomość języka angielskiego na poziomie umożliwiającym swobodną komunikację Zakres obowiązków: Identyfikacja potrzeb klientów z wykorzystaniem zaawansowanej analityki danych, uczenia maszynowego i sztucznej inteligencji. Inicjowanie i rozwój projektów analitycznych wspierających budowę spersonalizowanych relacji z klientami. Projektowanie, wdrażanie i utrzymywanie modeli ML/AI, w tym segmentacji klientów, modeli predykcyjnych oraz systemów rekomendacji. Ścisła współpraca z jednostkami biznesowymi i operacyjnymi przy definiowaniu, implementacji i monitorowaniu rozwiązań analitycznych. Proaktywne rekomendowanie usprawnień procesów z wykorzystaniem dostępnych narzędzi AI i data science. Tworzenie i rozwój feature store oraz data martów analitycznych we współpracy z zespołami IT. Oferujemy: Zatrudnienie w oparciu o umowę o pracę wraz z systemem premiowym Pracę hybrydową (w wymiarze 60% z biura/40% zdalnie) Benefity pozapłacowe, m.in prywatną opiekę medyczną Dostęp do platformy kafeteryjnej MyBenefit z tysiącem zniżek i benefitów, w tym możliwość skorzystania z karty sportowej, biletów do kina, kart prepaid, bonów zakupowych i voucherów Dostęp do najnowszych technologii i narzędzi Okazję do bliskiej współpracy z wieloma jednostkami banku przy realizacji ambitnych i nieszablonowych projektów Pracę w zespole nastawionym na dzielenie się wiedzą Możliwość podejmowania własnych inicjatyw i ich prowadzenia Pracę w nowoczesnym biurze w Warszawie (okolice metra Pole Mokotowskie) oraz kawiarnię Green Cafe Nero ze zniżkami dla Pracowników Udział w akcjach wolontariatu organizowanych przez Bank
Database Engineer
Edge One Solutions Sp. z o.o.
⚲ Warszawa
Wymagania
- PostgreSQL
- MongoDB
- Python
- Bash
- Kubernetes
- Helm
- AWS
- Microsoft Azure
- Google Cloud Platform
- Terraform
- CloudFormation
- pgAdmin
- Pgbench
- Robo3t
- Studio3t
- MongoDB Ops Manager
- Mongo Mirror
- Prometheus
- CloudWatch
Nasze wymagania: Ponad 4 lata doświadczenia w zarządzaniu wielkoskalowymi, wysokodostępnymi systemami baz danych (PostgreSQL / MongoDB) Automatyzacja przy użyciu skryptów Python lub Bash Mile widziane: Doświadczenie w pracy z Kubernetes i Helm Doświadczenie z zaawansowanymi koncepcjami wysokiej dostępności PostgreSQL (np. streaming replication, Repmgr/Patroni) oraz/lub z shardingiem i replikacją MongoDB Doświadczenie z AWS, GCP lub Azure Doświadczenie w korzystaniu z systemów kontroli wersji, narzędzi do zarządzania konfiguracją oraz rozwiązań IaC (Infrastructure as Code), takich jak Terraform czy CloudFormation Doświadczenie w pracy z narzędziami bazodanowymi, takimi jak pgAdmin, Pgbench, Robo3t, Studio3t, MongoDB Ops Manager oraz Mongo Mirror Doświadczenie z Prometheus, CloudWatch oraz narzędziami monitorującymi – zarówno w środowisku Kubernetes, jak i w zewnętrznej infrastrukturze chmurowej zarządzanej przez dostawcę chmury O projekcie: Nasz klient dostarcza rozwiązania AI, które maksymalizują wpływ biznesowy i minimalizują ryzyko dla organizacji. Platforma i aplikacje integrują się z kluczowymi procesami biznesowymi, umożliwiając zespołom rozwijanie, wdrażanie oraz zarządzanie AI na dużą skalę. O roli To stanowisko to okazja do przejęcia odpowiedzialności za pełny cykl życia (administrację, automatyzację i rozwiązywanie problemów) naszych kluczowych systemów bazodanowych działających w dużej, wielodzierżawnej (multi-tenant) infrastrukturze Kubernetes. Będziesz odgrywać kluczową rolę w rozwijaniu naszej strategii wdrożeń opartej na GitOps i Helm, koncentrując się na zapewnianiu aktualizacji bez przestojów (zero-downtime) oraz maksymalizacji wydajności i stabilności naszych podstawowych usług platformowych. To stanowisko daje doskonałą możliwość rozwijania swoich umiejętności oraz zdobycia bezpośredniego doświadczenia w zakresie zaawansowanej architektury chmurowych baz danych i wyzwań związanych z orkiestracją kontenerów. Zakres obowiązków: Projektowanie, wdrażanie i utrzymywanie infrastruktury baz danych z wykorzystaniem StatefulSetów, Operatorów oraz chartów Helm, tak aby bazy danych były niezawodne, samonaprawialne (self-healing) i skalowalne Odpowiedzialność za cały cykl wdrożeniowy klastrów bazodanowych poprzez zarządzanie kontrolą wersji chartów Helm i szablonów konfiguracyjnych Wsparcie i administracja produkcyjnych systemów bazodanowych poprzez proaktywne instrumentowanie oraz monitorowanie wydajności, bezpieczeństwa i dostępności w środowisku kontenerowym Przeprowadzanie aktualizacji i migracji (zarówno głównych, jak i mniejszych wersji) bez przestojów (zero-downtime), a także tworzenie i utrzymywanie hooków Helm oraz niestandardowych skryptów automatyzujących złożone operacje stanowe (stateful) Zarządzanie i optymalizacja wydajności backendowych magazynów danych, zapewniając spójność i integralność danych w całym cyklu życia podów Tworzenie i utrzymywanie narzędzi oraz skryptów automatyzujących (Bash, Python), skoncentrowanych na upraszczaniu zadań związanych z zarządzaniem Kubernetes, takich jak provisioning użytkowników/secrets oraz monitorowanie stanu klastra Oferujemy: Indywidualne wsparcie Service Delivery Managera, który pomoże Ci zaplanować ścieżkę kariery i zadba o komfort w projekcie Szkolenia, certyfikaty i konferencje - dofinansowujemy lub w pełni pokrywamy koszty rozwoju kompetencji technicznych SmartChange – umożliwiamy zmianę projektu i dobieramy kolejny zgodnie z Twoimi preferencjami Nie tylko praca – wyjścia, sport i nasze webinary #edge1talks Aktywność fizyczna – wspieramy sportowe inicjatywy i wynajem sal treningowych Pakiet zdrowotny – prywatna opieka, karta sportowa, ubezpieczenie i wsparcie psychologiczne (HearMe) Elastyczne benefity – sam decydujesz, na co przeznaczasz punkty w naszym systemie benefitowym Bezpłatne lekcje języka angielskiego – dopasowane do Twojego poziomu, idealne do pracy w międzynarodowym środowisku
Data Specialist
MACROBOND FINANCIAL POLSKA SP. Z O.O.
⚲ Szczecin
Nasze wymagania: University degree, preferably in economics, statistics, finance or similar Experience working with macroeconomic/financial/other data is a big asset Advanced knowledge of English; additional languages are also valuable (especially Ukrainian/Russian/French), but are not mandatory Good practical knowledge of MS Excel High attention to detail and an analytical mind Well-developed online research skills O projekcie: Our growth as a company means that we need to grow our support team as well, which is why we’re looking forward to having you on board of our team as a Data Specialist. You’ll be responsible for maintaining and expanding macroeconomic content in the Macrobond application. Your work will include sourcing data from national, international & private sources, performing updates, database administration, and more. Zakres obowiązków: Performing timely data updates with high focus on quality Filtering & scrubbing data to identify data patterns and correct data problems Communicating with sources to ensure that data is maintained at a high standard Finding & defining opportunities to improve work processes (data automation & structuring) Cooperating with other team members & your team manager Oferujemy: Stable position in a growing business with a "people first" atmosphere Private health care and sport benefit Access to learning platform Hybrid work model A modern office in the city center with an amazing chillout space.
Data Scientist Mentor
LEARN IT sp. z o.o.
⚲ Warszawa, Mokotów
180–210 zł netto (+ VAT) / godz.
Wymagania
- Python
- Torch/PyTorch
- IPython/Jupyter
- Pandas
- SQL
- Docker
- Django
- AWS
- TensorFlow
Nasze wymagania: Bardzo dobra znajomość języka Python w kontekście analizy danych i uczenia maszynowego: Pandas, NumPy, Matplotlib, Scikit-learn Doświadczenie z narzędziami i technologiami ekosystemu Data Science: Jupyter Notebook, SQL, Git, podstawy pracy w środowiskach chmurowych (np. Google Colab, AWS lub Azure) Praktyczna znajomość bibliotek ML/DL:, TensorFlow / Keras lub PyTorch – w kontekście budowania i wdrażania modeli predykcyjnych Umiejętność wsparcia i mentorskiego podejścia: indywidualne konsultacje, feedback, przygotowanie uczestników do rozmów na stanowiska Data Analyst / Data Scientist – kluczowe w programie LearnIT Komunikatywność, pedagogiczne podejście, empatia, umiejętność motywowania i pracy z grupami – istotne cechy skutecznego trenera Dostępność wieczorami (typowo 18:00–21:00, dwa razy w tygodniu) – zgodnie z formatem kursów LearnIT Znajomość narzędzi LMS i zdolność do umieszczania materiałów, monitorowania postępów uczniów – w modelu nauki online Mile widziane: Doświadczenie w procesie rekrutacyjnym (np. przeprowadzanie lekcji próbnych) Certyfikaty technologiczne (np. TensorFlow Developer Certificate, AWS Certified Machine Learning, Microsoft Azure AI) O projekcie: Dołączysz do zespołu LearnIT – dynamicznie rozwijającej się szkoły IT, specjalizującej się w kursach online na żywo. Naszą misją jest wspieranie osób w przebranżowieniu i wejściu na rynek IT poprzez praktyczne, intensywne programy edukacyjne. Prowadzimy kursy takie jak: • Python Developer – kompleksowy program obejmujący podstawy Pythona, tworzenie aplikacji webowych (Django, Flask, FastAPI) oraz elementy sztucznej inteligencji. • Data Science – praktyczne wprowadzenie do analizy danych, uczenia maszynowego i pracy z bibliotekami takimi jak Pandas, NumPy, Scikit-learn czy TensorFlow. • QA Python – kurs przygotowujący do pracy jako tester automatyzujący, z naciskiem na PyTest, Selenium, SQL, CI/CD i narzędzia do zarządzania projektami. Jako trener będziesz pracować w formule zajęć online na żywo w małych grupach (do 15 osób), łącząc wykłady z dużą ilością praktyki i projektów. Kursy są prowadzone w trybie wieczorowym (2 razy w tygodniu, godz. 18:00–21:00), dzięki czemu uczestnikami są głównie osoby pracujące, które chcą zmienić zawód i rozpocząć karierę w IT. W LearnIT stawiamy na: • praktykę – kursanci tworzą realne projekty, które mogą wykorzystać w portfolio, • wsparcie mentorskie – trenerzy pomagają nie tylko w nauce technologii, ale też w przygotowaniu do wejścia na rynek pracy (CV, LinkedIn, rozmowy rekrutacyjne), • wysoką jakość – kursy są współtworzone z ekspertami branżowymi i dopasowane do aktualnych potrzeb rynku IT. To świetna okazja, jeśli chcesz dzielić się wiedzą, inspirować innych i budować przyszłość nowych specjalistów IT w Polsce. Zakres obowiązków: Prowadzenie zajęć online na żywo, dwóch razy w tygodniu w godzinach wieczornych (zazwyczaj 18:00–21:00), w grupach maksymalnie do 20 osób – zgodnie z formatem kursu Data Science & Machine Learning Prowadzenie praktycznych warsztatów: analiza i przetwarzanie danych przy użyciu Python, Pandas, NumPy; budowanie i wdrażanie modeli uczenia maszynowego z wykorzystaniem Scikit-learn; podstawy głębokiego uczenia z TensorFlow / Keras lub PyTorch; praca z bazami danych SQL, narzędziami Jupyter Notebook, Git oraz środowiskami chmurowymi Mentoring i wsparcie indywidualne: odpowiadanie na pytania uczestników, udzielanie konsultacji technicznych, pomoc przy projektach analitycznych i modelach ML – zgodnie z podejściem LearnIT, w którym trenerzy są aktywnie zaangażowani i wspierają rozwój uczestników Prowadzenie sesji feedbackowych, ocena postępów kursantów, przeprowadzenie próbnych rozmów rekrutacyjnych pod kątem stanowisk Data Analyst / Data Scientist Udział w doskonaleniu procesu nauczania: udział w spotkaniach metodycznych, wymiana dobrych praktyk w gronie trenerów, udział w procesie ewaluacji i ulepszania programów kursowych Oferujemy: Elastyczną formę współpracy – umowa B2B lub zlecenie, dostosowaną do Twojej dostępności i preferencji. Atrakcyjne wynagrodzenie godzinowe zależne od doświadczenia i zakresu prowadzonych kursów. Pracę w 100% zdalną – zajęcia online na żywo, prowadzone z dowolnego miejsca. Stałe wsparcie metodyczne i techniczne – materiały dydaktyczne, scenariusze zajęć, onboarding dla trenerów. Możliwość realnego wpływu na rozwój kursów – aktywny udział w doskonaleniu programów i współtworzeniu treści edukacyjnych. Małe grupy kursantów (do 15 osób) – dzięki temu masz czas dla każdego uczestnika i komfort prowadzenia zajęć. Zaangażowanych i zmotywowanych uczestników – większość kursantów to osoby przebranżawiające się, które mają jasno określony cel zawodowy. Długofalową współpracę – możliwość prowadzenia kolejnych edycji kursów Python Developer, Data Science oraz QA-Python. Ścieżkę rozwoju jako trener IT – szkolenia wewnętrzne, wymiana doświadczeń z innymi ekspertami, wsparcie w budowaniu marki osobistej. Przyjazną atmosferę i partnerską współpracę – w LearnIT stawiamy na otwartość, feedback i wspólny rozwój.
Data Scientist (modele rekomendacyjne) | Branża E-commerce
Edge One Solutions Sp. z o.o.
⚲ Warszawa
Wymagania
- Python
- SQL
- Git
- Linux
Nasze wymagania: Doświadczenie komercyjne na stanowisku Data Scientist Bardzo dobra znajomość Python w kontekście analizy danych i pracy z modelami ML Bardzo dobra znajomość SQL (praca na danych, analizy, zapytania) Doświadczenie w pracy z systemami kontroli wersji (Git) Doświadczenie w pracy z narzędziami orkiestracji procesów danych (np. Airflow lub narzędzia o podobnym przeznaczeniu) Umiejętność przekładania potrzeb biznesowych na rozwiązania oparte o ML Doświadczenie w pracy nad modelami rekomendacyjnymi Gotowość do pracy nad nowymi, nieoczywistymi problemami analitycznymi Bardzo dobre umiejętności komunikacyjne i gotowość do ścisłej współpracy z biznesem Umiejętność zbierania, doprecyzowywania i rozumienia wymagań użytkowników końcowych Samodzielność i odpowiedzialność Mile widziane: Podstawowa znajomość systemów Linux Doświadczenie produktowe Doświadczenie w pracy z LLM-ami Udział w projektach związanych z rozwojem chata LLM wspierającego sprzedaż O projekcie: Nasz klient to największa i najbardziej rozpoznawalna platforma e-commerce w Polsce oraz jedna z najszybciej rozwijających się firm technologicznych w Europie Środkowo-Wschodniej. Każdego miesiąca platformę odwiedzają miliony użytkowników, korzystając z setek milionów ofert sprzedawców. Platforma jest miejscem, gdzie innowacje spotykają się z realnymi potrzebami klientów i biznesów, a technologia odgrywa kluczową rolę w skalowaniu usług na kolejne rynki. O projekcie Poszukujemy mocnego Senior Data Scientista do zespołu rozwijającego modele rekomendacyjne. Projekt jest w trakcie realizacji i prowadzony w ścisłej współpracy z biznesem. To rola dla osoby, która czuje się pewnie zarówno w obszarze Data / ML, jak i w rozmowach z użytkownikami końcowymi rozwiązań. Zakres obowiązków: Praca nad modelami rekomendacyjnymi Analiza problemów biznesowych i przekładanie ich na potrzeby ML-owe Ścisła współpraca z biznesem i użytkownikami rozwiązań (dużo rozmów, zbieranie i doprecyzowywanie wymagań) Podejmowanie nowych, nieoczywistych wyzwań analitycznych Współpraca w zespole projektowym w trakcie trwania projektu Oferujemy: Zyskujesz indywidualne wsparcie Service Delivery Managera, który pomoże Ci zaplanować ścieżkę kariery i zadba o Twój komfort i satysfakcję z pracy w projekcie Szkolenia, certyfikaty i konferencje - dofinansowujemy lub w pełni pokrywamy koszty rozwoju kompetencji technicznych SmartChange – umożliwiamy zmianę projektu i dobieramy kolejny zgodnie z Twoimi preferencjami Dbamy o Twój work-life balance, dlatego poza pracą oferujemy wyjścia integracyjne, aktywności sportowe i inspirujące webinary #edge1talks, które rozwijają i łączą ludzi Aktywność fizyczna – wspieramy sportowe inicjatywy i wynajem sal treningowych Pakiet zdrowotny – prywatna opieka, karta sportowa, ubezpieczenie i wsparcie psychologiczne (HearMe) Elastyczne benefity – sam decydujesz, na co przeznaczasz punkty w naszym systemie benefitowym Bezpłatne lekcje języka angielskiego – dopasowane do Twojego poziomu, idealne do pracy w międzynarodowym środowisku
Data Scientist
B2B.NET S.A.
⚲ Gdańsk, Gdynia, Warszawa
120–150 zł netto (+ VAT) / godz.
Wymagania
- Python
- SQL
- Excel
- DAX
- GIT
O projekcie: Celem projektu jest zwiększenie stabilności IT poprzez identyfikację, kwantyfikację oraz mitygację problemów i ryzyk IT z wykorzystaniem zaawansowanej analityki danych, w tym analityki predykcyjnej i preskryptywnej. Projekt koncentruje się na: Zapobieganiu incydentom IT lub redukcji ich skutków, Skracaniu MTRS oraz ograniczaniu prawdopodobieństwa ponownych incydentów, Automatyzacji raportowania IT Ops, w tym raportowania wydajności dostawców, Dostarczaniu planów usprawnień do CSI (Continual Service Improvement). Zakres obowiązków: Rozwój i utrzymanie rozwiązań analitycznych w Power BI Service / Microsoft Fabric. Budowa modeli Machine Learning. Automatyczna identyfikacja root cause niestabilności krytycznych systemów IT. Projektowanie modeli predykcyjnych ograniczających ryzyko incydentów i zmian powodujących incydenty. Tworzenie generatywnych modeli AI dla w pełni zautomatyzowanych, samoobsługowych raportów (GenAI self-reporting). Budowa zaawansowanych raportów i dashboardów (Deep Analysis). Analiza, przetwarzanie i modelowanie danych oraz interpretacja wyników w celu tworzenia actionable insights. Zapewnienie kompletności i jakości danych zgodnie z najlepszymi praktykami data governance. Ścisła współpraca ze stakeholderami oraz współtworzenie przyszłej usługi Insights Data Analytics. Praca w autonomicznym zespole Scrum w ramach SAFe.
Data Scientist
PwC
⚲ Gdańsk, Kraków, Łódź, Poznań, Warszawa, Wrocław
Wymagania
- Docker
- Kubernetes
- AWS
Nasze wymagania: Minimum of 1 year of experience in data science or research & development, University degree (preferred in Statistics, Econometrics, Mathematics or Computer Science), Proficient knowledge in Python programming language, Familiarity with several key Data Science and Machine Learning packages (e.g., pandas, polars, scikit-learn, Keras, PyTorch, LightGBM), Knowledge of Generative AI concepts (e.g. prompt engineering, RAG, AI agents), Excellent written & spoken English, Creative and critical thinking skills, Curiosity and eagerness to learn about multiple business processes and disciplines. Mile widziane: Knowledge and experience in relational databases (SQL, data warehouse), Ability to create simple proof of concept applications in Python (Streamilt, Poetry), Interest in solving problems and addressing business challenges with Data and AI. Experience in Generative AI-based tools (langchain, langgraph, Vertex AI, Azure OpenAI, or similar technologies) or, Experience in MLOps/DevOps technologies (Docker, Kubernetes, REST API, CI/CD, Linux) or, Experience in Cloud solutions (Azure, AWS or GCP preferred). Zakres obowiązków: Be part of the Data Science (R&D) team and take data throughout its full lifecycle - research, exploration, preprocessing, development, integration and implementation, Engage in brainstorming sessions and develop prototypes or proofs of concept that utilize Data Science methods to tackle FinCrime-related challenges, Collaborate with other departments and clients to understand processes and come up with tailored solutions, Create automation solutions based on AI agents, Generative AI models, Machine Learning techniques, Contribute to the development of data science products from technical perspective (application backend, data pipelines) and from sales perspective (pricing, solution architectures, visual representation of the concepts, key value drivers), Support junior and mid-level team members through mentoring and technical assistance, Participate in training, certifications, and conferences (also as a speaker, if you wish), Work in an Agile environment alongside backend/frontend/low-code developers, DevOps, and business analysts. Oferujemy: Work flexibility - hybrid working model, flexible start of the day, workation, sabbatical leave, Development and upskilling - our full support during onboarding process, mentoring from experienced colleagues, training sessions, workshops, certification co/financed by PwC and conversations with native speaker, Wide medical and wellbeing program - medical care package (incl. freedom of treatment, physiotherapy, discounts on dental care), coaching, mindfulness, psychological support, education through dedicated webinars and workshops, financial and legal counseling, Possibility to create your individual benefits package (a.o. lunch pass, concierge, veterinary package for a pet, massages) and access to a cafeteria - vouchers, discounts on IT equipment and car purchase, 3 paid hours for volunteering per month, Additional paid Birthday Day off, And when you start enjoying PwC as much as we do, you may recommend your friend to work with us.
Data Platform Engineer (Databricks/Python/AI)
SQUARE ONE RESOURCES sp. z o.o.
⚲ Warszawa, Mokotów
150–170 zł netto (+ VAT) / godz.
Wymagania
- SQL
- Python
- Data Warehouse
- ANSI-SQL
- Azure DevOps
- Databricks
- Lakehouse
- LLMs
- Snowflake Data Cloud
Nasze wymagania: Previous roles as a Data Engineer, Data Warehouse Developer, Data Analyst, Business Intelligence Developer, or related positions. Hands-on experience with Data Warehouse, Data Platform, or Lakehouse implementation or enhancement projects. Experience with documentation such as Source-to-Target matrices, Business Requirements, and Business Glossary. Participation in complex data integration projects involving multiple sources. Experience optimizing SQL and Python code using AI models. Experience in UAT (User Acceptance Testing) with key organizational stakeholders. Teamwork experience in Agile environments. Advanced proficiency in ANSI-SQL. Advanced Python programming skills. Excellent communication skills and ability to build business relationships remotely. Knowledge and practical experience with CI/CD change management standards. Accuracy and entrepreneurial mindset in task execution. Practical experience with Azure Databricks Lakehouse technology. Experience using Databricks connectors for source system integration. Ability to design and orchestrate complex data flows in a medallion architecture for Enterprise Data Platforms. Experience applying LLM AI models for code generation in data transformation and ingestion on Databricks. Ability to design data models, including Star and Snowflake schemas, for efficient analytics. Knowledge of performance optimization techniques for data warehouses, such as indexing, partitioning, and caching. Monitoring new technologies and trends in data warehousing and proposing adoption for platform optimization. English proficiency at B2/C1 level. O projekcie: You will be part of a team developing production-ready software for a Cloud Data Platform. Your work will focus on designing and implementing data structures, data transformation workflows, and quality monitoring mechanisms. The project involves optimizing data processing scripts in SQL and Python for cloud environments and collaborating closely with data analysts, DevOps engineers, and solution architects to evolve and maintain the Data Platform. This role is central to implementing data engineering solutions for Data Lakehouse and Data Intelligence Platforms, ensuring compliance with data management and governance best practices, and integrating multiple data sources efficiently. Zakres obowiązków: Develop and implement production-ready code for the Cloud Data Platform, including data structures, transformation workflows, and quality monitoring. Optimize SQL and Python scripts for efficient data processing in a cloud environment. Collaborate closely with data analysts, DevOps engineers, and architects on platform development and change implementation. Deliver both functional and non-functional requirements related to data flow modifications. Implement solutions specific to Data Lakehouse and Data Intelligence Platform products. Define rules and build tools supporting data quality control processes. Develop and implement data management and data governance best practices. Work with IT system administrators to design optimal interfaces for data exchange with the Cloud Data Platform. Identify, integrate, and configure reference data interfaces between the Data Platform and source systems.
Data Migration Architect (k/m)
UPVANTA SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Wrocław, Fabryczna
28 000–40 000 zł netto (+ VAT) / mies.
Nasze wymagania: doświadczenie z Apache Airflow i Python, minimum 5 lat doświadczenia bardzo dobra znajomość modelu danych w ubezpieczeniach, znajomość pojęć takich jak: policy, quote, endorsement, coverage, policy transaction, roles in policy, risk items. znajomość EIS – mile widziane O projekcie: Zaprojektowanie, zaplanowanie, wdrożenie i przeprowadzenie migracji danych ubezpieczeniowych z istniejącej platformy do nowego systemu. Zakres obowiązków: projektowanie i realizacja migracji danych, budowa i utrzymanie pipeline’ów danych w Apache Airflow, tworzenie skryptów migracyjnych w Pythonie, analiza i mapowanie modeli danych ubezpieczeniowych, zapewnienie poprawności i spójności migrowanych danych.
Data Engineer Associate
ZS.com
⚲ Warszawa
Wymagania
- Python
- Java
- Scala
- Hadoop
- Microsoft Azure
- AWS
- Kafka
Nasze wymagania: A relevant Bachelors or higher-education degree in Computer Science, Data Science, or related fields. 1-3 years of experience in a data engineering related role, with a focus on building scalable, reliable, and high-performance data systems. Proficiency in programming languages such as Python, Java, or Scala. Extensive experience with big data technologies (e.g., Hadoop, Spark, Kafka) and cloud-based data platforms (e.g., AWS, Azure). Expertise in data integration and ETL tools (e.g., Talend, Informatica, Apache NiFi). Strong understanding of data warehousing, and data lake concepts and best practices. Familiarity with CI/CD pipelines and application monitoring practices. Certifications in data engineering (e.g., Azure Data Engineer, AWS Certified Data Engineer) are a plus. Proven track record of designing and implementing data pipelines, data storage solutions, and data processing workflows. Hands-on experience with distributed computing frameworks and cloud-based data services. Demonstrated ability to collaborate with cross-functional teams and communicate technical solutions effectively. Strong communications skills. Zakres obowiązków: Build, orchestrate and optimize data pipelines to extract, transform, and load (ETL) data from various sources into the organization's data warehouse or data lake. Integrate data from diverse sources such as databases, APIs, streaming platforms, and file systems into cohesive data pipelines. Implement data integration solutions that support real-time, batch, and incremental data processing. Implement data quality checks and validation processes to ensure the accuracy, completeness, and consistency of data. Develop and maintain high-performance data pipelines that seamlessly integrate data from various sources into data warehouses, data lakes, and other storage solutions. Develop monitoring and alerting mechanisms to identify and address data quality issues proactively. Optimize ETL (Extract, Transform, Load) processes for efficiency, reliability, and data quality. Implement and manage data storage solutions, including relational databases, NoSQL databases, and distributed file systems. Manage the infrastructure and resources required to support data engineering workflows, including compute clusters, storage systems, and data processing frameworks. Implement security controls and data governance measures for an application to protect sensitive data and ensure compliance with regulatory requirements such as GDPR, CCPA, HIPAA, and PCI-DSS. Implement encryption, access controls, and auditing mechanisms to safeguard data privacy and integrity. Write production-ready, testable code that adheres to engineering best practices and accounts for edge cases and error handling. Develop comprehensive unit tests and integration tests to validate data pipeline functionality and data integrity. Stay up to date with the latest data engineering tools, technologies, and methodologies, and evaluate their applicability to the team's needs. Collaborate with business analysts, and other stakeholders to understand data requirements and translate them into robust engineering solutions. Work closely with other engineering teams to integrate data solutions seamlessly into the overall technology ecosystem. Participate actively in agile ceremonies, communicate progress, and manage dependencies effectively. Oferujemy: Perks & Benefits: ZS offers a comprehensive total rewards package including health and well-being, financial planning, annual leave, personal growth and professional development. Our robust skills development programs, multiple career progression options and internal mobility paths and collaborative culture empowers you to thrive as an individual and global team member. We are committed to giving our employees a flexible and connected way of working. All employees are expected to work from the office at least once per week. For those based outside of Warsaw, attendance will be required on specific days or for team events, which are anticipated to take place approximately two days per month. The magic of ZS culture and innovation thrives in both planned and spontaneous face-to-face connections. Travel: Travel is a requirement at ZS for client facing ZSers; business needs of your project and client are the priority. While some projects may be local, all client-facing ZSers should be prepared to travel as needed. Travel provides opportunities to strengthen client relationships, gain diverse experiences, and enhance professional growth by working in different environments and cultures.
Data Engineer (m/k/n)
Nexio Management Sp. z o.o.
⚲ Warszawa
Wymagania
- Python
- Azure
- Azure Databricks
- Data Pipelines
Nasze wymagania: Minimum 3 lata doświadczenia na stanowisku Data Engineer Praktyczne doświadczenie w pracy z Azure Databricks, Azure Functions i Azure Event Hubs. Bogate doświadczenie w tworzeniu potoków ETL/ELT. Bardzo dobra znajomość Python. Doświadczenie w integracji API lub usług analitycznych z pipeline’ami danych. Bardzo dobra znajomość przetwarzania danych w systemach rozproszonych, monitorowania, odporności i jakości danych. Język angielski na poziomie min. B2. Mile widziane: Doświadczenie z architekturą streamingową lub event-driven Integracja modeli ML lub rozwiązań analitycznych w pipeline’ach produkcyjnych Znajomość koncepcji Generative AI, RAG lub integracji LLM O projekcie: Poszukujemy Data Engineera, który będzie odpowiedzialny za budowę i rozwój nowoczesnych pipeline’ów danych w środowisku Microsoft Azure. Osoba na tym stanowisku będzie pracować nad rozwiązaniami umożliwiającymi przetwarzanie dużych wolumenów danych oraz ich wykorzystanie w analityce, systemach platformowych oraz rozwiązaniach opartych o AI Zakres obowiązków: Projektowanie, budowa i optymalizacja pipeline’ów danych. Tworzenie skalowalnych procesów ETL / ELT do przetwarzania danych z różnych źródeł. Integracja źródeł danych opartych o architekturę zdarzeniową (event-driven). Wdrażanie rozwiązań umożliwiających wykorzystanie danych w analityce, usługach platformowych oraz komponentach AI. Współpraca z architektami i zespołami developerskimi przy projektowaniu rozwiązań data platform. Dbanie o wydajność, stabilność oraz monitorowanie pipeline’ów danych. Optymalizacja kosztów i wydajności przetwarzania danych w środowisku Azure. Oferujemy: Stabilność zatrudnienia – długofalowe projekty, współpraca z wiodącymi firmami, możliwość rozwoju w różnych obszarach branży IT. Elastyczne formy współpracy – umowa B2B, umowa o pracę lub zlecenie. Benefity: Medicover (rozszerzony o stomatologię), FitProfit, lekcje języka angielskiego. Treningi na siłowni F45 - zlokalizowanej w naszym biurze. Wspólnie ćwiczymy pod okiem profesjonalnych trenerów. Wewnętrzny program poleceń. Możliwość finansowania certyfikatów IT. W zależności od projektu pracujemy w trybie hybrydowym, zdalnym lub stacjonarnym. Wydarzenia okolicznościowe oraz wyjazdy integracyjne - budujemy zgrany zespól również poza biurem. Lubimy pomagać - wspieramy akcje charytatywne, takie jak Szlachetna Paczka, a w ramach #PomagamyNexio angażujemy się tam, gdzie naprawdę możemy coś zmienić.
Data Engineer (Databricks)
Addepto
⚲ Gdańsk, Katowice, Kraków, Grzegórzki, Poznań, Warszawa, Śródmieście, Wrocław, Stare Miasto
15 120–21 000 zł / mies. (zal. od umowy)
Wymagania
- Python
- Databricks
- SQL
- Microsoft Azure
- Airflow
- Dagster
- Apache Spark
- Microsoft Power BI
- Azure Event Hub
- Kafka
- Terraform
Nasze wymagania: At least 3 years of commercial experience implementing, developing, or maintaining Big Data systems. Strong programming skills in Python: writing a clean code, OOP design. Experience in designing and implementing data governance and data management processes. Familiarity with Big Data technologies like Airflow or Dagster, Databricks, Spark, Azure Event Hub or Kafka. Experience implementing and deploying solutions in cloud environments (with a preference for Azure). Knowledge of how to build and deploy Power BI reports and dashboards for data visualization. Excellent understanding of dimensional data and data modeling techniques. Excellent communication skills and consulting experience with direct interaction with clients. Ability to work independently and take ownership of project deliverables. Master’s or Ph.D. in Computer Science, Data Science, Mathematics, Physics, or a related field. O projekcie: As a Data Engineer, you will have the exciting opportunity to work with a team of technology experts on challenging projects across various industries, leveraging cutting-edge technologies. Here are some of the projects we are seeking talented individuals to join: • Design and development of a universal data platform for global aerospace companies. This Azure and Databricks powered initiative combines diverse enterprise and public data sources. The data platform is at the early stages of the development, covering design of architecture and processes, as well as giving freedom for technology selection. • Data Platform Transformation for energy management association body. This project addressed critical data management challenges, boosting user adoption, performance, and data integrity. The team is implementing a comprehensive data catalog, leveraging Databricks and Apache Spark/PySpark, for simplified data access and governance. Secure integration solutions and enhanced data quality monitoring, utilizing Delta Live Table tests, established trust in the platform. The intermediate result is a user-friendly, secure, and data-driven platform, serving as a basis for further development of ML components. • Design of the data transformation and following data ops pipelines for global car manufacturer. This project aims to build a data processing system for both real-time streaming and batch data. We’ll handle data for business uses like process monitoring, analysis, and reporting, while also exploring LLMs for chatbots and data analysis. Key tasks include data cleaning, normalization, and optimizing the data model for performance and accuracy. Zakres obowiązków: Design scalable data processing pipelines for streaming and batch processing using Big Data technologies like Databricks, Airflow and/or Dagster. Contribute to the development of CI/CD and MLOps processes. Develop applications to aggregate, process, and analyze data from diverse sources. Collaborate with the Data Science team on Machine Learning projects, including text/image analysis and predictive model building. Develop and organize data transformations using Databricks/DBT and Apache Airflow. Translate business requirements into technical solutions and ensure optimal performance and quality. Oferujemy: Work in a supportive team of passionate enthusiasts of AI & Big Data. Engage with top-tier global enterprises and cutting-edge startups on international projects. Enjoy flexible work arrangements, allowing you to work remotely or from modern offices and coworking spaces. Accelerate your professional growth through career paths, knowledge-sharing initiatives, language classes, and sponsored training or conferences, including a partnership with Databricks, which offers industry-leading training materials and certifications. Choose your preferred form of cooperation - B2B or a contract of mandate - and enjoy 20 fully paid days off. Participate in team-building events and utilize the integration budget. Celebrate work anniversaries, birthdays, and milestones. Access medical and sports packages, eye care, and well-being support services, including psychotherapy and coaching. Get full work equipment for optimal productivity, including a laptop and other necessary devices. With our backing, you can boost your personal brand by speaking at conferences, writing for our blog, or participating in meetups. Experience a smooth onboarding with a dedicated buddy, and start your journey in our friendly, supportive, and autonomous culture.
Data Engineer
PRETIUS SOFTWARE SP. Z O.O.
⚲ Warszawa, Włochy
150–180 zł netto (+ VAT) / godz.
Wymagania
- Databricks
- Cloud - Native
- Python
- SQL
- Azure
- Apache Airflow
- Snowflake
Nasze wymagania: 5+ years of experience in designing, developing and maintaining data pipelines and data processing workflows supporting enterprise and analytics and reporting. Hands-on experience with Databricks and Cloud-Native (data loading, querying, and validation) Strong background in building data pipelines using Apache Airflow Solid experience working with Cloud Data Platforms and Services (Azure, Databricks, Snowflake or equivalent) Strong proficiency in SQL and Python for data processing and analytics Previous experience working in international teams Good knowledge of English language (min. B2), with the ability to work effectively in an English-speaking environment O projekcie: At Pretius, we are looking for Data Engineer to an international project within the fuel industry. Location: Warsaw Work mode: hybrid (2 days per week in the office) Zakres obowiązków: Collaborate with a Data Engineers teams to implement shared standards, reusable components and best practices Work closely with multiple workstreams to ensure efficient coordination and timely delivery of migration activities Analyze business processes and translate them into clear and actionable data requirements Participate in code reviews, technical design discussions, continuous improvement initiatives and knowledge sharing Oferujemy: We focus on long-term relationships based on fair principles and reliability Co-financing of the Multisport card and Medicover private healthcare Modern office available Team bonding activities, internal courses, conferences, certifications
Data Engineer
CLOUDFIDE SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Warszawa, Praga-Południe
Wymagania
- Microsoft Azure
- Google Cloud Platform
- AWS
- Python
- SQL
- PostgreSQL
- Microsoft SQL Server
- Apache Spark
- Azure DevOps
- Apache Airflow
- Databricks
Nasze wymagania: 2+ years of experience delivering complex data warehouse / data lake / business intelligence solutions. 2+ years of experience as a Data Engineer or in a similar data engineering-focused role. 1+ year of experience working with cloud platforms - we use Azure, but AWS or GCP experience is also welcome. 2+ years of Python - strong coding skills and confidence in writing clean, production-ready code. 2+ years of SQL and hands-on experience with relational databases (SQL Server, PostgreSQL, or similar). Understanding of DWH data modeling and ETL/ELT development. General awareness of cloud architecture, networking, and security concepts. Creativity, openness to innovation, and a willingness to grow in dynamic, fast‑evolving projects. Mile widziane: Experience with Databricks, Apache Spark or PySpark. Knowledge of Apache Airflow (orchestration). Familiarity with Azure DevOps or GitHub Actions (CI/CD). O projekcie: Why Join Us At Cloudfide, you’ll work where data truly has impact, scale, and purpose. We design and deliver advanced Big Data and cloud-native data platforms for international clients, including major players in retail and Fortune 500. We process massive datasets, operate fully in the cloud ecosystem, and use the latest technologies, including AI, ML, and MLOps. Opportunity Overview You will join an engineering team responsible for building modern cloud data lake / data platform solutions. Tools like Databricks, cloud-native services, and CI/CD pipelines will be your daily drivers. Expect a wide variety of projects, support from exceptional engineers, and a culture of knowledge sharing, openness, and practical growth in your chosen direction. Zakres obowiązków: Building and launching data pipelines and data models in cloud environments (Azure is our main ecosystem). Close collaboration with clients - gathering requirements, discussing solutions, communicating progress clearly. Implementing best practices in data engineering: data integrity, quality checks, testing, documentation, and data lineage. Optimizing existing analytical solutions for performance, cost efficiency, and reliability. Contributing to cloud architecture design and standards (security, governance, scalability). Working with CI/CD, automation, monitoring, and production-ready processes (DataOps). Supporting integrations across BI/ML/DevOps teams. Oferujemy: Benefits: MyBenefit platform / Multisport Enel‑Med private medical care Professional Growth: Annual 2,000 PLN development budget Access to e‑learning platforms Real opportunities to expand responsibility and lead initiatives - most of our Leads come from internal promotions As the company continuously grows, you get real opportunities to expand your responsibilities, explore new areas, and even take ownership of your own initiatives. Work Environment: Long-term cooperation: UZ or B2B (we value stable, lasting relationships) Remote-first, work from anywhere in the world (workation) Flexible hours & strong focus on work-life balance Collaboration with top engineers you can truly learn from Flat structure - every voice counts, and you help shape the company Culture & Integration: Company-wide trips (including international ones) Team integration budgets Open communication and supportive, passionate teams
Data Engineer
Acxiom Global Service Center Polska sp. z o. o
⚲ Gdańsk, Oliwa
14 000–22 400 zł brutto / mies.
Wymagania
- SQL
- Python
Nasze wymagania: Understands requirements to build, enhance, or integrate data manipulation/automation programs and processes for one or more Acxiom Client solutions and/or applications. Is able to read and interpret application design and functional specifications to write or enhance application code Develops automation jobs for data orchestration, data analysis, and data transfers Using a relevant software language, develops/executes unit test cases and tests software applications that fulfill functional specifications. Documents and interprets test results and corrects application coding errors Provides input on functional requirements and participates/presents code in code review sessions Helps accurately estimate requirements in order to deliver client solutions within time and quality standards Interacts with client/stakeholders to understand and resolve problems in a timely manner, prioritizing multiple issue responses based on the severity of the case Mile widziane: Experience with online and offline data. eg. 3rd party MarTech data (Email send/response, Direct Mail send/response, Prospect Lists) and/or AdTech data (Digital Ad Impressions/Activity, Social, Website activity) Experience working in environments with strong data privacy and data governance Experience working Google Cloud Platform (GCP) ○ VertexAI, Cloud Functions, BigQuery, Workflows, Pub/Sub, Dataflow Hadoop architecture (Cloudera, Hortonworks, MapR) Client facing consulting experience Building reports in Looker, Tableau, or other BI Tools R experience Experience with the SAS programming language O projekcie: The Data Engineer within Analytics Services team in Acxiom will create solutions to business problems defined by specific business requirements. In this position, you will draw upon technical and data processing knowledge to solve complex marketing analytics problems on very large volumes of data. Zakres obowiązków: Experience in data science, engineering, and data analysis. Experience leveraging SQL and Python (dataframes) for data pipeline orchestration, file ingestion, data cleansing, data joining and relationships, data aggregation, data manipulation, and data analysis to create meaningful informed results that drive analytics and reporting Good English language communication skills: Ability to formulate and present insights to both technical and non-technical peers, leaders, and clients Ability to develop creative solutions to abstract analytic problems with minimal guidance on the parameters for the final product Experience troubleshooting and performance tuning data, code, and environmental configurations Excellent understanding of data concepts, data architecture, data manipulation/engineering, and data engineering design An understanding in multiple types of programming languages in order to be adaptable (statically typed vs. dynamically typed and object-oriented vs. procedural) Adaptable – Ability to adapt to diverse technical challenges and systems Multitasker – Ability to prioritize and deliver on multiple projects and tasks that are happening without sacrificing details Team player - Willingness to help others on the team with technical challenges, processes,, and best practices Desire to step beyond basic engineering tasks to understand the underlying data product in the context of the client needs and its significance to the account overall Self-Starter – Ability to manage time and workload effectively without the need for daily check-ins or assignment through project management software
Data & AI Engineer
Scalo Sp. z o.o.
⚲ Katowice
160–205 zł netto (+ VAT) / godz.
Wymagania
- Python
- procesy ETL
- Java
- Cloudera
- GCP
- Airflow
- Git
- Terraform
- Hadoop
Nasze wymagania: jesteś Data Engineerem z co najmniej 5-7-letnim doświadczeniem zawodowym, masz solidne doświadczenie w projektach migracyjnych (ze środowiska on premise na chmurę) bardzo dobrze znasz język Python (pod względem procesów ETL, pipeline'ow danych, automatyzacji), dobrze znasz Java (szczególnie w kontekście przetwarzania danych, m.in. Spark, Beam), posiadasz doświadczenie w projektowaniu i realizacji złożonych pipeline'ów danych (batch i streaming) w środowiskach produkcyjnych, potrafisz tworzyć architekturę rozwiązań danych w GCP z uwzględnieniem skalowalności, bezpieczeństwa i kosztów, możesz pochwalić się praktyczną znajomością narzędzi orkiestracji, CI/CD i automatyzacji (Airflow, Git, Terraform lub podobne), Twój poziom języka angielskiego pozwala na swobodną komunikację (najlepiej poziom C1), posiadasz doświadczenie w pracy w środowisku międzynarodowym oraz w projektach realizowanych z udziałem zewnętrznych partnerów technologicznych, masz doświadczenie w analizie istniejących rozwiązań legacy i rekomendowaniu docelowych architektur w chmurze, posiadasz wiedzę niezbędną do rozumienia zagadnień Data Governance, bezpieczeństwa danych i kontroli dostępu w środowiskach chmurowych, lubisz samodzielną pracę i nie boisz się podejmować ważne decyzje techniczne, ale cenisz też sobie pracę zespołową, wyróżniają Cię wysokie kompetencje komunikacyjne. Mile widziane: praktyczne doświadczenie w pracy z Cloudera lub podobnymi platformami Hadoop. O projekcie: W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom. Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie. Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Zakres obowiązków: uczestnictwo w projekcie dotyczącym kompleksowej migracji platformy danych z Cloudera (on premise) do nowoczesnej architektury opartej o Google Cloud Platform oraz wdrożenia nowych rozwiązań Data/AI w chmurze w bankowości, analiza i inwentaryzacja istniejących rozwiązań legacy w Cloudera, wytyczanie ścieżki migracji (m.in. praca nad strategią, podejściem, rekomendacjami technicznymi), przeniesienie oraz modernizacja procesów do usług GCP, implementacja rozwiązań Data/AI z wykorzystaniem Dataproc, Dataflow, BigQuery, Cloud Composer i narzędzi automatyzacji, współpraca z zespołem Data oraz partnerami Klienta w środowisku międzynarodowym, praca w modelu zdalnym (warto jednak wziąć pod uwagę 2-3 dni onboardingu w Katowicach i sporadyczne warsztaty), stawka do 205 zł/h przy B2B w zależności od doświadczenia. Oferujemy: Stabilną współpracę i różnorodne projekty (Software, Embedded, Data, Cloud Services), możliwość rozwoju kompetencji jako Ambasador Scalo - doskonal skille techniczne i presalesowe w społeczności naszych ekspertów, wpływaj na rozwój organizacji, wspieraj innych, przestrzeń do budowania marki osobistej - twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako prelegent na wydarzeniach (np. ProMeet), prywatną opiekę medyczną - Luxmed, kafeteryjny system benefitów - Motivizer, dostęp do karty Multisport, program poleceń pracowniczych z nagrodami, integracje i wydarzenia firmowe.
Cloud Engineer Associate
ZS.com
⚲ Warszawa
Wymagania
- AWS
- Microsoft Azure
- Google Cloud Platform
- Azure DevOps
- PowerShell
- Jenkins
- GitHub
- Docker
- Kubernetes
- Python
- JavaScript
- Bash
Nasze wymagania: A relevant Bachelors or higher-education degree in Computer Science, Data Science, or related fields. 1-3 years of hands-on experience in cloud engineering, infrastructure, or related roles. Preferred certifications in cloud platforms (e.g., AWS, Azure, GCP). Deep understanding of the Azure platform, services, and features, including Azure Compute, Azure Storage, and Azure Networking. Good Proficiency in programming languages such as Python, JavaScript, or PowerShell for automation and scripting. Expertise in cloud security, including configuring security protocols, managing security services, and ensuring compliance. Familiarity with DevOps principles and tools (e.g., Azure DevOps, GitHub, Jenkins) for CI/CD and Infrastructure as Code. Good understanding of networking concepts and protocols, such as TCP/IP, HTTP, DNS, VPNs, and routing. Proficiency in at least one major cloud platform (AWS, Azure, or Google Cloud). Familiarity with containerization (Docker, Kubernetes) and serverless computing. Strong scripting skills (Python, PowerShell, Bash) for automation and infrastructure management. Knowledge of DevOps practices and tools. Strong communications skills. Zakres obowiązków: Collaborate with cross-functional teams to design cloud solutions that align with technical and business requirements as defined in Cloud infra document. Configure and deploy cloud resources using Infrastructure as Code (IaC) tools like Terraform, CloudFormation, or ARM templates. Writing scripts and leveraging automation tools to streamline repetitive tasks and improve efficiency in managing cloud resources. Documenting configurations, processes, and procedures related to cloud infrastructure, as well as preparing reports on system performance and incidents. Deploy and configure cloud infrastructure components, including virtual machines, containers, and databases. Implement infrastructure as code (IaC) practices to ensure consistent, repeatable, and automated cloud deployments. Monitor and optimize cloud resources for performance, security, and cost efficiency. Implement cloud migration projects, ensuring a seamless transition from on-premises to cloud environments as per defined practices in cloud infra design doc. Refactor legacy applications for cloud-native deployment, leveraging modern architectures and DevOps practices. Implement continuous integration and continuous delivery (CI/CD) pipelines using YAML scripts, Shell scripts, Tasks etc. to streamline cloud-based application deployments. Implement robust security controls, including identity and access management (IAM), encryption, and network security. Ensure compliance with industry standards (e.g., GDPR, HIPAA) and best practices. Develop and maintain automation scripts (e.g., Python, PowerShell) for provisioning and managing cloud resources. Orchestrate workflows using tools like Kubernetes, Jenkins, or Ansible to improve efficiency and reliability. Stay abreast of cloud industry trends, emerging technologies, and best practices. Pursue relevant certifications (e.g., AWS Certified Solutions Architect, Azure Solutions Architect) to deepen your expertise. Oferujemy: Perks & Benefits: ZS offers a comprehensive total rewards package including health and well-being, financial planning, annual leave, personal growth and professional development. Our robust skills development programs, multiple career progression options and internal mobility paths and collaborative culture empowers you to thrive as an individual and global team member. We are committed to giving our employees a flexible and connected way of working. All employees are expected to work from the office at least once per week. For those based outside of Warsaw, attendance will be required on specific days or for team events, which are anticipated to take place approximately two days per month. The magic of ZS culture and innovation thrives in both planned and spontaneous face-to-face connections Travel: Travel is a requirement at ZS for client facing ZSers; business needs of your project and client are the priority. While some projects may be local, all client-facing ZSers should be prepared to travel as needed. Travel provides opportunities to strengthen client relationships, gain diverse experiences, and enhance professional growth by working in different environments and cultures.
CCR / XVA Model Validation Lead (IMM)
HIBERUS POLAND SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Wrocław, Stare Miasto
25 200–36 960 zł netto (+ VAT) / mies.
Wymagania
- CCR
- XVA
- IMM
- Python
- NumPy
- pandas
Nasze wymagania: Advanced degree (Master’s or PhD preferred) in a quantitative discipline 5+ years of experience in model validation, model development, or quantitative risk Strong exposure to CCR / XVA and IMM frameworks Advanced understanding of Monte Carlo simulation, calibration techniques, and derivatives pricing Proven experience leading IMM backtesting / outcomes analysis Strong Python skills (NumPy, pandas) Excellent communication skills with the ability to translate quantitative topics into clear risk conclusions Mile widziane: Familiarity with supervisory guidance and Model Risk Management (MRM) frameworks Experience with: Margin models and SIMM / IM Market data risk controls (curves, volatility surfaces) XVA desk frameworks in front-office environments Experience leading cross-functional initiatives and mentoring O projekcie: We are supporting an international financial project and are looking for a senior quantitative professional to lead the validation of CCR (IMM) and XVA models across derivatives portfolios. Zakres obowiązków: Lead independent validation of CCR (IMM) and XVA models, covering conceptual soundness, implementation integrity, and ongoing performance monitoring Own IMM backtesting / outcomes analysis (EPE, EEPE, PFE), including methodology design, segmentation, thresholds, exception governance, and root-cause analysis Provide effective challenge of key modeling components: Monte Carlo exposure engines risk factor simulation and calibration curve construction, discounting, and portfolio aggregation Validate netting and collateral (CSA) mechanics (VM/IM where applicable), MPoR, close-out assumptions, and model limitations Develop and maintain benchmark / challenger models, sensitivity and stress-testing frameworks Perform implementation verification and controls testing (replication, reconciliation, numerical stability, data lineage/quality, change management) Present validation conclusions to MRM governance forums / Model Risk Committees and drive remediation plans with model owners and Technology Partner with Front Office, Market & Credit Risk, Finance, and Technology teams Mentor junior team members and contribute to CCR/XVA validation standards and best practices Oferujemy: Multisport card Private medical care
Business Intelligence Developer
MARATHON INTERNATIONAL SP. Z O.O. SPÓŁKA KOMANDYTOWA
⚲ Kostrzyn
8 000–12 000 zł netto (+ VAT) / mies.
Wymagania
- Microsoft Power BI
- T-SQL
- Microsoft Excel
- Microsoft SQL Server
- Python
- BPMN
- Figma
- Git
Nasze wymagania: Minimum 2 lata doświadczenia w obszarze Business Intelligence lub analizy danych. Bardzo dobra znajomość Power BI (modelowanie danych, DAX, Power Query, tworzenie raportów). Doświadczenie w pracy z SQL Server i T-SQL. Umiejętność analizy potrzeb biznesowych oraz przekładania ich na rozwiązania raportowe. Bardzo dobre umiejętności komunikacyjne. Podstawowa znajomość języka angielskiego. Mile widziane: Znajomość TMDL. Uczestnictwo w projektach rozwoju hurtowni danych. Znajomość systemu CRM Bitrix24. Zakres obowiązków: Projektowanie, rozwijanie oraz utrzymanie dashboardów i raportów biznesowych z wykorzystaniem Power BI. Pełnienie roli eksperta i kluczowego wsparcia dla organizacji w zakresie zagadnień BI. Projektowanie modeli danych, w tym relacji, kolumn obliczeniowych oraz miar (DAX), zgodnie z wymaganiami biznesowymi. Integracja danych z różnych źródeł (np. SQL Server, Excel, SharePoint) oraz przygotowanie transformacji danych w Power Query. 5 .Budowa skryptów SQL dla realizacji wymagań raportowych. Tworzenie i utrzymanie procesów przetwarzania danych wykorzystywanych w raportach biznesowych. Wdrażanie i utrzymanie Row-Level Security (RLS) oraz zarządzanie dostępami użytkowników do raportów. Administracja workspace’ami w Power BI Service oraz zarządzanie datasetami i harmonogramami odświeżania danych. Wsparcie użytkowników końcowych w zakresie korzystania z raportów oraz analiz danych. Ścisła współpraca z Business Analyst w celu zrozumienia potrzeb biznesowych i przekładania ich na gotowe rozwiązania raportowe. Dokumentacja pracy w GitHub. Oferujemy: Współpracę w modelu B2B. Benefity wspierające rozwój i komfort pracy. Nowoczesne narzędzia pracy. Dużą samodzielność i realny wpływ na rozwój firmy. Szkolenia i wsparcie merytoryczne. Pracę w młodym, dynamicznym i zaangażowanym zespole.
Big Data Developer (Java & Python)
NESS SOLUTION sp. z o.o.
⚲ Warszawa
150–175 zł netto (+ VAT) / godz.
Wymagania
- Java
- Python
- Docker
- Kubernetes
- SQL
- Hadoop
- Spark
- Kafka
- NiFi
- Elasticsearch
- Hive
- Flink
- Jenkins
- Bamboo
- PostgreSQL
- Spring Boot
- Spring Framework
- Liquidbase
- IntelliJ
- PyCharm
- Git
Nasze wymagania: doświadczenie w projektowaniu i programowaniu systemów IT bardzo dobra znajomość Java oraz Python znajomość zasad programowania obiektowego i clean code doświadczenie w pracy z technologiami Big Data (np. Hadoop, Spark, Kafka, NiFi, Elasticsearch, Hive, Flink) doświadczenie w tworzeniu mikroserwisów oraz REST API doświadczenie w pracy z Docker oraz Kubernetes doświadczenie w pracy z narzędziami CI/CD (np. Jenkins, Bamboo) dobra znajomość SQL oraz doświadczenie w pracy z bazami danych (preferowany PostgreSQL) Mile widziane: doświadczenie w pracy z Spring Framework / Spring Boot znajomość baz NoSQL (MongoDB, HBase) doświadczenie w pracy z Liquibase znajomość narzędzi IntelliJ IDEA / PyCharm oraz Git znajomość języka angielskiego umożliwiająca pracę z dokumentacją techniczną doświadczenie w pracy w metodykach Agile / Scrum O projekcie: Poszukujemy doświadczonego Big Data Developera, który dołączy do zespołu rozwijającego systemy przetwarzania danych w środowisku Big Data. Osoba na tym stanowisku będzie odpowiedzialna za projektowanie i rozwój rozwiązań technologicznych wspierających kluczowe procesy biznesowe w organizacji. 📍 Warszawa – praca hybrydowa (min. 1 dzień w tygodniu z biura) 🏢 Projekt: systemy dla branży ubezpieczeniowej Zakres obowiązków: współpraca przy tworzeniu specyfikacji wymagań oraz projektowaniu rozwiązań IT projektowanie i rozwój systemów informatycznych w oparciu o architekturę systemową implementacja rozwiązań w technologiach Java oraz Python rozwój i utrzymanie komponentów Big Data oraz mikroserwisów tworzenie oraz rozwój REST API współpraca z zespołem developerskim oraz dostawcami zewnętrznymi review kodu oraz dbanie o jakość i zgodność z dobrymi praktykami programistycznymi wsparcie procesu wdrożeń oraz stabilizacja rozwiązań po implementacji udział w definiowaniu standardów projektowych i technologicznych Oferujemy: udział w długoterminowym i stabilnym projekcie pracę w dojrzałym zespole Scrumowym realny wpływ na rozwiązania techniczne i architekturę systemu współpracę z doświadczonym zespołem inżynierskim jasne procesy projektowe i technologiczne możliwość rozwoju w obszarze Big Data i nowoczesnych technologii
Architekt / Architektka Danych (obszar CRM i Billing)
NESS SOLUTION sp. z o.o.
⚲ Warszawa
155 zł netto (+ VAT) / godz.
Nasze wymagania: co najmniej 3 lata doświadczenia zawodowego (zdobyte w ciągu ostatnich 8 lat) w zakresie tworzenia i dokumentowania rozwiązań informatycznych w obszarze modelowania danych, udział w roli weryfikacyjnej lub realizacyjnej w co najmniej 2 projektach informatycznych obejmujących projektowanie i wdrożenie systemów informatycznych, w których realizowano tworzenie i dokumentowanie modelu danych, doświadczenie w co najmniej jednym projekcie dotyczącym zaprojektowania i wdrożenia systemu informatycznego w przedsiębiorstwie zajmującym się obrotem i/lub dystrybucją energii elektrycznej, w ciągu ostatnich 5 lat pełnienie roli Architekta w minimum 2 projektach zakończonych sukcesem, obejmujących zaprojektowanie, wytworzenie i wdrożenie modelu danych (projekty odebrane przez zamawiającego). Mile widziane: doświadczenie w projektach dla sektora energetycznego, znajomość systemów klasy CRM, Billing oraz systemów pomiarowych, doświadczenie w pracy w złożonych środowiskach integracyjnych i architekturze systemów przedsiębiorstwa. O projekcie: Poszukujemy Architekta Danych odpowiedzialnego za projektowanie oraz rozwój modeli danych dla systemów pomiarowych oraz systemów klasy CRM i Billing. Osoba na tym stanowisku będzie odpowiadała za weryfikację modeli danych, ich wysokopoziomowe modelowanie oraz nadzór nad implementacją w rozwiązaniach informatycznych, a także za definiowanie procesów utrzymania i dalszego rozwoju modelu danych. Zakres obowiązków: weryfikacja oraz wysokopoziomowe modelowanie danych dla systemów pomiarowych oraz systemów klasy CRM i Billing, projektowanie i dokumentowanie modeli danych dla rozwiązań informatycznych, nadzór nad procesem implementacji modelu danych w systemach IT, definiowanie procesów utrzymania, zarządzania i rozwoju modelu danych, współpraca z zespołami architektury, analityki oraz zespołami wdrożeniowymi przy realizacji projektów systemowych, zapewnienie spójności i jakości modeli danych w środowisku systemowym.
Analityk Systemowy / Analityczka Systemowa Hurtowni Danych
Integral Solutions
⚲ Warszawa
80–95 zł netto (+ VAT) / godz.
Wymagania
- Oracle
- PostgreSQL
- Jira
- Confluence
- Google Cloud Platform
Nasze wymagania: Minimum 3 lata doświadczenia w analizie systemowej oraz projektach IT Znajomość zasad projektowania i budowy hurtowni danych Doświadczenie w modelowaniu i profilowaniu danych Znajomość baz danych Oracle oraz PostgreSQL (projektowanie i budowa) Doświadczenie w modelowaniu komunikacji pomiędzy systemami Doświadczenie w analizie i projektowaniu interfejsów danych Bardzo dobre umiejętności analityczne oraz szybkie przyswajanie wiedzy Umiejętność prezentowania informacji na różnych poziomach szczegółowości Rozwinięte umiejętności komunikacyjne i doświadczenie we współpracy z biznesem Praktyczna znajomość narzędzi Confluence oraz Jira Mile widziane: Znajomość aspektów związanych z budową rozwiązań BigData wykorzystujących możliwości GenAI (przetwarzania danych niestrukturyzowanych takie jak transkrypcje audio, konwersje dokumentów tekstowych, obrazów itp.) Znasz bazy danych GCP: GCP Big Query O projekcie: Jesteśmy firmą technologiczną realizującą projekty IT oraz dostarczającą ekspertów dla dużych organizacji z sektora finansowego. Wspieramy naszych klientów w projektowaniu i rozwoju nowoczesnych platform danych, integracji systemów oraz transformacji cyfrowej. Obecnie poszukujemy Analityka Systemu do projektu związanego z Hurtownią Danych, który dołączy do projektu realizowanego dla jednego z dużych polskich banków. Zespół odpowiada za rozwój rozwiązań w obszarze Data Lake oraz hurtowni danych, integrację źródeł danych oraz budowę modeli analitycznych wspierających potrzeby biznesowe. Zakres obowiązków: Szukamy osoby z doświadczeniem w analizie systemowej w obszarze danych, która dobrze rozumie architekturę Data Lake / DWH oraz potrafi łączyć wymagania biznesowe z rozwiązaniami technologicznymi. Idealny kandydat potrafi analizować dane, projektować modele logiczne i fizyczne oraz współpracować z zespołami data engineering i biznesem przy tworzeniu rozwiązań zasilania i przetwarzania danych.
AI Engineer (AI/ML)
Mindbox Sp. z o.o.
⚲ Kraków
30 000–33 000 zł netto (+ VAT) / mies.
Wymagania
- Python
- Java
- Spring
- SQL
- PostgreSQL
- Redis
- Kubernetes
- Jenkins
- Azure DevOps
- Microsoft Azure
- Google Cloud Platform
Nasze wymagania: Programming Languages: Python (3+ years), Java (regular) Frameworks: FastAPI, LangChain, Data containers, Spring. Databases: SQL (PostgreSQL), Vector Databases, KV stores (Redis). Knowledge of Microservices architecture, Observability, API design, and Concurrency models. Experience with Azure / GCP, containers, Kubernetes, CI/CD (Jenkins, Azure DevOps, GCP Cloud Build). Practical experience in TDD, BDD. Understanding of LLM architectures and their application to domain-specific data. Experience with RAG (Retrieval-Augmented Generation), Prompt Engineering, and Agentic architecture. Knowledge of Machine Learning, Deep Learning, NLP, and experience in building NLP, ML & AI solutions. Strong communication and presentation skills in English. O projekcie: We are a dedicated team of six engineers working on innovative AI and ML projects that deliver high-impact solutions in a fast-moving and stable environment. Collaborating closely with business stakeholders, we aim to solve real-world financial challenges using advanced technologies. Zakres obowiązków: Design, test, and optimize prompts for Large Language Models (LLMs) to ensure high-quality, reliable outputs for Credit & Lending use cases. Develop and implement sophisticated solutions using Retrieval-Augmented Generation (RAG) and vector databases to extract insights from complex financial data. Participate in the full lifecycle of our solutions, from problem discovery and prototyping to design, implementation, and production deployment. Apply AI best practices to ensure fairness, transparency, and accountability in all models and applications. Collaborate with engineers, product managers, and business experts to align technical efforts with strategic goals. Write and maintain high-quality, testable, and reusable code.Utilize cloud platforms (Azure, GCP) for development, deployment, and scaling of AI models. Co-author solution designs and architecture and maintain products in production. Note: Detailed project information will be shared during the recruitment process. Oferujemy: Flexible cooperation model – choose the form that suits you best (B2B, employment contract, etc.) Hybrid work setup – remote days available depending on the client’s arrangements Collaborative team culture – work alongside experienced professionals eager to share knowledge Continuous development – access to training platforms and growth opportunities Comprehensive benefits – including Interpolska Health Care, Multisport card, Warta Insurance, and more High quality equipment – laptop and essential software provided
Team Lead Data Science (m/f/d)
Loyalty Partner Polska Sp. z o.o. (PAYBACK)
⚲ Warszawa, Wola
Wymagania
- Google Cloud Platform
- Vertex AI
- BigQuery
- Cloud Storage
- Machine Learning Models
- MLOps
Nasze wymagania: You have several years of professional experience in the development and operationalization of data science and AI products. You possess outstanding knowledge of Python, especially for data analysis, data engineering, and ML model development. You have deep hands-on experience with the Google Cloud Platform (GCP) and its relevant services (e.g. Vertex AI, BigQuery, Cloud Storage). You have sound knowledge and practical experience in MLOps, CI/CD, and ideally the use of tools like Terraform and dbt. You understand and master the entire lifecycle of machine learning models – from experimentation, training, deployment, monitoring to retraining strategies – and can implement them efficiently. You have the ability and experience to lead and foster a team, motivate employees, and support a collaborative working style. You are characterized by strong analytical skills, a structured approach to work, and a proactive attitude in solving complex problems. Excellent communication skills and fluent English complete your profile. Please send your cv in English Zakres obowiązków: As a Team Lead, you are responsible for the technical and disciplinary leadership of our Data Science team. You work hands-on in an cross-functional team and develop innovative data and AI products using machine learning methods. You are responsible for the entire lifecycle of machine learning models, from exploratory data analysis and feature engineering, to the selection and training of suitable algorithms, to the evaluation and validation of the models. You work on the Google Cloud Platform (GCP) and guide the deployment of ML models into production. As a technical expert, you establish best practices in the fields of data science, machine learning, and MLOps. In doing so, you proactively evaluate and integrate new methods and always stay up-to-date with the latest technology. You actively care for the personal and professional development of your team members. You work closely with business stakeholders to identify, evaluate, and implement concrete solutions for AI products. Oferujemy: Employment contract? Of course. With us you do not have to worry about stable employment. Benefits? We have them! Among other: corporate incentive program, sport card, private medical care. Lunch card? With the cooperation extended and permanent contract, you will receive additional funds to use for meal purchases. Working in a hybrid model? Of course! ! You work with us 2 days a week from home. Work wherever you want? In PAYBACK you have the opportunity. Working 100% remotely, also from European countries for 15 days a year. Flexible working hours? Sounds great! We start working between 7 to 10. Trainings? Of course. We provide training to develop hard and soft skills. Convenient location? Sure! We invite you to our new office at Rondo Daszyńskiego, but we are currently also working remotely. Dress code? We definitely say no. There are no rigid dress code rules in our company, sneakers are more than welcome. Friendly atmosphere at work? Yes! In PAYBACK, people are the most important asset. Something is missing? Open communication is our priority, so dare to ask!
Specjalista ds. Hurtowni Danych (k/m)
Media Expert
⚲ Łódź
Wymagania
- T-SQL
- Microsoft SQL Server
- SSIS
- SQL
- SSRS
- QlikView
- Qliksense
- Microsoft Azure
Nasze wymagania: Praktyczna znajomość języka zapytań SQL (T-SQL) Znajomość relacyjnych baz danych (MS SQL Server) Umiejętność tworzenia i zarządzania procesami ETL (SSIS) Bardzo dobra znajomości Excela Zdolność do analizowania i interpretacji danych Efektywne rozwiązywanie problemów technicznych Umiejętność pracy w zespole oraz komunikacji z innymi działami Zaangażowanie i chęci rozwoju Mile widziane: Umiejętność optymalizacji zapytań SQL Znajomość zagadnień związanych z administracją hurtowni danych Znajomość narzędzi raportowych i analitycznych (SSRS, QlikView/Qliksense) Znajomość usług chmurowych (Azure) Zakres obowiązków: Projektowanie oraz utrzymywanie architektury hurtowni danych zgodnie z potrzebami biznesowymi Kreowanie, implementowanie, monitorowanie i optymalizacja procesów przetwarzania danych Identyfikacja i rozwiązywanie problemów związanych z wydajnością oraz błędami w procesach hurtowni danych Opracowywanie raportów i analiz na potrzeby organizacji Analiza i integracja danych Oferujemy: Prywatną opiekę medyczną z dofinansowaniem Kartę sportową z dofinansowaniem Ubezpieczenie na życie dla Ciebie i Twojej rodziny Zniżki na zakupy w Media Expert Program Poleceń Pracowniczych Bony świąteczne Wsparcie Fundacji Mediaexpert „Włącz się” dla Ciebie i Twoich bliskich Baby Expert - wyprawkę dla Twojego nowo narodzonego dziecka
Specjalista / Specjalistka ds. Analizy Danych – Data Quality (mid)
B2B.NET S.A.
⚲ Warszawa
50–75 zł netto (+ VAT) / godz.
Wymagania
- SQL
- EXCEL
- Google Sheets
- Data Quality
- PowerBI
- Tableau
- Python
- Snowflake Data Cloud
- BiqQuery
- ETL
Nasze wymagania: Bardzo dobra znajomość SQL Bardzo dobra znajomość Excel / Google Sheets Doświadczenie w obszarze data quality Umiejętność budowania raportów wspierających decyzje biznesowe Doświadczenie we współpracy z interesariuszami Doświadczenie w Agile Mile widziane: Znajomość narzędzi BI Doświadczenie z hurtowniami danych Python lub R Znajomość procesów ETL Certyfikaty analityczne O projekcie: Projekt realizowany w dużej instytucji finansowej. Celem jest zapewnienie wysokiej jakości danych wykorzystywanych w raportowaniu i analizach biznesowych. Rola łączy pracę z bazami danych oraz ścisłą współpracę z biznesem — od zrozumienia potrzeby po dostarczenie mierzalnych wniosków. Zakres obowiązków: Pobieranie, łączenie i przetwarzanie danych z wielu źródeł (SQL) Weryfikacja jakości danych oraz identyfikacja anomalii Budowa raportów, dashboardów i wskaźników KPI Analiza trendów i odchyleń Przekładanie potrzeb biznesowych na metryki i hipotezy Dokumentowanie definicji wskaźników i procesów analitycznych Prezentowanie wyników interesariuszom Praca w środowisku Agile Oferujemy: Długoterminową współpracę (12+ miesięcy) Stabilny projekt w dużej organizacji z sektora finansowego Pracę w środowisku dużych zbiorów danych (hurtownie, BI, Agile) Model hybrydowy pracy
Solution Architect (Banking / Fintech)
Ailleron
⚲ Kraków, Czyżyny
Wymagania
- Spark
- Snowflake
- Synapse
- Java Springboot
- .NET Core
- SQL
Nasze wymagania: Min. 7 lat doświadczenia w IT, w tym doświadczenie w projektowaniu rozwiązań klasy enterprise, Doświadczenie w pracy z klientami – szczególnie w sektorze bankowym, finansowym lub fintech (mile widziane), Doświadczenie w projektowaniu architektury systemów (np. cloud, microservices, integracje), Dobrze czujesz się w pracy konsultingowej i potrafisz prowadzić prezentacje oraz budować relacje, Znasz język angielski na poziomie min. C1 i jesteś gotowy/a na okazjonalne podróże służbowe, Potrafisz tłumaczyć zagadnienia techniczne na język biznesowy, Masz doświadczenie w analizie i porównywaniu różnych podejść architektonicznych, Potrafisz szacować koszty rozwiązań (TCO, ROI). Mile widziane: Doświadczenie w obszarze Data / Big Data / AI / ML, Znajomość narzędzi takich jak Databricks, Spark, Snowflake, Synapse, MS Fabric lub podobnych, Doświadczenie w budowie platform danych lub systemów analitycznych. Znajomość frameworków programistycznych używanych w rozwiązaniach mikroserwisowych np Java Springboot, czy .Net core Systemy kolejkowe do zastosowań on-prem i chmurowe Bazy danych SQL i NoSQL Środowiska deploymentu kontenerów k8s/OpenShift/GKS/EKS/AKS Zagadnienia DevOPS/FinOPS/SecOPS na poziomie wiedzy architektonicznej O projekcie: Szukamy doświadczonego Solution Architecta, który będzie wspierał realizację projektów dla dużych organizacji z sektora bankowego i fintech. Osoba na tym stanowisku będzie odpowiadać za projektowanie i rozwój rozwiązań klasy enterprise, łącząc perspektywę technologiczną, biznesową oraz doradczą. Doświadczenie w obszarze Data & AI będzie dodatkowym atutem – szczególnie w kontekście projektów związanych z platformami danych czy analityką. To rola dla osoby, która chce łączyć architekturę systemów, pracę koncepcyjną oraz współpracę z klientem na poziomie strategicznym. Dlaczego warto do nas dołączysz? · Dołączysz do zespołu, który buduje nową linię biznesową i ma realny wpływ na kierunek, w jakim rozwija się cała organizacja, · Otrzymasz możliwość pracy nad rozwiązaniami dla dużych instytucji finansowych, ale równocześnie wpływ na tworzenie naszej własnej Data Platform jako produktu, · Będziesz współpracować z doświadczonymi zespołami Data Engineering, AI/ML i Cloud, a jednocześnie mieć przestrzeń do proponowania własnych pomysłów i rozwiązań. Zakres obowiązków: Prowadzenie rozmów z klientami i przekładanie ich potrzeb biznesowych na rozwiązania technologiczne klasy enterprise, Projektowanie architektury systemów (cloud/on-prem/hybrid) z uwzględnieniem skalowalności, bezpieczeństwa i wymagań regulacyjnych, Doradztwo technologiczne – wybór narzędzi i podejść architektonicznych z uwzględnieniem kosztów, ryzyk i korzyści, Współpraca z zespołami inżynierskimi przy projektowaniu i wdrażaniu rozwiązań, Wsparcie procesów sprzedażowych poprzez wiedzę ekspercką i udział w ofertowaniu, Analiza organizacji klientów i identyfikowanie szans oraz zagrożeń (technicznych i biznesowych), Współtworzenie strategii rozwoju rozwiązań technologicznych w firmie, Dzielenie się wiedzą i wspieranie rozwoju kompetencji architektonicznych w organizacji, Budowanie wizerunku eksperckiego poprzez udział w wydarzeniach branżowych. Oferujemy: Możliwość pracy zdalnej Prywatną opiekę medyczną z pakietem stomatologii, rehabilitacji i usługą wspacia psychologicznego Ubezpieczenie na życie Kartę Multisport Zajęcia z języka angielskiego/ niemieckiego Szkolenia zewnętrzne i wewnętrzne Programy wellbeingowe i inicjatywy integracyjne
Senior Solution Architect (Data Platform / Databricks)
GOLDENORE ITC sp. z o.o.
⚲ Warszawa
Wymagania
- Data Lake
- Data Platform
- Data Warehouse
Nasze wymagania: Doświadczenie w roli Solution Architect / Data Architect / Lead Data Engineer Doświadczenie w projektowaniu platform danych i architektury data & analytics Znajomość koncepcji Domain-Driven Design (DDD) Doświadczenie w pracy z architekturą Data Lake / Data Platform / Data Warehouse Znajomość wzorców transformacji danych oraz architektury medalion (Bronze / Silver / Gold) Doświadczenie w projektach integracji danych oraz modelowaniu domen danych Bardzo dobre umiejętności analityczne oraz komunikacyjne Doświadczenie we współpracy z zespołami biznesowymi i technologicznymi O projekcie: Do naszego zespołu poszukujemy doświadczonego Senior Solution Architect, który będzie wspierał realizację projektów data platform dla klientów z różnych branż technologicznych i finansowych. Rola obejmuje zarówno działania architektoniczne w projektach data & analytics, jak i wsparcie strategiczne przy rozwoju kompetencji technologicznych oraz współpracy z klientami. Praca odbywa się w modelu w pełni zdalnym (z możliwością okazjonalnej pracy z biura). Zakres obowiązków: Architektura i doradztwo Doradztwo architektoniczne w zakresie rozwiązań data platform oraz architektury danych Przygotowywanie rekomendacji technologicznych, analiz trade-offów, identyfikacja ryzyk oraz długu architektonicznego Prowadzenie przeglądów architektonicznych oraz konsultacji z klientem Modelowanie domen i integracja Modelowanie domen biznesowych w oparciu o Domain-Driven Design (DDD) Definiowanie encji, zdarzeń, relacji oraz reguł biznesowych Projektowanie zależności między domenami oraz przepływów danych Współpraca z zespołami Data Governance przy definiowaniu pojęć, metryk i standardów danych Dane, kontrakty i standardy Analiza źródeł danych oraz pipeline’ów danych Projektowanie data contracts dla źródeł i interfejsów danych Definiowanie standardów dotyczących modelowania danych, nazewnictwa, wersjonowania oraz jakości danych Transformacje i architektura danych Projektowanie transformacji danych w architekturze medalion (Bronze / Silver / Gold) Definiowanie wzorców transformacji, mapowania danych oraz obsługi zmian schematu Wsparcie zespołów data engineering przy implementacji transformacji danych Współpraca i koordynacja Współpraca z zespołami analitycznymi, data science i BI przy projektowaniu data products Koordynacja prac zespołów delivery (data engineering, QA, analitycy) Synchronizacja działań z zespołami klienta oraz zarządzanie zależnościami projektowymi Dodatkowe obszary zaangażowania Wsparcie działań sprzedażowych i doradczych (spotkania z klientami, PoC, analizy architektoniczne) Udział w wydarzeniach branżowych, webinarach i konferencjach Rozwój kompetencji architektonicznych w organizacji Udział w rozwoju rozwiązań technologicznych Oferujemy: Udział w projektach budowy nowoczesnych platform danych Współpracę z zespołem architektów i inżynierów danych Możliwość wpływu na architekturę rozwiązań data w projektach międzynarodowych w pełni zdalny model pracy Możliwość udziału w konferencjach, szkoleniach i certyfikacjach technologicznych Rozwój kompetencji w obszarze Data Platform, Cloud oraz Data Architecture
Senior PySpark Data Engineer
ITEAMLY SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Warszawa
23 000–30 000 zł netto (+ VAT) / mies.
Wymagania
- PySpark
- Microsoft Azure
- SQL
- Microsoft Power BI
Nasze wymagania: Minimum 5 years of experience in Data Engineering Strong hands on experience with PySpark (DataFrames, SparkSQL optimization, partitioning) Practical experience with Databricks and Azure Data Factory Knowledge of Azure SQL and core Azure services (Storage Accounts, KeyVault, VNET, Application Gateway, Azure Portal) Experience working with Delta, Parquet, and CSV file formats Experience with CI/CD processes Ability to work independently and solve problems with minimal supervision Strong written and spoken English Experience with Power BI O projekcie: We are looking for a Data Engineer to design and maintain modern data solutions built on Databricks, PySpark, and Microsoft Azure. The role focuses on developing scalable data platforms and supporting business use cases with reliable data pipelines. Zakres obowiązków: Design, build, and maintain scalable data pipelines Develop data processing and transformation workflows Support data ingestion from multiple sources into cloud environments Ensure performance, reliability, and data quality across solutions Collaborate with business and technical stakeholders to translate requirements into data solutions Contribute to documentation and continuous improvement of data processes Work in a distributed team environment, focusing on product and business goals Oferujemy: Work on modern data solutions in Azure and Databricks environment Flexible working model and stable long term cooperation Exposure to international projects and stakeholders Support for professional growth and continuous learning
Senior Node.js Developer (GraphQL & TypeScript)
Green Minds Sp. z o.o.
⚲ Warszawa
180–210 zł netto (+ VAT) / godz.
Wymagania
- Node.js
- Typescript
- GraphQL
- NoSQL (MongoDB and Neo4j)
- React
- Kafka
Nasze wymagania: Minimum 6 lat komercyjnego doświadczenia na stanowisku Backend / Node.js Developer, popartego pracą przy złożonych projektach międzynarodowych. Bardzo dobra znajomość Node.js Doświadczenie komercyjne w TypeScript Praktyczne doświadczenie w pracy z GraphQL (projektowanie schematów, resolvery) Doświadczenie w utrzymaniu i rozwoju systemów backendowych w środowisku produkcyjnym Dobra znajomość architektury aplikacji backendowych Znajomość języka polskiego Mile widziane: Doświadczenie z bazami NoSQL, w szczególności MongoDB i/lub Neo4j Znajomość systemów eventowych / streamingowych (np. Kafka) Podstawowa znajomość React Doświadczenie w pracy z systemami o złożonej architekturze O projekcie: Budujemy zaawansowaną platformę analityczną, w której sercem systemu jest dynamiczna struktura powiązań oparta na grafowej bazie Neo4j oraz przepływie danych w czasie rzeczywistym przez Kafkę. Twoim zadaniem będzie rozwój inteligentnej warstwy GraphQL, która spaja te technologie w spójne i wysokowydajne API, obsługujące złożone relacje między danymi. Zakres obowiązków: Rozwój i utrzymanie aplikacji backendowych w Node.js (TypeScript) Projektowanie, rozwijanie i utrzymanie GraphQL API Implementacja warstwy integracyjnej pomiędzy API a: bazami danych (MongoDB, Neo4j), systemami kolejkowymi / eventowymi (Kafka) Zapewnienie jakości, stabilności i skalowalności kodu Udział w przeglądach kodu oraz decyzjach technicznych Współpraca z innymi zespołami technicznymi Oferujemy: Jako Senior masz realny głos w kwestiach architektury i technologii. Praca z unikalnym zestawem technologii (Grafy + Kafka + GraphQL). Praca zdalna, Stabilność i rozwój
Senior Manufacturing Data Integration Analyst (OT/IT)
C&F
⚲ Warszawa
Wymagania
- MQTT
- Kafka
- Microsoft Azure
Nasze wymagania: Knowledge of manufacturing processes Knowledge of ISA-95 / ISA-88 Experience with and solid understanding of OT systems (PLC, SCADA, Historians) Knowledge of Unified Namespace (UNS) principles Event-driven architecture and pub/sub messaging (MQTT, Kafka) Data modeling and schema design (JSON, JSONSchema, Avro, AsyncAPI) Cloud integration fundamentals (Azure preferred) Foundational understanding of communication protocols used for integration in the IT/OT space (OPC-UA, BACNet, REST, WebService) Experience with relational databases, understanding of timeseries databases Strong analytical, documentation, communication and presentation skills Self-driven and persistent, able to independently push work forward Very good command of English (C1–C2) and Polish Mile widziane: Hands-on experience with MQTT brokers or UNS platforms Experience with Azure Event Hub, Kafka, or similar Knowledge of ISA-95 / Purdue / ISA-88 Experience in regulated or large-scale manufacturing environments O projekcie: This person will support the Unified Namespace (UNS) Platform program by gathering requirements, analyzing OT system and data, and designing standardized data models and integration patterns between OT systems, the UNS platform, and cloud systems. The role applies knowledge of manufacturing processes to ensure that factory data is correctly contextualized, semantically meaningful, and event-driven, enabling scalable analytics, reporting, and digital manufacturing use cases. Zakres obowiązków: Gather and document requirements from OT, IT, and cloud stakeholders Analyze level-2 (SCADA, PLC), level-3 (MES, LES/LIMS) and level-4 (ERP) data structures and events Design canonical data models, event schemas, and UNS topic hierarchies Define OT ⟷ UNS ⟷ Cloud integration patterns Support alignment with UNS standards, naming conventions, and governance rules Produce clear documentation (requirements, models, diagrams) Support architects and delivery teams during implementation Act as a technical bridge between automation, IT, architecture, security and data teams Oferujemy: You choose your employment type – we’re open to both employment contracts and B2B arrangements Learning & development opportunities – after your probation period, you’ll have access to a highly flexible and generous English language reimbursement program, along with an individual development budget to use as you see fit Classic benefits like private medical care, a sports card, and a preferential life insurance plan. Plus, our infamous Fruit Tuesdays and a special summer bonus – ice cream A hybrid work setup with plenty of flexibility. Delivery teams work mostly remotely. Support teams come to the office at least once a week – as an HR team, we meet every Wednesday. On other days, you decide where you work A bunch of non-work activities, including Office Day (a fun-filled day when employees from all over Poland gather at the office), POP UP integrations, various competitions from cooking to photography, and the chance to submit charity causes to our CF4GOOD program, which provides support to those in need A workplace that values people and is built on collaboration, not competition. If you’re tired of toxic work environments, you’ll finally get a chance to breathe. And if you’ve been lucky with great employers so far, we’ll do our best to keep that streak going
Senior IT Operations Specialist – Database Management Solutions
DCG sp. z o.o.
⚲ Warszawa, Gdynia, Gdańsk
20 160 - 23 520 PLN (B2B)
Wymagania
- Oracle
O projekcie: As a recruitment company, DCG understands that every business is powered by experienced professionals. Our management style and partnership approach enable us to meet your needs and provide continuous support. Due to our ongoing growth and the large number of recruitment projects we undertake for our partners, we are currently looking for: Senior IT Operations Specialist – Database Management Solutions Praca 3 dni z biura w tygodniu + 2 dni zdalnie (Warszawa, Gdańsk, Gdynia) Wymagania: - ITIL Foundation certification - 5+ years of hands-on experience in Oracle database and ETL operations and support - Strong expertise in Oracle architecture, database administration and performance optimization - Experience writing and optimizing SQL queries - Experience working with Linux environments and infrastructure management - Familiarity with DevOps tooling, such as Jenkins, Git and database change management tools (e.g. Liquibase, Flyway) - Solid programming skills in Python, Java or C# - Experience with monitoring and alerting tools (e.g. Splunk) - Strong troubleshooting, analytical and communication skills Nice to have: - Experience working with financial services or banking systems - Experience leveraging AI-powered development tools, such as GitHub Copilot, to improve operational workflows Codzienne zadania: - Provide daily operational support for Oracle databases and ETL solutions, including monitoring and troubleshooting - Accept, analyze and resolve support tickets related to database and ETL operations - Monitor system performance, database health and ETL job execution to ensure stable business process flows - Perform proactive system health checks and preventive maintenance activities - Manage incident response and coordinate with relevant teams during critical production issues - Investigate and troubleshoot complex issues in pre-production and production environments, including parallel production setups - Perform root cause analysis and contribute to structured problem management processes - Analyze Oracle logs, ETL job logs and system alerts using monitoring tools - Document solutions and maintain knowledge base articles for recurring operational issues - Execute database and ETL deployments in accordance with ITIL-based processes - Coordinate release activities across multiple environments, including Pre-Production and Production - Manage deployment schedules and communicate release activities with business stakeholders - Perform post-deployment verification and execute rollback procedures when necessary - Work closely with developers, analysts and business stakeholders to ensure smooth operational delivery - Maintain clear and timely communication regarding incidents, resolutions and operational improvements
Senior Data Scientist, AdTech (m/f/d)
HelloFresh
⚲ Warszawa
Wymagania
- Python
- SQL
- AWS
- Microsoft Azure
- Google Cloud Platform
Nasze wymagania: Data Science Background: A strong background in data science or a related quantitative field, with demonstrated success in applying machine learning techniques to solve business problems. Core Tech Stack Experience: High proficiency in working with Python (including libraries like pandas and scikit-learn) and SQL. Hands-on experience with core machine learning methodologies (e.g., regression, classification) and experimentation (e.g., A/B testing). Proactive Execution: A demonstrated ability to be accountable for deliverables from ideation to impact, with a focus on driving measurable outcomes and identifying potential issues before they become critical. Domain & Tool Experience: Previous experience in the MarTech or CRM domains. Modern Platform Proficiency: Experience with data platforms like Databricks or the PySpark ecosystem, and general familiarity with cloud platforms (AWS, GCP, or Azure). Generative AI Knowledge: Familiarity with or a strong interest in leveraging Generative AI models (e.g., LLMs) for content automation, including prompt engineering. Zakres obowiązków: Technical Guidance on Predictive Analysis: Provide expertise in the development and application of machine learning models to solve complex business problems, from churn prediction to large-scale personalization. Feature Development & Validation: Develop, prepare, and validate the critical data features that fuel models, ensuring they are robust and predictive. Model Performance Standards: Drive improvements in model quality and reliability by implementing industry best practices in validation, monitoring, and A/B testing. Insight Delivery: Partner with Product and Marketing functions, translating complex findings into actionable insights that guide strategy. Analytical Consultation: Proactively collaborate with stakeholders to frame business problems, translate needs into analytical solutions, and provide expertise on the use of Generative AI for content optimization. Methodological Perspective: Contribute to the success of the project by establishing analytical best practices and sharing a technical perspective to guide methodologies. Oferujemy: Global collaboration at scale: Collaborate with experienced engineers and product partners across HelloTech’s international teams, in a culture of active knowledge sharing. Technology with real-world impact: Build and operate modern systems at global scale, supporting 6+ millions of customers and complex supply chain operations. Technical/Product/Design leadership: Drive best practices and influence architecture/design, quality, and ways of working in an autonomous, product-led setup. End-to-end development/delivery: Drive decisions from problem definition to production, improving systems and enabling long-term scalability. Access to workspace at Warsaw Centre Point. The hub offers modern facilities including showers, breakout zones, outdoor space, cycle parking, and refreshments (coffee, soft drinks, and fruit).
Senior Data Scientist / Tech Lead
Addepto
⚲ Gdańsk, Katowice, Kraków, Grzegórzki, Poznań, Warszawa, Śródmieście, Wrocław, Stare Miasto
19 320–28 560 zł / mies. (zal. od umowy)
Wymagania
- LLM
- Python
- Machine Learning
- AI
- Computer Vision
- Cloud
- MLOps
Nasze wymagania: 6+ years of commercial experience in designing and implementing scalable AI solutions (Machine Learning, Predictive Modeling, Optimization, NLP, LLM, Computer Vision, GenAI). Experience in leading end-to-end Machine Learning projects and managing cross-functional teams. Proficiency in developing ML algorithms from scratch to production deployment. Strong programming skills in Python: writing clean code, OOP design, extensive knowledge of ML libraries (Scikit-Learn, PyTorch/Tensorflow). Proven expertise in deploying solutions in cloud environments (preferably AWS and/or Azure). Knowledge in applying LLMs (semantic search, prompt engineering, multimodal embeddings, RAG). High proficiency in English (C1 level). Excellent communication skills and consulting experience with direct interaction with clients. Working experience in SQL and NoSQL databases (MongoDB, Snowflake, Databricks). Good knowledge of CI/CD principles (GitHub and GitHub Actions). Familiarity with MLOps practices, Kubernetes and Docker. Bachelor’s or Master’s degree in Computer Science, Data Science, Mathematics, Physics, or a related field. Mile widziane: Experience with Big Data technologies like Spark, Hadoop, and Kafka is a plus. O projekcie: As an Senior Data Scientist / Tech Lead, you will have the exciting opportunity to work with a team of technology experts on challenging projects across various industries, leveraging cutting-edge technologies. Here are some of the projects we are seeking talented individuals to join: • AI optimization engine for airport operation management. This project involves creating an AI-driven optimization engine to streamline airport operations, using real-time data from sources like radar, air traffic, and passenger information. • AI recommendation engine for the leading innovation company. This project involves creation of AWS-powered solutions to provide domain-specific recommendations by employing sophisticated LLMs. Zakres obowiązków: Lead the development, implementation, and validation of Machine Learning solutions, ensuring alignment with project objectives. Lead the design of AI solution architectures that meet complex business goals and drive innovation. Research, test and select the best tools and technologies as well as AI solutions to meet the business requirements. Lead and mentor cross-functional teams, encouraging collaboration and helping everyone grow their skills. Understand clients’ needs and translate business problems into data science problems. Architect and oversee the implementation of data pipelines and workflows, setting standards for data quality and security. Coordinate with Data Engineering and Software Engineering teams to strategize and oversee the building of AI applications.. Present findings and recommendations clearly and concisely to stakeholders. Prioritize, and control tasks within an Agile/Scrum framework, ensuring timely delivery. Oferujemy: Work in a supportive team of passionate enthusiasts of AI & Big Data. Engage with top-tier global enterprises and cutting-edge startups on international projects. Enjoy flexible work arrangements, allowing you to work remotely or from modern offices and coworking spaces. Accelerate your professional growth through career paths, knowledge-sharing initiatives, language classes, and sponsored training or conferences, including a partnership with Databricks, which offers industry-leading training materials and certifications. Choose your preferred form of cooperation - B2B or a contract of mandate - and enjoy 20 fully paid days off. Participate in team-building events and utilize the integration budget. Celebrate work anniversaries, birthdays, and milestones. Access medical and sports packages, eye care, and well-being support services, including psychotherapy and coaching. Get full work equipment for optimal productivity, including a laptop and other necessary devices. With our backing, you can boost your personal brand by speaking at conferences, writing for our blog, or participating in meetups. Experience a smooth onboarding with a dedicated buddy, and start your journey in our friendly, supportive, and autonomous culture.
Senior Data Scientist / ML Engineer
Addepto
⚲ Białystok, Gdańsk, Katowice, Kraków, Grzegórzki, Poznań, Warszawa, Śródmieście, Wrocław, Stare Miasto
19 320–25 200 zł / mies. (zal. od umowy)
Wymagania
- Python
- Docker
- Machine Learning
- LLMs
- GenAI
- Data Science
- AWS
- AI Agents
- Kubernetes
- CI/CD
- RAG
Nasze wymagania: Proven commercial experience (+5 years) designing and implementing scalable AI solutions (Machine Learning, Predictive Modeling, Optimization, LLM, NLP, Computer Vision, GenAI). Proficiency in developing ML algorithms from scratch to production deployment. Strong programming skills in Python: writing clean code, OOP design, extensive knowledge of ML libraries (Scikit-Learn, PyTorch / Tensorflow). Proven expertise in deploying solutions in cloud environments (AWS or Azure). Knowledge in applying LLMs (AI agents, semantic search, prompt engineering, multimodal embeddings, RAG). High proficiency in English (C1 level). Excellent communication skills and consulting experience with direct interaction with clients. Working experience in SQL and NoSQL databases (MongoDB, Snowflake, Databricks). Good knowledge of CI/CD principles (GitHub and GitHub Actions). Familiarity with MLOps practices, Kubernetes and Docker. Bachelor’s or Master’s degree in Computer Science, Data Science, Mathematics, Physics, or a related field. Mile widziane: Experience with Big Data technologies like Spark, Hadoop, and Kafka is a plus. Leadership and mentoring experience is highly desirable. O projekcie: As a Senior Data Scientist / ML Engineer, you will have the exciting opportunity to work with a team of technology experts on challenging projects across various industries, leveraging cutting-edge technologies. Here are some of the projects we are seeking talented individuals to join: • AI optimization engine for airport operation management. This project involves creating an AI-driven optimization engine to streamline airport operations, using real-time data from sources like radar, air traffic, and passenger information. • AI recommendation engine for the leading innovation company. This project involves creation of AWS-powered solutions to provide domain-specific recommendations by employing sophisticated LLMs. Zakres obowiązków: Lead the development, implementation, and validation of Machine Learning solutions, ensuring alignment with project objectives. Lead the design of AI solution architectures that meet complex business goals and drive innovation. Research, test and select the best tools and technologies as well as AI solutions to meet the business requirements. Understand clients’ needs and translate business problems into data science problems. Architect and oversee the implementation of data pipelines and workflows, setting standards for data quality and security. Coordinate with Data Engineering and Software Engineering teams to strategize and oversee the building of AI applications. Present findings and recommendations clearly and concisely to stakeholders. Prioritize, and control tasks within an Agile/Scrum framework, ensuring timely delivery. Oferujemy: Work in a supportive team of passionate enthusiasts of AI & Big Data. Engage with top-tier global enterprises and cutting-edge startups on international projects. Enjoy flexible work arrangements, allowing you to work remotely or from modern offices and coworking spaces. Accelerate your professional growth through career paths, knowledge-sharing initiatives, language classes, and sponsored training or conferences, including a partnership with Databricks, which offers industry-leading training materials and certifications. Choose your preferred form of cooperation - B2B or a contract of mandate - and enjoy 20 fully paid days off. Participate in team-building events and utilize the integration budget. Celebrate work anniversaries, birthdays, and milestones. Access medical and sports packages, eye care, and well-being support services, including psychotherapy and coaching. Get full work equipment for optimal productivity, including a laptop and other necessary devices. With our backing, you can boost your personal brand by speaking at conferences, writing for our blog, or participating in meetups. Experience a smooth onboarding with a dedicated buddy, and start your journey in our friendly, supportive, and autonomous culture.
Senior Data Science Consultant - Data Science & AI
KPMG
⚲ Gdańsk, Młyniska, Katowice, Kraków, Prądnik Czerwony, Łódź, Widzew, Poznań, Jeżyce, Warszawa, Śródmieście, Wrocław, Śródmieście
Nasze wymagania: 3-5 lat doświadczenia w pracy nad projektami związanymi z AI lub uczeniem maszynowym doświadczenie w samodzielnym prowadzeniu projektów Data Science & AI w środowisku biznesowym wykształcenie wyższe – preferowane kierunki: informatyka, sztuczna inteligencja, uczenie maszynowe lub pokrewne doświadczenie w efektywnej współpracy i budowaniu relacji z klientami biegłość w programowaniu w języku Python oraz znajomość bibliotek takich jak PyTorch, Huggingface biegłość w pracy z usługami chmurowymi Azure doświadczenie w pracy z modelami językowymi (LLM) i technologiami wyszukiwania wektorowego doświadczenie w pracy z danymi, w tym ich przetwarzaniem, analizą i wizualizacją znajomość algorytmów uczenia maszynowego i technik modelowania zdolność podejmowania decyzji technologicznych w zakresie sztucznej inteligencji umiejętność pracy zespołowej oraz komunikacji z różnymi interesariuszami znajomość języka angielskiego na poziomie umożliwiającym swobodną komunikację Mile widziane: znajomość Docker oraz Git znajomość zasad MLOps i doświadczenie we wdrażaniu modeli uczenia maszynowego w środowiskach produkcyjnych O projekcie: Zespół Data Science & AI realizuje projekty transformacyjne dla największych organizacji na rynku, koncentrując się na wykorzystaniu genAI, modeli AI oraz rozwiązań Microsoft AI Copilot. Jesteśmy dynamicznym zespołem specjalistów, którzy tworzą innowacyjne rozwiązania dostosowane do potrzeb różnych sektorów. Naszym celem jest wdrażanie nowoczesnych technologii, które, wykorzystując najnowsze osiągnięcia ze świata sztucznej inteligencji, tworzą rzeczywistą wartość dla naszych klientów. Zakres obowiązków: tworzenie i wdrażanie aplikacji AI z naciskiem na generatywną AI, w tym modele językowe i technologie wyszukiwania wektorowego wdrażanie innowacyjnych metod przetwarzania i analizy danych, zapewniając optymalną wydajność i dokładność modeli współpraca z zespołami interdyscyplinarnymi w celu integracji technologii AI w różnych projektach udział w spotkaniach z klientami w celu zrozumienia ich wymagań i dostosowania rozwiązań AI do ich potrzeb utrzymanie wysokich standardów kodowania, testowania i wdrażania, dbając o jakość, bezpieczeństwo i wydajność rozwijanych rozwiązań dobór technologii – wybór i rekomendacja narzędzi oraz technologii najbardziej odpowiednich do realizacji projektów AI tworzenie rozwiązań biznesowych – tłumaczenie wartości biznesowej na konkretne rozwiązania AI analiza potrzeb klientów – rozpoznawanie i zrozumienie wymagań klientów w obszarze AI Oferujemy: hybrydowy lub zdalny model pracy pełną wyzwań pracę w wiodącej na rynku polskim oraz międzynarodowym firmie doradczej finansowanie kwalifikacji zawodowych stały rozwój – skorzystaj z dofinansowania studiów podyplomowych, kursów językowych, przygotowawczych i egzaminów szeroki pakiet szkoleń – korzystaj z platform Degreed, Pluralsight i LinkedIn Learning, szkoleń technicznych oraz certyfikowanych szkoleń Microsoft wsparcie Buddy’ego – Twój opiekun będzie dla Ciebie przewodnikiem po KPMG program poleceń – zyskaj dodatkowy bonus finansowy za skuteczną rekomendację znajomego do pracy pakiet kafeteryjny – wybieraj benefity, które Cię interesują m.in. kartę MultiSport, bilety do kina, teatru, vouchery i zniżki prywatną opiekę medyczną, dodatkowe ubezpieczenie i program wellbeing – dbaj o siebie i swoją rodzinę udział w wydarzeniach branżowych – wesprzemy finansowo doskonalenie Twoich umiejętności wyjazdy i spotkania integracyjne – zorganizujemy i dofinansujemy budowanie relacji zespołowych dni wolne na wolontariat – skorzystaj z 2 dodatkowych dni wolnych i grantu na działania charytatywne prezenty świąteczne lub bonusy – pamiętamy o miłych gestach
Senior Data QA Engineer
ITEAMLY SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Kraków
18 500–25 000 zł netto (+ VAT) / mies.
Wymagania
- Python
- SQL
- Snowflake
- GitHub
Nasze wymagania: 6+ years of experience in data engineering or backend data systems Strong proficiency in Python or a similar programming language Strong SQL skills, including complex joins and window functions Experience building or implementing automation testing frameworks Experience working with Snowflake or a similar data platform Experience working with AWS S3 or other cloud object storage Understanding of data warehousing and data modeling, including star and snowflake schemas Good knowledge of GitHub best practices Understanding of data security, access control, and governance O projekcie: We are looking for a Data QA Engineer who will be responsible for testing data pipelines and ensuring their quality, reliability, and accuracy. Zakres obowiązków: Design and maintain data tests and quality checks across the full pipeline Create and execute end to end testing strategies for data pipelines Implement monitoring, logging, and alerting for data workflows Define and track SLAs for data freshness, completeness, and accuracy Build scorecards and dashboards to monitor data quality Identify and resolve issues related to data quality, performance, and reliability Collaborate with analytics, data science, and platform engineering teams on scalable solutions Contribute to code reviews, engineering standards, and support junior team members Oferujemy: 100% remote work Long term, stable cooperation Opportunity to work on challenging production systems at meaningful scale Real impact on data quality, reliability, and engineering standards
Senior Data Engineer - Growth Alliance
HelloFresh
⚲ Warszawa
23 200–34 700 zł brutto / mies.
Wymagania
- Python
- Kubernetes
- PostgreSQL
- AWS
- Kafka
Nasze wymagania: Strong background in data engineering with a focus on writing clean, maintainable Python code Proficient in working with cloud platforms and data technologies such as PySpark and Kubernetes. Streaming technologies is a plus. Skilled in designing scalable data models and working with relational databases (e.g., PostgreSQL) and object stores (e.g., AWS S3) Basic understanding of Backend Development Track record of building and optimizing efficient, reliable data pipelines Committed to ensuring data quality, implementing monitoring practices, and maintaining high testing standards across the development lifecycle Comfortable in agile environments, embracing fast iterations, lean principles, and continuous delivery Zakres obowiązków: Work on the end-to-end process, including architecture, design, development, deployment, and operations of data pipelines, applying DevOps practices, pair programming, and other cutting-edge methodologies. Be an active, solution-oriented contributor within autonomous, cross-functional agile teams collaborating with Product Owners, Back-end Engineers, Front-end Engineers, Product Analysts, and Business Intelligence teams. Demonstrate an in-depth understanding of HelloFresh’s core product and architecture, acting as a technical expert for software solutions and offering support to colleagues. Work with state-of-the-art technologies like AWS (EMR, Glue, s3, etc), Kafka, PySpark, Kubernetes, Airflow, Prefect, Tecton, Databricks, as well as in-house Data Pipeline tools. Oferujemy: Salary 23200.00-34700.00 PLN/MONTH. Global collaboration at scale: Collaborate with experienced engineers and product partners across HelloTech’s international teams, in a culture of active knowledge sharing. Technology with real-world impact: Build and operate modern systems at global scale, supporting 6+ millions of customers and complex supply chain operations. Technical/Product/Design leadership: Drive best practices and influence architecture/design, quality, and ways of working in an autonomous, product-led setup. End-to-end development/delivery: Drive decisions from problem definition to production, improving systems and enabling long-term scalability. Access to workspace at Warsaw Centre Point. The hub offers modern facilities including showers, breakout zones, outdoor space, cycle parking, and refreshments (coffee, soft drinks, and fruit).
Senior Data Engineer (Spark)
Addepto
⚲ Białystok, Gdańsk, Katowice, Kraków, Grzegórzki, Poznań, Warszawa, Śródmieście, Wrocław, Stare Miasto
21 000–28 560 zł netto (+ VAT) / mies.
Wymagania
- Python
- SQL
- Spark
- Airflow
- AWS
- Cloudera
- Iceberg
- Kubernetes
- Kafka
- NiFi
- Trino
- Hudi
- Java
- Scala
- Docker
- Databricks
Nasze wymagania: At least 5 years of commercial experience implementing, developing, or maintaining Big Data systems, data governance and data management processes. Strong programming skills in Python (or Java/Scala): writing a clean code, OOP design. Hands-on with Big Data technologies like Spark, Cloudera, Kafka, Data Platform, Airflow, NiFi, Docker, and Iceberg. Excellent understanding of dimensional data and data modeling techniques. Experience implementing and deploying solutions in cloud environments. Consulting experience with excellent communication and client management skills, including prior experience directly interacting with clients as a consultant. Ability to work independently and take ownership of project deliverables. Fluent English (at least C1 level). Bachelor’s degree in technical or mathematical studies. Mile widziane: Experience with an MLOps framework such as Kubeflow or MLFlow. Familiarity with Databricks and/or dbt. O projekcie: As a Senior Data Engineer, you will have the exciting opportunity to work with a team of technology experts on challenging projects across various industries, leveraging cutting-edge technologies. Here are some of the projects we are seeking talented individuals to join: • Development and maintenance of a large platform for processing automotive data. A significant amount of data is processed in both streaming and batch modes. The technology stack includes Spark, Cloudera, Airflow, Iceberg, Python, and AWS. • Design and development of a universal data platform for global aerospace companies. This Azure and Databricks powered initiative combines diverse enterprise and public data sources. The data platform is at the early stages of the development, covering design of architecture and processes as well as giving freedom for technology selection. • Centralized reporting platform for a growing US telecommunications company. This project involves implementing BigQuery and Looker as the central platform for data reporting. It focuses on centralizing data, integrating various CRMs, and building executive reporting solutions to support decision-making and business growth. Zakres obowiązków: Develop and maintain a high-performance data processing platform for automotive data, ensuring scalability and reliability. Design and implement data pipelines that process large volumes of data in both streaming and batch modes. Optimize data workflows to ensure efficient data ingestion, processing, and storage using technologies such as Spark, Cloudera, and Airflow. Work with data lake technologies (e.g., Iceberg) to manage structured and unstructured data efficiently. Collaborate with cross-functional teams to understand data requirements and ensure seamless integration of data sources. Monitor and troubleshoot the platform, ensuring high availability, performance, and accuracy of data processing. Leverage cloud services (AWS) for infrastructure management and scaling of processing workloads. Write and maintain high-quality Python (or Java/Scala) code for data processing tasks and automation. Oferujemy: Work in a supportive team of passionate enthusiasts of AI & Big Data. Engage with top-tier global enterprises and cutting-edge startups on international projects. Enjoy flexible work arrangements, allowing you to work remotely or from modern offices and coworking spaces. Accelerate your professional growth through career paths, knowledge-sharing initiatives, language classes, and sponsored training or conferences, including a partnership with Databricks, which offers industry-leading training materials and certifications. Choose your preferred form of cooperation: B2B or a contract of mandate, and enjoy 20 fully paid days off. Participate in team-building events and utilize the integration budget. Celebrate work anniversaries, birthdays, and milestones. Access medical and sports packages, eye care, and well-being support services, including psychotherapy and coaching. Get full work equipment for optimal productivity, including a laptop and other necessary devices. With our backing, you can boost your personal brand by speaking at conferences, writing for our blog, or participating in meetups. Experience a smooth onboarding with a dedicated buddy, and start your journey in our friendly, supportive, and autonomous culture.
Senior Data Engineer (Python / Snowflake)
ITEAMLY SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Kraków
25 000–28 800 zł netto (+ VAT) / mies.
Wymagania
- Snowflake Data Cloud
- SQL
- Python
- Apache Spark
- AWS
- Databricks
- Apache Flink
Nasze wymagania: Proven experience working as a Data Engineer or Senior Data Engineer Strong proficiency in SQL Hands-on experience with Snowflake or similar modern data warehouse Experience building ETL / ELT pipelines Proficiency in Python or another programming language such as Scala or Java Experience with large-scale data processing frameworks such as Apache Spark or Apache Flink Experience working with cloud platforms (AWS preferred, Azure or GCP also acceptable) Strong understanding of data modelling and data warehousing concepts Ability to translate business requirements into scalable technical solutions Mile widziane: Experience with Databricks or distributed compute platforms Experience designing data APIs or microservices Knowledge of data governance and data quality frameworks Experience working in cross-functional data teams Zakres obowiązków: Design, build, and maintain scalable data pipelines and data architectures Develop and optimize ETL / ELT processes for integrating data from multiple sources Build and manage data warehouse solutions based on Snowflake Ensure data quality, integrity, and governance across the data platform Collaborate with data scientists and analysts to support data-driven products and insights Optimize data processing workflows and improve performance of data pipelines Design and implement data services and APIs enabling data access across systems Continuously evaluate and introduce tools that improve the data engineering ecosystem Oferujemy: 100% remote work Long-term, stable cooperation Private healthcare and Multisport Direct influence on technical roadmap and standards Challenging production systems with meaningful scale
Senior Data Engineer (PySpark, NoSQL)
EPAM Systems (Poland) sp. z o.o.
⚲ Kraków, Grzegórzki
Wymagania
- PySpark
- Cosmos DB
- Cassandra
- DynamoDB
- Spark
- Microsoft Azure
Nasze wymagania: 5+ years of experience as a Data Engineer or similar role Strong hands-on experience with PySpark in production (transformations, tuning, optimization) Solid experience with distributed NoSQL databases (e.g., Cosmos DB, Cassandra, DynamoDB, or similar) Strong understanding of Spark architecture and performance optimization Experience building scalable data pipelines in Azure Knowledge of NoSQL data modeling and cloud-based troubleshooting Strong analytical and problem-solving skills Ability to work effectively in high-availability environments Strong communication skills (English B2+) Mile widziane: Experience with code generation, including non-AI and AI-assisted approaches Exposure to Data Science workflows Experience with Big Data platforms and distributed systems Knowledge of financial instruments and financial services data Hands-on experience with industry-standard LLMs (including GPT, Claude, or similar) O projekcie: We are seeking a Senior Data Engineer with strong expertise in cloud-based NoSQL databases, Azure, and PySpark, skilled in designing, implementing, and maintaining robust data processing solutions. This role focuses on ensuring platform reliability, optimizing performance, and enabling scalable and efficient data operations within a production-grade environment. Zakres obowiązków: Provide end-to-end support for NoSQL databases, including monitoring, troubleshooting, and performance tuning Design and optimize large-scale data pipelines using PySpark Work with distributed NoSQL technologies (e.g., Cosmos DB, Cassandra, DynamoDB, or other production-grade systems) Build and maintain scalable ETL/ELT workflows in Azure environments Troubleshoot and resolve production issues related to performance, latency, and availability Optimize Spark jobs (partitioning, execution plans, resource usage) Implement best practices for scalability, security, and data reliability Collaborate with cross-functional teams to support data-driven solutions Contribute to automation and operational improvements Maintain documentation and participate in production support rotations Oferujemy: Engineering community of industry professionals Friendly team and enjoyable working environment Flexible schedule and opportunity to work remotely within Poland Chance to work abroad for up to 60 days annually Business-driven relocation opportunities Outstanding career roadmap Leadership development, career advising, soft skills, and well-being programs Certification (GCP, Azure, AWS) Unlimited access to LinkedIn Learning, Get Abstract, Cloud Guru English language classes Stable income (Employment Contract or B2B) Participation in the Employee Stock Purchase Plan Benefits package (health insurance, multisport, shopping vouchers) Strategically located offices featuring entertainment and relaxation zones, table tennis and football, free snacks, fantastic coffee, and more Referral bonuses Corporate, social and well-being events
Senior Data Engineer (Azure, Databricks , Python) k/m/*
SQUARE ONE RESOURCES sp. z o.o.
⚲ Warszawa
140–170 zł netto (+ VAT) / godz.
Wymagania
- Python
- Apache Spark
- Databricks
- Delta lake
- Pandas
- Polars
- Parquet
- Microsoft Azure
- Redis
- FastAPI
- Docker
- Kubernetes
Nasze wymagania: 5+ years of hands-on experience in software development Extensive experience working with Apache Spark, including platforms such as Databricks and/or Azure Synapse/Fabric Proficient in Python, with strong skills in data manipulation using Pandas/Polars and similar Solid understanding of columnar data storage formats, particularly Parquet, with practical experience using Delta Tables Proven expertise in data processing, analysis, and transformation workflows Strong analytical and problem-solving abilities with a detail-oriented mindset Practical and pragmatic approach to balancing standardized processes with flexibility to meet project goals effectively Excellent organizational skills with the ability to self-manage, prioritize tasks, structure workload, and meet tight deadlines Solid understanding of microservices architecture and its implementation in scalable systems Mile widziane: Experience working with Azure Cloud services (or other major cloud platforms), including a range of SaaS offerings such as Service Bus, Data Lake, Blob Storage, Redis, and more Familiarity with FastAPI Expertise in containerization and orchestration tools such as Docker and Kubernetes O projekcie: Join a global technology team delivering innovative, AI-driven solutions supporting tax services for one of the world’s leading professional services organizations. You will work on large-scale data platforms and modern cloud-based architectures, collaborating with cross-functional teams across engineering, tax, and business domains. Zakres obowiązków: Define and enforce best practices and coding standards across the project Conduct thorough code reviews to ensure adherence to established guidelines and maintain high code quality Working both independently and in close collaboration with others in the team Communicating clear instructions to team members and helping manage the flow of day-to-day operations Communicating with the client regularly Design, develop, and maintain robust and scalable Spark applications Write clean, maintainable, and efficient code following best practices and coding standards Optimize code for performance and scalability, ensuring efficient data handling Work closely with cross-functional teams to deliver high-quality software solutions Identify and resolve technical issues, ensuring the reliability and performance of applications Create and maintain comprehensive documentation for code, processes, and workflows
Senior Data Engineer
CLOUDFIDE SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Warszawa, Praga-Południe
140–180 zł netto (+ VAT) / godz.
Wymagania
- Microsoft Azure
- Google Cloud Platform
- AWS
- Python
- SQL
- PostgreSQL
- Microsoft SQL Server
- Apache Spark
- Azure DevOps
- Apache Airflow
- Databricks
Nasze wymagania: 4+ years of experience delivering complex data warehouse / data lake / business intelligence solutions. 2+ years of experience working with cloud services (Azure / GCP / AWS) - in Cloudfide you'll work with Azure. Knowledgeable and experienced in Python. Experience in SQL and data analysis, knowledge of relational databases (preferably SQL Server, PostgreSQL). Knowledge of public cloud architecture, security, networking concepts and best practices (MS Azure preferred). Knowledge of DWH data modeling practices and ETL/ELT development. Conceptual and analytical skills – the ability to define, analyze and document complex business and technical requirements. Mile widziane: Experience with Apache Spark or Databricks platform. Experience with Azure DevOps environment. Experience with Apache Airflow. O projekcie: You are Passionate about cloud and data analytics, inspiring person that enjoy your day-to-day job. Curious and eager to learn new technologies. One that would like to work with a team of like-minded people. Opportunity overview You will work on a project involving modern cloud data lake implementation, leveraging Databricks, CI/CD and cloud services as your daily driver. Zakres obowiązków: Designing, implementing, and optimizing modern cloud-based solutions. Building and launching new data models and data pipelines. Implementing best practices in data engineering including data integrity, quality, and documentation. Optimization of existing analytical solutions. Leading small size teams of engineers and being a role model (optional). Oferujemy: BENEFITS: Regardless of the form of employment - Budget for your professional development - training and certification. MyBenefit cafeteria (with Multisport). Medicover medical care. Team-building meetings and trips. FLEXIBILITY: Enjoy the freedom of working from anywhere, and have a genuine say on our tools, tech, and solutions. STABILITY: Stable and long-term employment (employment contract, B2B). START-UP CULTURE: Open communication, creative problem solving and a flat hierarchy. GROWTH: Skyrocket your career by exploring new territories – you can work on various projects related to Big Data and Cloud. COLLABORATION: Be part of our diverse, passionate team, where every voice matters. Work in a company full of well-coordinated people who do their work with passion and commitment.
Senior DBA
DCV Technologies
⚲ Warszawa
Wymagania
- Oracle
Nasze wymagania: 10+ years of experience managing Oracle Database version 12c to 19c [RAC, Data guard] Operating system experience in Linux Oracle management tools (Data Guard, RMAN, Data pump) Architecture design principles Good problem solver, focused and dedicated developer with ability to work independently and with team Strong practical experience of ORACLE in production RAC (ASM) environment (19c) Must be self-starter with strong attention to detail Good knowledge on Oracle Golden gate [Clear understanding of process flow, Downstream databases, OGG start stop] Good knowledge on Storage and FSFO problem solving, observers Good knowledge on process [Change management, Incident management] Knowledge on Oracle SR handling and OEM architecture Zakres obowiązków: Prepare prePROD environment to enable FSFO Sync DataGuard if any issues/errors in DG Rebuild Standby as per need DB Service Creation and PDB Level Service Validation Creation of New DB and Migration of Old PDB to New Container Activation of FSFO and troubleshooting FSFO issues Execute tests on prePROD: Switchover and Failover DB Level Patching and execute changes related to OS RAC Issues Handling with DR OGG Microservices and OEM setup Implement changes on PROD Location: Only Warsaw, physical presence in office twice a week required
Senior Cloud-Native Java Developer – Kubernetes and Cloud Platforms
ITDS Polska Sp. z o.o.
⚲ Kraków
23 100–28 350 zł / mies. (zal. od umowy)
Wymagania
- Java
- Kubernetes
- Docker
- Terraform
- Helm
- Jenkins
- Ansible
Nasze wymagania: 4+ years of experience in Java development and microservices architecture. Hands-on experience with Kubernetes and containerization (Docker). Familiarity with cloud platforms and infrastructure-as-code tools (e.g., Terraform, Helm). Experience with CI/CD tools (Jenkins, Ansible). Strong analytical and troubleshooting abilities. Mile widziane: Certifications in cloud platforms or Kubernetes. O projekcie: As a Senior Cloud-Native Java Developer, you will be working for our client in the financial industry, designing and building scalable backend services and cloud-native applications. You’ll focus on leveraging Java, Kubernetes, and cloud platforms to deliver robust, secure, and efficient solutions that power digital transformation and enhance operational excellence. Empower cloud-native innovation — shape the future of backend development with cutting-edge technology! Krakow-based opportunity with hybrid work model (2 days in-office / 3 days remote). Only candidates with an existing legal right to work in the European Union will be considered for this role. Zakres obowiązków: Develop and maintain backend services using Java (Spring Boot or similar frameworks). Design and deploy microservices on Kubernetes clusters. Implement CI/CD pipelines and automate deployments on cloud platforms (AWS, Azure, GCP). Monitor, troubleshoot, and optimize application performance. Ensure security and compliance standards are met. Collaborate with cross-functional teams to deliver end-to-end solutions. Oferujemy: Stable and long-term cooperation with very good conditions Enhance your skills and develop your expertise in the financial industry Work on the most strategic projects available in the market Define your career roadmap and develop yourself in the best and fastest possible way by delivering strategic projects for different clients of ITDS over several years Participate in Social Events, training, and work in an international environment Access to attractive Medical Package Access to Multisport Program Access to Pluralsight Flexible hours
Senior Application Operations Engineer
ITDS Polska Sp. z o.o.
⚲ Warszawa
21 000–27 300 zł / mies. (zal. od umowy)
Wymagania
- PL/SQL
- T-SQL
- Perl
- PowerShell
- Shell
- Bash
- Python
Nasze wymagania: At least 5 years of experience in application operations, especially in application migrations or data center projects. Proficiency in PL/SQL / T-SQL. Strong skills in scripting languages: Perl, PowerShell, Shell, Bash, Python. Experience working with FTS Application & Middleware Teams. Ability to communicate effectively in English and Polish, both written and spoken. Excellent understanding of transaction processing systems, infrastructure, network solutions, load balancing, and TLS. Proven experience in managing critical online and mass transaction processing environments. Knowledge of system availability, performance, monitoring, and resilience best practices. Strong problem-solving skills and a proactive approach to technical challenges. Mile widziane: Experience in international or multinational projects. Certifications related to application management, infrastructure, or security. O projekcie: As a Senior Application Operations Engineer, you will be working for our client, a leading industry player in data center migration projects. Your role will center around ensuring the stability and continuity of critical payment card processing applications during complex infrastructure transitions. Join a dynamic environment where your expertise will directly impact secure financial transactions and drive technological evolution. Warsaw-based opportunity with on-site work model. Only candidates with an existing legal right to work in the European Union will be considered for this role. Zakres obowiązków: Perform the role of AppOps for application migration projects within the data center migration program, supporting critical payment processing systems. Configure, administer, and maintain applications serving payment card acceptance, issuing, and acquiring business processes. Monitor the correct operation and performance of application environments, ensuring system reliability and resilience. Support application servers by troubleshooting incidents, resolving operational problems, and implementing necessary changes in production. Collaborate closely with Application & Middleware teams to perform BAU tasks, build, test, and migrate to new environments, including infrastructure setup and access requests. Diagnose, analyze, and resolve technical issues promptly to minimize downtime. Produce detailed, high-quality live documentation using tools like Confluence. Work with internal and external technical teams, including international vendors and support groups, to address challenges and implement solutions. Maintain a comprehensive understanding of application availability, performance, monitoring, and resilience for online transaction systems. Oferujemy: Stable and long-term cooperation with very good conditions Enhance your skills and develop your expertise in the financial industry Work on the most strategic projects available in the market Define your career roadmap and develop yourself in the best and fastest possible way by delivering strategic projects for different clients of ITDS over several years Participate in Social Events, training, and work in an international environment Access to attractive Medical Package Access to Multisport Program Access to Pluralsight Flexible hours
Remote Data Platform Engineer
StatXplorer
⚲ Remote
15 000 - 20 000 PLN (B2B)
Wymagania
- Azure
- Airflow
- Kubernetes
- Helm
- Terraform
- Python
- SQL
- Docker
- DuckDB (nice to have)
- Airbyte connectors (nice to have)
- OpenMetadata (nice to have)
O projekcie: Kim jesteśmy StatXplorer to firma technologiczna specjalizująca się w data science, AI/ML, digital twins i IoT. Pracujemy z klientami z sektora medycznego, przemysłowego i finansowego — budujemy dla nich systemy które naprawdę działają. Większość firm IT patrzy na problem przez pryzmat technologii. My rozumiemy biznes klienta — i to jest nasza przewaga. Inżynierowie u nas wiedzą dlaczego coś budują, nie tylko jak. Szukamy ludzi którzy myślą podobnie. Czego szukamy Szukamy inżyniera z solidnym backgroundem data engineeringowym, który rozumie również warstwę infrastrukturalną — lub chce tę kompetencję świadomie rozwinąć. Co oferujemy - Praca w pełni zdalna — bez biura, bez hybridu na siłę - Budujemy dosłownie od zera — masz realny wpływ na kształt systemu od pierwszego dnia - Dostęp do architekta który zaprojektował system — pełen kontekst decyzji technicznych - Małe środowisko, brak komitetów — decyzje podejmowane szybko - Stack open-source, cloud-native — nowoczesne narzędzia bez korporacyjnego balastu - Szukamy kogoś na długo — zależy nam na zbudowaniu solidnego core teamu, nie na rotacji kontaktorów co kwartał Jeśli masz coś na GitHubie — daj znać :) Wymagania: Wymagania: - Airflow w praktyce — projektowanie i wdrażanie DAGów, KubernetesPodOperator, diagnostyka i debugowanie - Kubernetes — deployowanie aplikacji, praca z Helm chartami, orientacja w działaniu klastra - Terraform — infrastruktura jako kod, Azure provider, zarządzanie stanem - Python na poziomie umożliwiającym samodzielne zaprojektowanie i implementację pipeline'u w Kedro - SQL — modelowanie i transformacje danych, nie tylko odpytywanie - Docker — budowanie obrazów, rozumienie przepływu przez ACR do środowiska AKS - Zdolność do samodzielnego prowadzenia zadań od analizy wymagań do wdrożenia — w projekcie greenfield liczymy na inicjatywę, nie tylko realizację Nice to have: - DuckDB - Airbyte connectors - OpenMetadata - Great Expectations - medallion architecture / data lakehouse Stack: - Apache Airflow, Kedro, Great Expectations, OpenMetadata, - Airbyte, DuckDB, Azure Blob Storage, - Azure AKS, Azure Key Vault, ACR, Terraform, Helm, Docker, Python, SQL Codzienne zadania: - Rozwój platformy danych — implementacja nowych funkcjonalności, rozbudowa warstw medallion, optymalizacja pipelines - Utrzymanie i monitoring infrastruktury — AKS, Airflow, Airbyte, storage; reagowanie na incydenty, dbanie o stabilność środowiska - Integracja źródeł danych — podpinanie nowych systemów źródłowych przez Airbyte, konfiguracja connectorów, obsługa edge cases - Infrastruktura jako kod — zarządzanie zasobami Azure przez Terraform i Helm, utrzymanie repo jako jedynego źródła prawdy - Jakość danych — konfiguracja i utrzymanie walidacji Great Expectations, nadzór nad quarantine, reagowanie na anomalie - Dokumentacja i katalog danych — utrzymanie OpenMetadata, dbanie o to żeby system był zrozumiały dla kolejnych osób w zespole - Onboarding nowych klientów — konfiguracja nowych środowisk w ramach architektury multi-tenant