Oferty pracy
Filtry
Data/AI Engineer
Scalo
⚲ Katowice
32 760 - 34 440 PLN (B2B)
Wymagania
- Python
- ETL
- Java
- Spark
- GCP
- Airflow
- Git
- Terraform
O projekcie: Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Co dla Ciebie mamy: - Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt - Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych - Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób - Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort - Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci - Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Wymagania: Ta oferta jest dla Ciebie, jeśli: - jesteś Data Engineerem z co najmniej 5-7-letnim doświadczeniem zawodowym, - masz solidne doświadczenie w projektach migracyjnych (ze środowiska on premise na chmurę) - bardzo dobrze znasz język Python (pod względem procesów ETL, pipeline'ow danych, automatyzacji), - dobrze znasz Java (szczególnie w kontekście przetwarzania danych, m.in. Spark, Beam), - posiadasz doświadczenie w projektowaniu i realizacji złożonych pipeline'ów danych (batch i streaming) w środowiskach produkcyjnych, - potrafisz tworzyć architekturę rozwiązań danych w GCP z uwzględnieniem skalowalności, bezpieczeństwa i kosztów, - możesz pochwalić się praktyczną znajomością narzędzi orkiestracji, CI/CD i automatyzacji (Airflow, Git, Terraform lub podobne), - Twój poziom języka angielskiego pozwala na swobodną komunikację (najlepiej poziom C1), - posiadasz doświadczenie w pracy w środowisku międzynarodowym oraz w projektach realizowanych z udziałem zewnętrznych partnerów technologicznych, - masz doświadczenie w analizie istniejących rozwiązań legacy i rekomendowaniu docelowych architektur w chmurze, - posiadasz wiedzę niezbędną do rozumienia zagadnień Data Governance, bezpieczeństwa danych i kontroli dostępu w środowiskach chmurowych, - lubisz samodzielną pracę i nie boisz się podejmować ważne decyzje techniczne, ale cenisz też sobie pracę zespołową, - wyróżniają Cię wysokie kompetencje komunikacyjne. Codzienne zadania: - uczestnictwo w projekcie dotyczącym kompleksowej migracji platformy danych z Cloudera (on premise) do nowoczesnej architektury opartej o Google Cloud Platform oraz wdrożenia nowych rozwiązań Data/AI w chmurze w bankowości, - analiza i inwentaryzacja istniejących rozwiązań legacy w Cloudera, - wytyczanie ścieżki migracji (m.in. praca nad strategią, podejściem, rekomendacjami technicznymi), - przeniesienie oraz modernizacja procesów do usług GCP, - implementacja rozwiązań Data/AI z wykorzystaniem Dataproc, Dataflow, BigQuery, Cloud Composer i narzędzi automatyzacji, - współpraca z zespołem Data oraz partnerami Klienta w środowisku międzynarodowym, - praca w modelu zdalnym (warto jednak wziąć pod uwagę 2-3 dni onboardingu w Katowicach i sporadyczne warsztaty), - stawka do 205 zł/h przy B2B w zależności od doświadczenia.
Data Scientist AI Risk
Trans.eu Group S.A.
⚲ Wrocław, Krzyki
Wymagania
- AWS
- Git
- SQL
- Python
- Keras
- TensorFlow
- PyTorch
Nasze wymagania: Minimum 2 lata doświadczenia w budowie i uprodukcyjnianiu modeli ML w sektorze finansowym – koniecznie w obszarze ryzyka kredytowego lub detekcji fraudów (MUST HAVE). Ekspercka wiedza w zakresie technik modelowania stosowanych w obszarze ryzyka oraz umiejętność przekładania złożonych zagadnień na zrozumiały język dla różnych grup odbiorców. Bardzo dobra znajomość algorytmów i metod ML (np. CatBoost, XGBoost, LightGBM, scikit-learn, Keras, TensorFlow, PyTorch). Doświadczenie w budowie i wdrażaniu modeli NLP. Biegła znajomość Pythona oraz narzędzi kontroli wersji (Git). Znajomość relacyjnych i nierelacyjnych baz danych oraz języka SQL. Umiejętność pracy z dużymi wolumenami danych. Doświadczenie w pracy z technologiami chmurowymi – szczególnie AWS i Snowflake. Umiejętność jasnej i przejrzystej komunikacji z interesariuszami biznesowymi. O projekcie: Dołączając do zespołu AI Risk & Compliance Models, będziesz odpowiadać za pełny cykl życia modeli predykcyjnych i decyzyjnych wspierających procesy oceny ryzyka oraz zgodności regulacyjnej. Obejmuje to m.in. modele oceny wiarygodności kredytowej klientów oraz systemy detekcji nadużyć (fraud detection). Twoją rolą będzie projektowanie, budowa, wdrażanie oraz ciągła ewaluacja modeli, które realnie wpływają na decyzje biznesowe i bezpieczeństwo transakcji. Doświadczenie w obszarze ryzyka lub fraudów (detekcja nadużyć) to kluczowy i niezbędny warunek – poszukujemy osoby, która pracowała z modelami ryzyka lub fraud detection i zna specyfikę tych obszarów. Zakres obowiązków: Projektowanie, budowa i wdrażanie modeli uczenia maszynowego, ze szczególnym naciskiem na modele oceny wiarygodności kredytowej. Tworzenie modeli klasyfikacyjnych, regresyjnych i segmentacyjnych działających zarówno on-line, jak i off-line. Wykorzystanie różnorodnych technik ML, w tym modeli boostingowych, deep learningowych oraz rekomendacyjnych. Prowadzenie analiz eksploracyjnych i formułowanie rekomendacji dla obszarów biznesowych. Przetwarzanie dużych zbiorów danych z wykorzystaniem Snowflake i AWS. Tłumaczenie wymagań biznesowych na konkretne rozwiązania Data Science. Monitorowanie, utrzymanie i optymalizacja istniejących modeli. Dzielenie się wiedzą ekspercką z zespołem Data Science. Samodzielne prowadzenie projektów analitycznych oraz wdrażanie rozwiązań na środowiska produkcyjne. Oferujemy: Prywatna opieka zdrowotna w LuxMed, bezpłatne badania profilaktyczne, masaże odciążające kręgosłup. Budżet na wyposażenie zdalnego stanowiska pracy i bony upominkowe. Śniadania w formie bufetu w biurze, przygotowywane codziennie ze świeżych produktów. Wyjazdy integracyjne i rodzinne do prywatnego ośrodka wypoczynkowego nad jeziorem. Dofinansowanie karty Multisport.
Data Scientist - Central Query Understanding
Allegro
⚲ Poznań, Wilda
Wymagania
- Python
- Google Cloud Platform
Nasze wymagania: Have a degree strongly related to statistical/mathematical modeling. Possess at least 2 years of experience in data analysis and building machine learning solutions that have been released to production. Have a strong understanding of statistical and machine learning methods, specifically for forecasting and decision tree-based algorithms. Are proficient in Python and efficient in using basic development tools. Can process massive datasets (terabytes of data) using Google Cloud Platform solutions, working with tabular, spatial, natural language, image, and time-series data. Know English at a B2 level and Polish at a C1 level. Demonstrate core competencies in Analytical Thinking, Learning Agility, Cooperation, and Continuous Improvement & Innovation. O projekcie: In the Consumer domain, we create and maintain customer-facing applications that help millions of clients each day to complete their purchases. We are looking for a mid-level Data Scientist to join our team and help move our search engine beyond simple keyword matching toward a Domain-Aware Hybrid Search (integrating LLMs, Semantic Search, and Knowledge Graphs). In this role, you will be responsible for supporting the development of the Central Query Understanding mechanism and implementing Predictive & Assistive Discovery to reduce the "cost of search" through automated intent recognition. Zakres obowiązków: Designing, developing, and deploying models that solve complex business problems, including predictive, segmentation, forecasting, and recommendation models. Developing query-to-category and query-to-product matching models to enhance the search experience. Building internal AI Engineering competence, including fine-tuning small, efficient models. Taking an active part in all Data Science project phases: from problem formulation and data exploration to modeling, automation, release, and monitoring. Using a wide range of model types, including boosting, Bayesian methods, causal inference, optimization methods, deep learning, and forecasting models. Collaborating across teams, partnering with business stakeholders, analytics, and data engineering teams on experiment setup and deployment. Ensuring models reflect business processes' specificity and staying up-to-date with GenAI challenges. Oferujemy: Flexible working hours in the hybrid model (4/1) - working hours start between 7:00 a.m. and 10:00 a.m. We also have 30 days of occasional remote work. Well-located offices (with e.g. fully equipped kitchens, bicycle parking, terraces full of greenery) and excellent work tools (e.g., raised desks, ergonomic chairs, interactive conference rooms). A 16" or 14" MacBook Pro or corresponding Dell with Windows (if you don't like Macs) and all the necessary accessories. A wide selection of fringe benefits in a cafeteria plan - you choose what you like (e.g., medical, sports or lunch packages, insurance, purchase vouchers). English classes that we pay for related to the specific nature of your job. A training budget, inter-team tourism (see more here), hackathons, and an internal learning platform where you will find multiple trainings. An additional day off for volunteering, which you can use alone, with a team, or with a larger group of people connected by a common goal. Social events for Allegro people - Spin Kilometers, Family Day, Fat Thursday, Advent of Code, and many other occasions we enjoy.
Data Scientist
Xebia sp. z o.o.
⚲ Wrocław, Krzyki
20 000–25 000 zł netto (+ VAT) / mies.
Wymagania
- Python
- SQL
Nasze wymagania: proficiency in Python and SQL, with experience working on large-scale datasets, data analysis, statistical modeling, and algorithm prototyping, experience working with Big Data environments or distributed data processing systems, strong quantitative background in Mathematics, Statistics, Data Science, Optimization, Decision Science, or Operations Research, solid understanding of optimization theory, including linear, nonlinear, constrained, and stochastic optimization, knowledge of game theory and market mechanisms, particularly in competitive or auction-based environments, experience designing and implementing algorithms under multiple objectives and constraints, considering ecosystem-wide impact, strong analytical and system-level thinking, with the ability to reason about feedback loops, system dynamics, and equilibrium behavior and translate business goals into quantitative solutions, ability to collaborate effectively in cross-functional, international teams and very good command of English (spoken and written), work from the European Union region and a work permit are required. Mile widziane: experience with auction systems, bidding strategies, or advertising technology, familiarity with control theory concepts, such as PID controllers or similar feedback mechanisms, exposure to causal inference, experimentation platforms, or advanced A/B testing setups, background in economics, mechanism design, marketplace optimization, or experience working with large-scale decision systems. O projekcie: The project focuses on developing intelligent decision-making mechanisms for a large-scale auction and bidding platform. By combining predictive signals, system data, and AI-driven approaches, the system supports and optimizes business decisions across the ecosystem. Zakres obowiązków: designing and developing bidding and optimization strategies for CPC-based auction systems, including advanced objectives such as target ROAS, optimizing auction mechanisms (ranking, pricing, filtering) to balance platform revenue, advertiser value, and marketplace stability, building and maintaining offline simulation environments, including counterfactual simulations and auction replay systems, to safely evaluate algorithmic changes, designing and implementing feedback loops and control mechanisms to ensure stable and robust system behavior under dynamic market conditions, conducting advanced ecosystem-level analytics on large-scale datasets to identify nonlinear effects, equilibrium points, and systemic risks, designing, executing, and analyzing complex experiments and causal inference studies, accounting for network effects and long-term system impact, contributing to the evolution toward smart, autonomous bidding and auction optimization through data-driven initiatives and roadmap development. Oferujemy: Development budgets of up to 6,800 PLN We fund certifications e.g.: AWS, Azure, ISTQB, PSM Access to Udemy and Safari Books Online Events and technology conferences Technology Guilds Internal training Xebia Upskill Private medical healthcare MultiSport card - we subsidise a MultiSport card Mental Health Support Flexible working hours B2B or employement contract Contract for an indefinite period
Data Scientist
AIFACTORY SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Gdańsk
22 000–25 000 zł brutto / mies.
Wymagania
- PyTorch
- Python
- Numpy
- OpenCV
- MONAI
- Git
Nasze wymagania: Wymagane min. 3 lata praktycznego doświadczenia zawodowego; Dobre rozumienie koncepcji deep learningu; Praktyczne doświadczenie we wdrażaniu metod z publikacji naukowych oraz SOTA (znajomość bibliotek takich jak Pytorch); Biegły Python (czysty kod, refaktoryzacja, optymalizacja); Znajomość bibliotek do przetwarzania danych, w tym danych obrazowych (tj. Pandas, Numpy, OpenCV); Znajomość frameworku MONAI; Doświadczenie w przygotowywaniu zbiorów danych (analiza, czyszczenie, balansowanie); Przygotowywanie rozwiązań deep learningowych w zgodzie z praktykami MLOps (doświadczenie w pracy z MLFlow, DVC); Dbałość o jasną dokumentację eksperymentów; Znajomość Git oraz praktyk CI/CD. Mile widziane: Doświadczenie we współpracy z radiologami i technikami; Doświadczenie w analizie obrazów 3D (oraz obrazowych danych medycznych TK/RM). O projekcie: Opracowujemy innowacyjny algorytm mający zrewolucjonizować proces diagnostyczny schorzenia, które obecnie stanowi duże wyzwanie dla specjalistów. Zakres obowiązków: Udział w konstruowaniu zbioru obrazowych danych medycznych (współpraca z radiologami); Udział w pracach badawczych dotyczących agregacji oznaczeń i definiowania problemów badawczych; Przeprowadzanie eksperymentów deep learningowych, aktywne analizowanie wyników, proponowanie dalszych kroków; Dbałość o przejrzystą dokumentację eksperymentów; Aktywny udział w pracach badawczych (brain storming; zespołowe opracowywanie podejść do napotkanych problemów). Oferujemy: Dostęp do platformy kafeteryjnej; Cotygodniowe godziny przeznaczone na własny rozwój; Elastyczny czas pracy; Możliwość całkowitej pracy zdalnej.
Data Platform Transformation Manager
ITDS Polska Sp. z o.o.
⚲ Wrocław
21 000–26 250 zł netto (+ VAT) / mies.
Wymagania
- Databricks
Nasze wymagania: At least 4 years of experience leading large-scale Data Platform implementations, preferably with Databricks. Strong understanding of data platform architecture, governance, and risk management. Excellent coordination and communication skills, with experience working in an international setting. Fluency in English. Mile widziane: Experience working with teams or projects in Spain, Italy, or Romania. Knowledge of additional data tools or cloud platforms. Previous exposure to global technology ecosystems and cross-border collaboration. O projekcie: Unleash the power of data transformation — lead innovative cloud and governance initiatives across borders! As a Data Platform Transformation Manager, you will be working for our client, a global organization committed to redefining data strategies and technological capabilities. You will oversee the deployment of a cutting-edge Data Platform ecosystem across multiple countries, including Poland, Spain, Italy, and Romania, playing a pivotal role in empowering strategic insights and operational excellence. Join a dynamic team at the forefront of digital innovation and shape the future of enterprise data. Only candidates with an existing legal right to work in the European Union will be considered for this role. Flexibility to travel occasionally within Europe, including to Wroclaw, Spain, Italy, and Romania. Ability to start as soon as possible and commit to a 1-2 year project duration. Zakres obowiązków: Coordinate the deployment of the Data Platform in international markets, ensuring seamless integration with local business needs. Collaborate closely with Product Owners, Chapter Leaders, local teams, and external vendors. Oversee project progress, manage risks, and uphold governance standards for data management and security. Monitor operational continuity and drive successful delivery within a fast-paced, multi-country environment. Oferujemy: Stable and long-term cooperation with very good conditions Enhance your skills and develop your expertise in the financial industry Work on the most strategic projects available in the market Define your career roadmap and develop yourself in the best and fastest possible way by delivering strategic projects for different clients of ITDS over several years Participate in Social Events, training, and work in an international environment Access to attractive Medical Package Access to Multisport Program Access to Pluralsight Flexible hours
Data Platform Engineer
ALTEN Polska
⚲ Warszawa
Wymagania
- SQL
- AWS
- Airflow
- Prefect
- Dagster
- Kafka
- Flink
- Spark
- Neo4j
- Neptune
- Terraform
- CloudFormation
Nasze wymagania: 10+ years of experience in Data Engineering; experience with production data platforms. 2+ years designing lakehouse architecture. Strong SQL and data modeling skills. Cloud experience, especially AWS. Python or Scala + experience with dbt / Databricks / similar tools. Experience with orchestration (Airflow/Prefect/Dagster) and stream processing (Kafka/Flink/Spark). Knowledge of graph databases (Neo4j/Neptune, etc.). IaC (Terraform/CloudFormation). Strong problem‑solving skills in data quality and performance. Good communication and teamwork abilities. Zakres obowiązków: Build and develop a cloud-based data lakehouse platform. Design and maintain ETL/ELT pipelines (batch & real‑time). Create Medallion architecture (Bronze/Silver/Gold) and data models for analytics and AI. Integrate data from multiple sources and prepare it for dashboards and AI applications. Implement data transformations using SQL, Python/Scala, dbt, Databricks. Manage pipeline orchestration tools (Airflow, Prefect, Dagster). Work with graph databases and graph data models. Monitor data quality and pipeline performance. Collaborate with Data Science, DevOps and business teams. Automate infrastructure with IaC (Terraform). Oferujemy: A full-time contract with possibility to choose the form of employment (UoP/B2B) Stable and long-term cooperation A clearly defined career path and the possibility of development in four areas as: Project Manager, Business Manager, Technical Leader and a specialist in their field Participation in company conferences, trainings, workshops, integration meetings, etc. Certification and training opportunities Opportunity to relocate and work in different ALTEN Polska branches
Data Platform Engineer
SQUARE ONE RESOURCES sp. z o.o.
⚲ Warszawa, Mokotów
Wymagania
- ANSI-SQL
- Python
- Azure Databricks
- Databricks connectors
Nasze wymagania: Doświadczenie na stanowiskach inżyniera danych, programisty hurtowni danych, analityka danych, dewelopera business intelligence lub pokrewne. Doświadczenie w pracy z projektami obejmującymi wdrożenie lub zmiany Hurtowni Danych, Platform Danych, Lakehouses. Doświadczenie w pracy z dokumentacją: source to target matrix, business requirements, business glossary. Udział w złożonych projektach w obszarze „data” polegających na integracji wielu źródeł danych. Optymalizacja kodu SQL oraz Python z wykorzystaniem modeli AI. Doświadczenie w testach odbiorczych z kluczowymi interesariuszami w organizacji. Doświadczenie w pracy zespołowej w środowisku Agile. Zaawansowana umiejętność posługiwania się językiem ANSI-SQL. Zaawansowana umiejętność posługiwania się językiem Python. Bardzo dobre zdolności komunikacyjne, łatwość w nawiązywaniu relacji biznesowych w środowisku zdalnym. Wiedza i praktyczna znajomość standardów zarządzania zmianą CI/CD. Dokładność i przedsiębiorcza postawa w realizacji powierzonych zadań. Praktyczna znajomość technologii Azure Databricks Lakehouse. Doświadczenie w wykorzystaniu dostępnych Databricks connectors na potrzeby integracji źródeł systemowych. Umiejętność projektowania modeli danych, w tym star i snowflake schemas, dla efektywnej analizy danych. Umiejętność tworzenia od podstaw oraz orkiestracji złożonych przepływów danych w architekturze medalionu w rozwiązaniach klasy Enterprise Data Platform. Znajomość technik optymalizacji wydajności hurtowni danych, takich jak indeksowanie, partycjonowanie i buforowanie. Monitorowanie nowych technologii i trendów w zakresie hurtowni danych i proponowanie ich wdrożenia w celu optymalizacji platformy. Angielski B2/C1. O projekcie: Stanowisko związane z rozwojem i budową Platformy Danych, implementacją rozwiązań „Data Lakehouse” oraz „Data Intelligence Platform”, a także kontrolą jakości danych i wdrażaniem najlepszych praktyk w obszarze data management oraz data governance. Zakres obowiązków: Tworzenie kodu oprogramowania gotowego do zaimplementowania w Platformie Danych, w szczególności w zakresie tworzenia struktur danych, przepływów przekształcania danych oraz monitoringu ich jakości. Optymalizacja skryptów SQL oraz Python w zakresie efektywności przetwarzania w środowisku chmurowym Platformy Danych. Ścisła współpraca z analitykami danych, inżynierami DevOps oraz architektem rozwiązania w procesie zmian i budowy Platformy Danych. Realizacja wymagań funkcjonalnych i niefunkcjonalnych w obszarze zmian przepływów danych. Implementacja rozwiązań w obszarze inżynierii danych specyficznych dla produktów klasy „Data Lakehouse” oraz „Data Intelligence Platform”. Definiowanie reguł oraz budowa narzędzi wspomagających proces kontroli jakości danych gromadzonych w Platformie Danych. Rozwój i wdrażanie procesów i najlepszych praktyk w obszarze data management oraz data governance. Współpraca z administratorami systemów informatycznych w zakresie identyfikowania oraz tworzenia architektury optymalnych interfejsów komunikacji z Platformą Danych w środowisku chmurowym. Identyfikacja, integracja, propagowanie oraz konfiguracja interfejsów wymiany danych referencyjnych pomiędzy Platformą Danych a systemami źródłowymi.
Data Governance Officer
Linklaters Poland Sp. z o.o.
⚲ Warszawa, Śródmieście
Wymagania
- SAP
- Microsoft Purview
Nasze wymagania: Have 3-5 years of experience within data governance or data management area. Have a foundational understanding of data governance principles including data quality, data lineage, roles and responsibilities, inventory and documentation. Are able to design and maintain dashboards for tracking conformance. Have practical experience with Microsoft Purview or similar data governance tools. Have proven experience working with cross-functional teams, gathering requirements, and translating them into actionable solutions. Have a problem-solving mindset, with experience in identifying, resolving, and/or escalating data quality issues. Are familiar with automation tools or processes to improve the efficiency of data management systems. Are aware of existing and emerging data protection regulations, with the ability to apply them in a practical and compliant manner. Have organisational skills, especially when it comes to coordinating complex activities like issue remediation or prioritisation among diverse teams. Have an eye for detail, capable of helping maintain accurate and accessible documentation of data structures and sources. Have an adaptable approach to learning about new tools, technologies, and best practices to support continuous improvement. Have excellent communication skills to explain technical concepts in clear terms and collaborate effectively with technical and non-technical stakeholders. Have prior experience in a professional services or legal environment (desirable). Are fluent in English, both verbally and in writing. Experience of the data structures within SAP would be an advantage although financial analysis and modelling experience is NOT required. O projekcie: You will be welcomed into the Technology and Data team as a key member of the group. This globally diverse function is made up of skilled professionals who are passionate about leveraging technology and data to enable innovation, drive operational efficiency, and support the firm’s strategic ambitions. In this role, you will benefit from strong support and close collaboration with both the local team and the wider Technology and Data community. Our culture emphasises teamwork, trust, and a shared commitment to continuous improvement. Working alongside colleagues across the business, the Technology and Data team is dedicated to delivering robust digital solutions, maintaining high standards of data integrity, and unlocking insights that inform decision-making. The role offers exposure to a broad range of initiatives, from system enhancements and data governance to emerging technologies and digital transformation projects. You will find ample opportunities to grow your skills, contribute meaningfully, and develop within a supportive and forward-thinking environment. Zakres obowiązków: Implementing and maintaining the firm’s data governance framework ensuring data quality standards are consistently met. Managing data quality metrics, KPIs and dashboards to track and evidence conformance to data governance policies. Maintaining data lineage documentation to track data flows throughout the organisation. Creating and managing a comprehensive data glossary to ensure consistent terminology across the firm. Utilising Microsoft Purview to catalogue data assets and enforce data governance policies. Conducting regular data quality assessments and implementing remediation plans. Preparing regular reports on data governance activities for management. Collaborating with cross-functional teams to gather requirements and assess data needs, contributing to the design of solutions that align with Firm objectives. Learning about the end-to-end data lifecycle and data controls, helping to identify data dependencies in support of delivery, release, and change management. Oferujemy: Private medical care Free in-house fitness centre Life insurance Worldwide travel insurance for business and non-business travel Benefit Multisport club card or subsidised travel card Wide range of training opportunities
Data Engineer | Branża finansowa
Edge One Solutions Sp. z o.o.
⚲ Kraków
Wymagania
- Microsoft SQL Server
- Azure SQL
- Azure Data Factory
- SQL Server Integration Services
- SQL Server Reporting Services
- Crystal Reports
- SQL
- Microsoft Power BI
- Databricks
- Apache Spark
- .NET
- CyberArk
- SFTP
- Terraform
- ARM
- Bicep
Nasze wymagania: Minimum 5 lat na stanowisku Data Engineer lub w podobnej roli Zaawansowana praktyka w pracy z MS SQL Server / Azure SQL Doświadczenie w projektowaniu, budowaniu i migracji ETL/ELT z użyciem Azure Data Factory i SQL Server Integration Services (SSIS) Doświadczenie w pracy z SQL Server Reporting Services (SSRS) i Crystal Reports oraz umiejętność modernizacji starych rozwiązań raportowych Praktyczne doświadczenie z Azure Data Factory i Azure Data Lake / ADLS Gen2 Umiejętność modelowania wymiarowego i znajomość koncepcji hurtowni danych Dobra znajomość SQL, w tym tworzenie złożonych zapytań, tuning wydajności i optymalizacja Umiejętność projektowania kompleksowych rozwiązań danych, myślenia na poziomie systemu i tworzenia Dokumentacji Projektu Rozwiązania (SDD) Doświadczenie w budowie i utrzymaniu pipeline’ów danych na skalę przedsiębiorstwa dla scenariuszy wsadowych i strumieniowych Doświadczenie w zapewnianiu jakości danych, spójności, zarządzania i zgodności z regulacjami bankowymi Umiejętność integracji danych z wielu źródeł (API, pliki, bezpieczne platformy) oraz współpracy z zespołami backendowymi .NET i interesariuszami Znajomość modeli danych Power BI, strategii odświeżania danych i aspektów wydajnościowych Mile widziane: Doświadczenie z Databricks i Apache Spark w przetwarzaniu dużych zbiorów danych Doświadczenie w migracji starszych rozwiązań ETL i raportowych do chmury Znajomość ekosystemu .NET i wzorców integracji opartych na API Doświadczenie w pracy z bezpiecznymi źródłami (CyberArk, SFTP, pliki szyfrowane) Doświadczenie z przetwarzaniem danych strumieniowych lub niemal w czasie rzeczywistym Znajomość ciągłej integracji i wdrażania pipeline’ów danych i platform Znajomość narzędzi IaC, takich jak Terraform, ARM lub Bicep Zrozumienie strategii zarządzania kosztami i optymalizacji w chmurze O projekcie: Nasz klient to jedna z największych międzynarodowych instytucji finansowych z siedzibą w Londynie, działająca w kilkudziesięciu krajach na świecie. Oferuje usługi bankowości detalicznej, korporacyjnej i inwestycyjnej, wspiera finansowanie handlu międzynarodowego oraz zarządzanie aktywami, koncentrując się na bezpieczeństwie, zgodności regulacyjnej i globalnej obsłudze klientów. O roli Stanowisko dotyczy doświadczonego Data Engineera odpowiedzialnego za projektowanie i utrzymanie rozwiązań danych w środowisku Azure. Rola obejmuje budowę i migrację pipeline’ów ETL/ELT, rozwój hurtowni danych i Data Lake, optymalizację baz SQL oraz zapewnienie jakości i bezpieczeństwa danych w środowisku bankowym. Wymagana jest silna znajomość Azure Data Factory, SQL, modelowania hurtowni danych oraz integracji systemów, a dodatkowym atutem jest doświadczenie w Databricks, CI/CD i rozwiązaniach chmurowych. Tryb pracy Praca hybrydowa - 2 dni z biura Klienta w Krakowie Zakres obowiązków: Projektowanie, implementacja i utrzymanie pipeline’ów ETL/ELT na skalę przedsiębiorstwa przy użyciu Azure Data Factory i powiązanych usług Azure Tworzenie i modernizacja procesów ETL/ELT (w tym SSIS) oraz migracja starych pipeline’ów do chmury Tworzenie i obsługa zarówno wsadowych, jak i niemal w czasie rzeczywistym (streaming) workflow danych Projektowanie i rozwój architektury Data Warehouse i Data Lake (modelowanie wymiarowe, schematy gwiazdy/śnieżynki) Optymalizacja, zarządzanie i tuning baz danych MS SQL Server / Azure SQL w celu zapewnienia niezawodności i wydajności Wsparcie i modernizacja stosów raportowania i integracji (SSRS, Crystal Reports) oraz integracja danych z API, plików i bezpiecznych źródeł (np. CyberArk, SFTP) Ścisła współpraca z zespołami .NET/API w celu zapewnienia niezawodnych i bezpiecznych przepływów danych oraz integracji Współtworzenie architektury rozwiązań i danych oraz opracowywanie i aktualizacja Dokumentacji Projektu Rozwiązania (SDD) Zapewnienie jakości danych, spójności, zgodności z zasadami zarządzania danymi oraz przestrzegania standardów bezpieczeństwa i regulacji bankowych Wsparcie modeli danych Power BI, strategii odświeżania danych i optymalizacji wydajności warstwy analitycznej Oferujemy: Zyskujesz indywidualne wsparcie Service Delivery Managera, który pomoże Ci zaplanować ścieżkę kariery i zadba o Twój komfort i satysfakcję z pracy w projekcie Szkolenia, certyfikaty i konferencje - dofinansowujemy lub w pełni pokrywamy koszty rozwoju kompetencji technicznych SmartChange – umożliwiamy zmianę projektu i dobieramy kolejny zgodnie z Twoimi preferencjami Dbamy o Twój work-life balance, dlatego poza pracą oferujemy wyjścia integracyjne, aktywności sportowe i inspirujące webinary #edge1talks, które rozwijają i łączą ludzi Aktywność fizyczna – wspieramy sportowe inicjatywy i wynajem sal treningowych Pakiet zdrowotny – prywatna opieka, karta sportowa, ubezpieczenie i wsparcie psychologiczne (HearMe) Elastyczne benefity – sam decydujesz, na co przeznaczasz punkty w naszym systemie benefitowym Bezpłatne lekcje języka angielskiego – dopasowane do Twojego poziomu, idealne do pracy w międzynarodowym środowisku
Data Engineer with Java
Link Group
⚲ Remote
20 000 - 30 000 PLN (B2B)
Wymagania
- Software Engineering
- Data engineering
- Java
- GCP
- Terraform
- Spark
- CI/CD
- GitHub Actions
- Stakeholder management
- Problem-Solving
- Scala (nice to have)
- Airflow (nice to have)
O projekcie: We are currently looking for a Data Engineer to join a cross-functional team responsible for building and maintaining a scalable and reliable data platform supporting key business areas across the organization. The team focuses on delivering high-quality data solutions, enabling advanced analytics, reporting, and operational processes. You will collaborate closely with engineers, product representatives, and business stakeholders, contributing both to technical implementation and to shaping data standards and best practices. Wymagania: - Has 3+ years of experience as a Software Engineer or Data Engineer - Has strong programming skills in Java (Scala is a plus) - Has hands-on experience with cloud platforms (preferably GCP) and Infrastructure as Code tools (e.g., Terraform) - Understands distributed data processing concepts (e.g., Spark) - Is familiar with CI/CD practices and tools such as GitHub Actions - Has experience with workflow orchestration tools (e.g., Airflow – nice to have) - Feels comfortable working directly with business stakeholders - Has experience working in Agile/Scrum environments - Demonstrates analytical thinking and problem-solving skills - Is open to continuous learning and knowledge sharing - Speaks fluent English Codzienne zadania: - Designing, developing, and optimizing data processing pipelines in a cloud-based environment (GCP) - Contributing to architectural decisions and implementation strategies - Building scalable data solutions using distributed processing frameworks - Ensuring data quality, consistency, and performance across systems - Translating business requirements into technical data solutions - Supporting CI/CD processes and infrastructure automation - Proactively identifying improvement areas and enhancing team ways of working
Data Engineer with AWS
DCG sp. z o.o.
⚲ Poland
21 840 - 26 880 PLN (B2B)
Wymagania
- AWS Glue
- Data pipelines
- Spark
- SQL
- Data models
- Data warehouses
- Data engineering
- Python
- AWS S3
- AWS Lambda
- Redshift
- Data management
- GitLab
- IaC
- Terraform
- Analytical skills
- ETL
- AWS
- PowerBI (nice to have)
O projekcie: Offer: - Private medical care - Co-financing for the sports card - Constant support of dedicated consultant - Employee referral program Wymagania: Requirements: - 4–6 years of experience as Data Engineer - Strong SQL and Python skills (production-grade code) - Hands-on experience with AWS (Glue/S3/Lambda/Redshift) - Knowledge of data management principles and best practices, including data governance, data quality, and data integration - Practical experience in managing CI/CD pipelines (GitLab) and IaC (Terraform) - Excellent problem-solving and analytical skills, with the ability to identify and resolve complex data engineering issues - Experience designing ETL/ELT pipelines - Experience working in Agile environment - Knowledge of English C1 Nice to have: - Experience with using PowerBI Codzienne zadania: - Design and implement scalable batch data pipelines on AWS using AWS Glue - Develop and optimize data transformations using Apache Spark and SQL, ensuring performance and maintainability - Design efficient data models for analytical and reporting use cases (data lakes, data warehouses) - Ensure data reliability, quality, monitoring, and performance in distributed environments - Engage directly with business to understand requirements and translate them into data engineering solutions - Work independently while maintaining effective communication with stakeholders
Data Engineer - Automation and Innovation Department
T-Mobile
⚲ Warszawa, Mokotów
Nasze wymagania: Bachelor’s or Master’s degree in Data Science, Statistics, Computer Science, Economics, or a related field. Minimum 3 years of experience as a Data Analyst or Data Quality Analyst in a data-driven organization. Proven experience in data quality management and data governance practices. Strong database expertise, including advanced SQL and PL/SQL. Proficiency in Python, with experience in Scala as a plus. Proficiency in cloud platforms and services (preferably GCP). Experience with Linux and bash scripting. Solid understanding of Cloudera Hadoop technology stack (Apache Spark, Apache Kafka). Knowledge of data handling principles, including ETL processes and real-time data processing. Mile widziane: Experience with CI/CD pipelines and automation tools. Strong understanding of data governance principles, including metadata management and data quality frameworks. Ability to work with and understand various source system types (Kafka, MQ, SFTP, databases, APIs, file shares). Experience in international or multi-country data projects is preferred. Strong communication skills to translate technical findings into business-oriented insights. Fluent in English, both written and spoken. Self-starter with a continuous learning mindset and strong attention to detail. O projekcie: We are looking for experienced Data Engineer who will be responsible for designing, implementing, and maintaining scalable data pipelines and infrastructure to ensure seamless data ingestion, storage, and transformation across multiple international environments. This role operates within a global project context, collaborating with cross-functional teams located in different regions to deliver reliable and high-performance data solutions. The position emphasizes the technical aspects of data engineering, including optimizing system performance, ensuring data consistency across geographies, and supporting robust, scalable, and compliant data workflows on an international scale. Zakres obowiązków: Build and maintain data ingestion processes from various sources into the Data Lake. Design, develop, and optimize complex data pipelines for reliable data flow. Build, develop, and maintain frameworks that facilitate the construction of data pipelines. Implement end-to-end testing frameworks for data pipelines. Collaborate with data analysts and scientists to ensure the delivery of quality data. Ensure robust data governance, security, and compliance practices. Explore and implement emerging technologies to improve data pipeline performance. Utilize and integrate data from various source system types, including Kafka, MQ, SFTP, databases, APIs, and file shares Oferujemy: Umowa o pracę Dodatkowy dzień wolny z okazji urodzin/ imienin Pakiet medyczny i ubezpieczenie na życie Platforma benefitowa - Ty wybierasz z czego korzystasz Dostęp do platform szkoleniowych, które podniosą Twoją wiedzę Znam Talent – szkolenia lub pieniądze za polecenie znajomych do pracy 😊! Poza tym możesz u nas liczyć na dostęp do naszych produktów i usług na preferencyjnych warunkach oraz benefity, o których przeczytasz poniżej
Data Engineer - 1P Area
Allegro
⚲ Warszawa, Wola
14 200–20 200 zł brutto / mies.
Wymagania
- SQL
- PySpark
- Airflow
Nasze wymagania: You have at least 3 years of experience as a Data Engineer working with large datasets. You are highly proficient in SQL and have a strong understanding of data modeling and cloud DWH architecture. You have experience with cloud providers, preferably GCP (BigQuery). You are proficient in Python for working with large data sets, using tools like PySpark or Airflow. You use good practices such as clean code, code review, and CI/CD. You have a high degree of autonomy and a passion for translating complex business requirements into impactful data solutions. You know English at a B2 level or higher. O projekcie: The salary range for this position is (contract of employment): 14 200 - 20 200 PLN in gross terms In the 1P (First Party) area, we are the enablers for designing, enhancing, and maintaining process data for core business operations, including pricing, backmargin, planning, and warehouse costs. As 1P undergoes significant transformations, our team is responsible for designing mandatory new dataflows that allow these core processes to function effectively. We are looking for a Data Engineer to join this high-complexity environment. This is a critical role where your work on data quality directly impacts Allegro’s margin and P&L. Zakres obowiązków: Design and develop high-quality data products and reliable, cost-effective processing pipelines on the Google Cloud Platform. Build, test, and maintain data systems to ensure accuracy for large-scale pipelines involving both streaming and batch data flows. Implement data schemas, models, message brokers, and SQL/No-SQL databases. Actively maintain the correctness of dataflows, ensuring high performance for critical processes like competitive pricing. Write high-quality code that follows agreed standards and suggest areas for automation or standardization. Manage and optimize costs related to data infrastructure and processing within the GCP environment. Oferujemy: Flexible working hours in the hybrid model (4/1) — working hours start between 7:00 a.m. and 10:00 a.m. We also have 30 days of occasional remote work. Well-located offices with fully equipped kitchens, bicycle parking, and ergonomic work tools (raised desks, interactive conference rooms). Top-tier equipment: A 16" or 14" MacBook Pro or corresponding Dell with Windows and all necessary accessories. Cafeteria plan: A wide selection of fringe benefits including medical, sports, or lunch packages, insurance, and purchase vouchers. Growth & Development: Paid English classes, a training budget, hackathons, and access to an internal learning platform. Giving back: An additional day off for volunteering. Integration: Social events like Family Day, Fat Thursday, and Advent of Code.
Data Engineer (k/m)
Electrum Sp. z o.o.
⚲ Białystok
Wymagania
- Python
- SQL
- Apache Airflow
- PostgreSQL
- Docker
- Git
Nasze wymagania: Programowanie: Python, SQL Orkiestracja: Apache Airflow Bazy danych: MS SQL Server, PostgreSQL Infrastruktura: Docker Integracje: REST API Kontrola wersji: Git Zdolności analityczne: Umiejętność samodzielnej analizy problemów, interpretacji danych i proponowania rozwiązań AI Fluency: Praktyczne wykorzystanie narzędzi AI (np. GitHub Copilot, ChatGPT, Claude) w codziennej pracy Systemy operacyjne: Windows, Linux Mile widziane: Doświadczenie z narzędziami do automatyzacji procesów, m.in. n8n Znajomość funkcjonowania biznesu — wiedza z zakresu finansów, optymalizacji procesów lub trenowania modeli będzie dodatkowym atutem Doświadczenie w zakresie anonimizacji danych (np. pseudonimizacja, maskowanie, tokenizacja) będzie dodatkowym atutem Znajomość dbt (data build tool) — rozważamy wdrożenie tego narzędzia i chętnie powitamy kogoś, kto pomoże nam w tym kroku Znajomość koncepcji hurtowni danych O projekcie: Jeśli interesujesz się szerokim rozwojem w obszarze przetwarzania danych, to jest idealna okazja dla Ciebie. Szukamy utalentowanego i myślącego przyszłościowo Data Engineera, który dołączy do naszego zespołu. W tej roli będziesz odpowiedzialny za budowanie, utrzymanie i optymalizację pipeline'ów danych, które wspierają kluczowe decyzje biznesowe w całej organizacji. Będziesz blisko współpracować z analitykami danych, inżynierami oprogramowania oraz osobami z innych obszarów organizacji, dbając o niezawodne, skalowalne i wydajne przepływy danych. Oczekujemy, że potrafisz nie tylko technicznie realizować zadania, ale również samodzielnie analizować problemy, wyciągać wnioski z danych i proponować rozwiązania — aktywnie wykorzystując przy tym technologie AI do usprawniania swojej pracy. Zakres obowiązków: Projektowanie, budowanie i utrzymanie pipeline'ów ETL/ELT Tworzenie i zarządzanie orkiestracją procesów za pomocą Apache Airflow Pisanie czystego, wydajnego i dobrze przetestowanego kodu w Pythonie i SQL Praca z relacyjnymi bazami danych: MS SQL Server i PostgreSQL Praca z bazami wektorowymi Budowanie i utrzymanie środowisk kontenerowych przy użyciu Dockera — tworzenie obrazów, pisanie Dockerfile'ów, zarządzanie docker-compose oraz sieciami i wolumenami Integracja danych z zewnętrznych źródeł także poprzez REST API oraz budowanie własnych serwisów REST API Zapewnienie jakości, niezawodności i wydajności danych Współpraca z zespołami w oparciu o przepływy pracy z wykorzystaniem Gita Aktywne stosowanie narzędzi AI i rozwiązań opartych na LLM w codziennej pracy Oferujemy: Pracę przy ciekawych projektach Tryb pracy hybrydowy z biurem w Białymstoku Dostęp do nowoczesnych narzędzi AI Opieka medyczna, imprezy firmowe
Data Engineer (Python & AWS)
Cyclad
⚲ Warszawa
140–160 zł netto (+ VAT) / godz.
Wymagania
- Python
- AWS
- Glue
- Fargate
- Step Functions
- Lambda
- Athena
Nasze wymagania: At least 3+ years of professional experience in Data Engineering or related data services roles Strong expertise in Python for data manipulation and automation Hands-on experience with dbt (ELT framework) Practical experience working with AWS services for data processing such as Glue, Fargate, Step Functions, Lambda, and Athena Familiarity with data pipeline tools and modern data processing technologies Experience in automating data parsing solutions Ability to work independently in a dynamic and fast-paced environment Strong analytical and problem-solving skills with attention to detail Good communication skills and ability to work in a remote and distributed team environment O projekcie: In Cyclad, we work with top international IT companies in order to boost their potential in delivering outstanding, cutting-edge technologies that shape the world of the future. We are seeking a Data Engineer (Python + AWS) to join a remote development team in the banking sector. The role focuses on developing and maintaining data pipelines, transforming and automating data processes, and working with modern AWS data services and the dbt framework. Type of project: Banking sector Office location: Poland Work mode: Remote Working hours: Part-time – 0.5 FTE (4 hours per day), 10:00–14:00 CET Budget: 140-160 PLN net/ h- B2B Project length: Long-term Only candidates with citizenship in the European Union and residence in Poland Start date: ASAP (depending on candidate’s availability) Zakres obowiązków: Develop and maintain AI/ML solutions using Python and popular ML frameworks Develop and maintain data pipelines and workflows to support project requirements Automate data parsing processes to improve efficiency and scalability Develop dbt models to mirror transformations currently implemented in SAP Business Object Data Services and create new transformation logic Work with AWS data services to support scalable data processing Ensure data integrity, consistency, and quality throughout the entire data lifecycle Collaborate with the engineering team to improve data processing architecture and workflows Oferujemy: Opportunity to work on modern data engineering projects in the banking sector Fully remote working model Part-time job agreement based on b2b Private medical care with dental care (covering 70% of costs) Multisport card (also for an accompanying person) Life insurance
Data Engineer (Data Analytics) | Branża finansowa
Edge One Solutions Sp. z o.o.
⚲ Kraków
Wymagania
- Google Cloud Platform
- JSON
- Parquet
- Python
- Java
Nasze wymagania: Co najmniej 4 lata doświadczenia zawodowego na stanowisku Dataflow Engineer, Data Engineer lub pokrewnym, obejmującego pracę z dużymi wolumenami danych oraz systemami rozproszonymi Bardzo dobra znajomość języków programowania, w szczególności Python lub Java Praktyczne doświadczenie w projektowaniu i orkiestracji pipeline’ów danych (np. z wykorzystaniem Google Dataflow) Doświadczenie w pracy z chmurowymi platformami danych, zwłaszcza Google Cloud (BigQuery, Dataflow) Ugruntowana wiedza i praktyka w zakresie narzędzi oraz frameworków ETL, w tym przetwarzania wsadowego i strumieniowego w czasie rzeczywistym Znajomość popularnych formatów danych, takich jak JSON, Parquet i podobnych Doświadczenie w pracy z bazami danych SQL i NoSQL oraz znajomość dobrych praktyk w obszarze zarządzania danymi, zapewnienia jakości danych i bezpieczeństwa O projekcie: Nasz klient to jedna z największych międzynarodowych instytucji finansowych z siedzibą w Londynie, działająca w kilkudziesięciu krajach na świecie. Oferuje usługi bankowości detalicznej, korporacyjnej i inwestycyjnej, wspiera finansowanie handlu międzynarodowego oraz zarządzanie aktywami, koncentrując się na bezpieczeństwie, zgodności regulacyjnej i globalnej obsłudze klientów. Tryb pracy Praca hybrydowa (2 dni z biura Klienta w Krakowie) Rola Stanowisko obejmuje rolę Data Engineera odpowiedzialnego za projektowanie, rozwój i utrzymanie skalowalnych rozwiązań do przetwarzania danych w środowisku Google Cloud. Osoba na tym stanowisku będzie zajmować się integracją danych z różnych źródeł, tworzeniem i rozwijaniem procesów ETL, optymalizacją wydajności systemów oraz wdrażaniem rozwiązań do przetwarzania strumieniowego. Wymagana jest bardzo dobra znajomość Python lub Java, doświadczenie w pracy z Google Dataflow i BigQuery, a także praktyka w przetwarzaniu dużych wolumenów danych oraz pracy z systemami rozproszonymi. Zakres obowiązków: Projektowanie i rozwój pipeline’ów danych: Budowa oraz wdrażanie wydajnych procesów do pozyskiwania, przetwarzania i składowania danych na różnych platformach Integracja danych: Łączenie danych z wielu źródeł, w tym środowisk chmurowych (Google Cloud), baz danych (SQL/NoSQL), API oraz systemów zewnętrznych Optymalizacja przepływów danych: Analiza, diagnozowanie oraz usprawnianie istniejących pipeline’ów w celu zwiększenia ich wydajności i niezawodności Transformacja danych (ETL): Implementacja procesów Extract, Transform, Load, przekształcających dane surowe w ustrukturyzowane i gotowe do analiz oraz raportowania Współpraca międzyzespołowa: Ścisła współpraca z zespołami data engineering i operations w celu identyfikacji potrzeb biznesowych i wdrażania odpowiednich rozwiązań; wsparcie aplikacji również poza standardowymi godzinami pracy, w razie potrzeby Automatyzacja i skalowalność: Projektowanie skalowalnych i zautomatyzowanych workflow umożliwiających obsługę dużych wolumenów danych przy zachowaniu wysokiej dostępności i niskich opóźnień Monitoring i utrzymanie: Tworzenie oraz konfiguracja systemów monitoringu i alertowania w celu zapewnienia ciągłości działania i optymalnej wydajności pipeline’ów Dokumentacja techniczna: Sporządzanie i aktualizacja dokumentacji dotyczącej architektury przepływów danych, konfiguracji pipeline’ów oraz logiki przetwarzania, wspierającej utrzymanie i transparentność rozwiązań Oferujemy: Zyskujesz indywidualne wsparcie Service Delivery Managera, który pomoże Ci zaplanować ścieżkę kariery i zadba o Twój komfort i satysfakcję z pracy w projekcie Szkolenia, certyfikaty i konferencje - dofinansowujemy lub w pełni pokrywamy koszty rozwoju kompetencji technicznych SmartChange – umożliwiamy zmianę projektu i dobieramy kolejny zgodnie z Twoimi preferencjami Dbamy o Twój work-life balance, dlatego poza pracą oferujemy wyjścia integracyjne, aktywności sportowe i inspirujące webinary #edge1talks, które rozwijają i łączą ludzi Aktywność fizyczna – wspieramy sportowe inicjatywy i wynajem sal treningowych Pakiet zdrowotny – prywatna opieka, karta sportowa, ubezpieczenie i wsparcie psychologiczne (HearMe) Elastyczne benefity – sam decydujesz, na co przeznaczasz punkty w naszym systemie benefitowym Bezpłatne lekcje języka angielskiego – dopasowane do Twojego poziomu, idealne do pracy w międzynarodowym środowisku
Data Engineer (Azure)
Motife Sp. z o.o.
⚲ Kraków
130–150 zł netto (+ VAT) / godz.
Wymagania
- Python
- PySpark
- SQL
- Kafka
- Event Hubs
- Kinesis
- Terraform
- Bicep
- Azure Container Apps
- K8s
- Debezium
Nasze wymagania: Proficiency in Python/PySpark and SQL. Strong experience building robust data pipelines with Databricks Spark. Proven track record handling large, complex datasets. Expertise in developing reusable data transformation libraries (Python packages). Deep knowledge of Databricks Delta optimization (partitioning, Z-ordering, compaction, etc.). Hands-on experience with CI/CD pipeline development. Skilled in event streaming integration using Kafka, Event Hubs, or Kinesis. Solid understanding of fundamental networking concepts. Familiarity with Agile/Scrum methodologies. Mile widziane: Spark Structured Streaming, IaC (Terraform/Bicep), containers (Azure Container Apps/K8s), event sourcing, CDC (Debezium), Azure native (Data Factory, Functions, ACI) O projekcie: We support recruitment for a US-based company that is a provider of mission-critical background screening solutions. They work with Fortune 100 clients helping them manage risk and hire the best talent. This role will provide you with an outstanding opportunity to work for an industry-leading company. With over 4500 employees from 30+ different nationalities, you will be working with a diverse bunch of creatives redefining the world of digital background check and verification services across the globe. We’re seeking a self-motivated Data Engineer with strong Python/PySpark skills to join the Data Engineering Team and help build the Azure Data Analytics Platform. The ideal candidate is an independent, collaborative team player who leads projects, identifies process gaps, and continuously develops expertise in Human Capital technology. The role involves developing reusable, metadata-driven data pipelines, automating platform processes, building data integrations, extending ETL libraries, writing unit tests, creating Databricks monitoring solutions, proactively resolving ETL issues, collaborating on cloud resources, updating documentation, conducting code reviews, and enhancing platform architecture. The position is offered on a B2B contract from March to December 2026, with the possibility of continued collaboration afterward. Key takeaways: Stack: Python/PySpark, SQL, Databricks Spark, Knowledge of Azure cloud native solutions Zakres obowiązków: Build reusable, metadata-driven data pipelines. Automate and optimize data platform processes. Develop integrations with data sources and consumers. Extend shared ETL libraries with transformation methods. Write unit tests. Create monitoring solutions for the Databricks platform. Proactively address ETL performance and quality issues. Collaborate with infrastructure teams on cloud resources. Update data platform wiki and documentation. Conduct code reviews to ensure quality. Initiate and implement architecture improvements. Oferujemy: 100 Remote work model. Superior co-working and personal development experience in an international setting.
Data Engineer (Azure Data Factory)
Addepto
⚲ Katowice, Kraków, Grzegórzki, Poznań, Warszawa, Śródmieście, Wrocław, Stare Miasto
12 600–21 000 zł / mies. (zal. od umowy)
Wymagania
- Python
- SQL
- Microsoft Azure
- Azure Data Factory
- ETL/ELT
- CI/CD
- Microsoft Power BI
- Databricks
- dbt
Nasze wymagania: Strong hands-on experience with Azure Data Factory (must-have), including: pipeline and orchestration design, linked services, datasets, triggers, and parameterization, operational monitoring, troubleshooting, and performance tuning, and deployment-aware ADF development in enterprise environments. Excellent knowledge of Python (Azure Functions, REST APIs, automation). Strong SQL skills and solid understanding of data modeling for ETL/ELT and warehouse workloads. Experience with CI/CD processes in Azure DevOps (pipelines, releases, multi-environment deployments). Solid understanding of Azure services and cloud-based data solutions (e.g., Azure SQL Database, Azure Key Vault). Experience with Power BI for occasional dashboarding and reporting. Experience working with modern development practices and tools. Consulting mindset with proactive communication and strong stakeholder alignment skills. Ability to effectively collaborate with Product Owner and Architect during planning and delivery. Independent and responsible approach to delivering high-quality solutions. Excellent command of English (at least C1 level). Mile widziane: Knowledge of dbt. Experience implementing data warehouses on Azure. O projekcie: As a Data Engineer, you will have the opportunity to support and further develop an Azure-based data integration solution built primarily around Azure Data Factory (ADF). The current environment includes Azure Functions and ingestion components, but daily delivery is strongly centered on ADF pipeline design, orchestration, monitoring, and continuous improvement. The project focuses on expanding and stabilizing the existing data platform, including the warehouse layer (Azure SQL Database or Synapse), optional dbt-based transformations, and occasional Power BI reporting support. You will work closely with the client-side Product Owner and Architect, proactively aligning business needs with technical implementation decisions and ensuring high-quality, scalable solutions. Additionally, you will contribute to Azure DevOps CI/CD pipelines and release processes to maintain reliable deployments across environments. Zakres obowiązków: Design, develop, and maintain Azure Data Factory pipelines, including orchestration, parameterization, and trigger management. Configure and manage linked services and datasets within ADF. Monitor, troubleshoot, and optimize ADF pipelines to ensure performance and reliability. Develop and maintain ETL/ELT processes and support the evolution of the data warehouse layer (Azure SQL Database or Synapse). Translate business requirements into technical solutions in close collaboration with the Product Owner and Architect. Develop and maintain Python-based components (e.g., Azure Functions, API integrations, automation scripts). Contribute to CI/CD processes in Azure DevOps, including pipelines, releases, and environment promotion. Support occasional Power BI reporting and dashboarding needs. Ensure proactive communication, stakeholder alignment, and visibility of risks and impacts. Take ownership of assigned tasks and actively contribute to continuous platform improvement. Oferujemy: Work in a supportive team of passionate enthusiasts of AI & Big Data. Engage with top-tier global enterprises and cutting-edge startups on international projects. Enjoy flexible work arrangements, allowing you to work remotely or from modern offices and coworking spaces. Accelerate your professional growth through career paths, knowledge-sharing initiatives, language classes, and sponsored training or conferences, including a partnership with Databricks, which offers industry-leading training materials and certifications. Choose your preferred form of cooperation - B2B or a contract of mandate - and enjoy 20 fully paid days off. Participate in team-building events and utilize the integration budget. Celebrate work anniversaries, birthdays, and milestones. Access medical and sports packages, eye care, and well-being support services, including psychotherapy and coaching. Get full work equipment for optimal productivity, including a laptop and other necessary devices. With our backing, you can boost your personal brand by speaking at conferences, writing for our blog, or participating in meetups. Experience a smooth onboarding with a dedicated buddy, and start your journey in our friendly, supportive, and autonomous culture.
Data Engineer (AWS)
Motife Sp. z o.o.
⚲ Kraków
130–150 zł netto (+ VAT) / godz.
Wymagania
- Python
- PySpark
- SQL
- Apache Spark
- S3
- Glue
- EMR
- Lambda
- Kafka
- Amazon Kinesis
- AWS
Nasze wymagania: Proficiency in Python/PySpark and SQL Strong experience building robust data pipelines using Apache Spark (e.g., on AWS EMR) Proven track record handling large, complex datasets Expertise in developing reusable data transformation libraries (Python packages) Deep knowledge of data lake optimization techniques (e.g., partitioning, compaction, file sizing, performance tuning) Hands-on experience with CI/CD pipeline development Experience with AWS services such as S3, Glue, EMR, and Lambda Skilled in event streaming integration using Kafka or Amazon Kinesis Solid understanding of fundamental networking concepts O projekcie: We support recruitment for a US-based company that is a provider of mission-critical background screening solutions. They work with Fortune 100 clients helping them manage risk and hire the best talent. This role will provide you with an outstanding opportunity to work for an industry-leading company. With over 4500 employees from 30+ different nationalities, you will be working with a diverse bunch of creatives redefining the world of digital background check and verification services across the globe. We’re seeking a self-motivated Data Engineer with strong AWS skills to join the Data Engineering Team and build the AWS Data Analytics Platform. The ideal candidate independently leads projects, collaborates across teams, identifies process improvements, and grows expertise in Human Capital technology. The role involves developing reusable, metadata-driven pipelines; automating processes; building data integrations; extending ETL libraries; writing unit tests; monitoring solutions (Databricks/AWS); resolving ETL issues; cloud collaboration; documentation; code reviews; and platform architecture enhancements. The position is offered on a B2B contract from March to December 2026, with the possibility of continued collaboration afterward. Key takeaways: Stack: Python/PySpark, SQL, AWS (Redshift, RDS, S3, Glue, EMR, Athena) Zakres obowiązków: Build reusable, metadata-driven data pipelines. Automate and optimize data platform processes. Develop integrations with data sources and consumers. Extend shared ETL libraries with transformation methods. Write unit tests. Create monitoring solutions for the Databricks platform. Proactively address ETL performance and quality issues. Collaborate with infrastructure teams on cloud resources. Update data platform wiki and documentation. Conduct code reviews to ensure quality. Initiate and implement architecture improvements. Oferujemy: 100 Remote work model. Superior co-working and personal development experience in an international setting.
Data Engineer
Ework Group
⚲ Kraków, Wrocław, Poznań, Warszawa, Gdańsk
25 200 - 28 560 PLN (B2B)
Wymagania
- AWS
- Redshift
- Airflow
- Git
- dbt
- Python
O projekcie: 🔹 For our Client we are looking Data Engineer🔹 Possible location in Poland : Warszawa/Wrocław/Poznań/Gdańsk/Kraków The standard working model includes 2 days per week in the office. However, there is flexibility depending on individual arrangements - occasional visits to the office for team meetings are also possible. We are seeking a skilled and proactive Data Engineer with hands-on experience in AWS Redshift, data pipeline development, and version control systems such as Git. The ideal candidate will be responsible for building, optimizing, and maintaining robust data pipelines and managing workflows that support our analytics and business intelligence initiatives. Wymagania: - AWS Redshift, primarily S3 , Cloud 9 - Proficient in - Git , Airflow, DBT - Should have a good understanding of SDLC and Agile methodologies - Basic knowledge of Python - Good understanding of data warehouse architecture and cloud-based data engineering principles. - Good to have domain knowledge of telecommunication industry Codzienne zadania: - Design, develop, and maintain scalable data pipelines using AWS Redshift, primarily S3 , Cloud 9 - Proficient in - Git , Airflow, DBT - Integrate and manage data workflows in Git repositories, including branching, pull requests, and version control best practices - Optimize Redshift performance through best practices in schema design, data partitioning, and query optimization - Monitor pipeline health and data quality; implement alerting and logging as needed. - Collaborate with Data Analysts, Data Scientists, and Business Stakeholders to understand data needs and deliver reliable datasets. - Participate in code reviews, testing, and documentation. - Should have a good understanding of SDLC and Agile methodologies - Basic knowledge of Python - Good understanding of data warehouse architecture and cloud-based data engineering principles. - Good to have domain knowledge of telecommunication industry
Data Engineer
N Brand - rekrutacje
⚲ Kraków
Wymagania
- Python
- Apache Airflow
- SQL
- dbt
- Docker
- Git
- dlt
- AWS
- Microsoft Azure
- Google Cloud Platform
- AWS Glue
Nasze wymagania: Strong Python - We're not looking for someone who writes scripts - we need clean, testable, production-grade code. Understanding of project structure, dependency management, testing, and error handling is expected. Orchestration — must have - Production experience with at least one orchestrator: Prefect is preferred, but Airflow or Dagster are also acceptable. It must be hands-on production experience, not just a course or certification. The candidate should understand how to design pipelines, handle errors, implement retry logic, and manage task dependencies. Version Control with GitHub - Working knowledge of branches, pull requests, and code reviews. Experience with GitHub Actions and CI/CD is a strong plus. Containerization - Practical Docker skills — writing Dockerfiles, building images, understanding layers. Kubernetes at least conceptually, ideally with production experience. dbt — beyond just knowing the name - Understanding of how a dbt project works from the inside: layer structure (staging - intermediate - marts), configuration files (dbt_project.yml, sources, schema), macros, and tests. The candidate should be able to design and build a transformation layer. SQL at a solid level - Writing SELECTs is not enough. We're looking for someone who understands stored procedures, how to manage schema access (GRANT, REVOKE, roles), materialized views, window functions, and data modeling. Mile widziane: Experience with dlt (data load tool) for building scalable ingestion layers Cloud platform experience (AWS, GCP, or Azure), especially cloud-native data services such as AWS Glue or BigQuery Familiarity with stream processing patterns or near-real-time data architectures Kubernetes experience Zakres obowiązków: Someone with 5+ years of data engineering experience who has worked in a production environment with real pipelines. A person who understands the full data lifecycle from ingestion, through transformation, to serving data to the business. Able to communicate in English with the Client (the role requires direct contact with Customer). Self-driven, proactive, and not afraid to make technical decisions.
Data Engineer
Kramp Sp. z o.o.
⚲ Konin, Stare Miasto (pow. koniński)
Wymagania
- Git
- DATA MODELLING
- Docker
- Java
- SQL
- Python
Nasze wymagania: Openness to engage in continuous learning and agility in addressing business challenges; Experience in designing, developing, documenting, and maintaining software written in Python and/or Java as well as dataflows written in SQL; Knowledge of different Data Modelling principles and selecting the right one depending on the needs of a consumer; Feeling comfortable working with Linux, git, and Docker to extend and maintain our CI/CD workflows and pipelines or are you eager to dive into this topic; Experience in working in cloud environments (preferably GCP or AWS); Experience or knowledge of Infrastructure-as-Code applications like Terraform and data transformation tools as dbt and Dataform; Cultural awareness, sensitivity, and adaptability in building connections with people from diverse backgrounds; Excel conceptual thinking and a proactive approach to decision-making, taking ownership to ensure project success. Experience with Striim is an advantage. O projekcie: As a Data Foundation team, we are driving data innovations from the core making data work securely, scalable, and smartly. Our mission? To build and maintain the foundation that powers Kramp’s data-driven future. That means enabling modern, secure, and scalable data infrastructure that ingests raw data and transforms it into golden assets across the organization. We’re not just supporting the business - we’re leading transformation. With cutting-edge tools like DBT Cloud, a modern tech stack, and a Data Mesh approach, we’re creating an environment where AI, machine learning, and automation can thrive. This is the team shaping what’s next: from foundational pipelines to building future-ready AI tools. If you’re excited about real impact, modern tech, and being part of something big - we’re just getting started. The team is building the foundation of Kramp's self-service analytics platform in Google Cloud Platform-based data warehouse (DWH). Feeding different targets as: - Data visualization tools (e.g. Tableau); - Data-driven e-commerce applications; - Kramp's Machine Learning platform. Zakres obowiązków: The Data Office is international, and cross-functional team, combining Business Intelligence, DevOps, FinOps, Data Science, and Software Development; Working within Agile SCRUM Methodologies and the Atlassian toolchain (JIRA, Confluence,GitHub, Git); To build our state-of-the-art cloud data warehouse, we use Python, Java, BigQuery SQL, other Google Cloud Platform services such as Cloud Build, Data transfers, Workflows, Schedulers and Functions; Making use of dbt cloud, Terraform and Data Modelling Tools; You will get deep insights into the work at an international wholesaler being in the middle of the digital transformation, you can contribute and make a real impact; Freedom to initiate new ideas and develop these further. Oferujemy: We are an ambitious, fast-growing and financially sound organization. You can obviously expect: A dynamic role in an international environment Comprehensive training and a structured onboarding process A clearly defined development path Access to modern tools and systems Stable employment under a full time employment contract Annual bonus dependent on KRAMP results Attractive social package (private medical care, subsidy for Multisport card, social fund) Generous hybrid model
Azure Data Engineer/ka
CodeTalent Sp. z o.o.
⚲ Warszawa, Wola
24 000–31 000 zł netto (+ VAT) / mies.
Wymagania
- Microsoft Fabric
- Azure Data Stack
- Azure DevOps
- Databricks
- Snowflake Data Cloud
- SQL
- Spark
- Python
Nasze wymagania: Minimum 4 lata doświadczenia w obszarze Data Engineering Praktyczne doświadczenie z Microsoft Fabric (Lakehouse / Warehouse) Bardzo dobra znajomość Azure Data Stack (ADF, ADLS, Azure SQL) Doświadczenie z Databricks i/lub Snowflake Znajomość SQL lub Spark Doświadczenie w modelowaniu i integracji danych (ETL/ELT, API, systemy zewnętrzne) Umiejętność analitycznego i krytycznego myślenia Doświadczenie w pracy w metodykach Agile Znajomość Azure DevOps Język angielski na poziomie min. B2 Mile widziane: Znajomość języka Python O projekcie: Dla naszego Klienta - firmy technologicznej specjalizującej się w projektowaniu i wdrażaniu nowoczesnych rozwiązań data & cloud szukamy Data Engineer’a. Organizacja realizuje projekty z obszaru hurtowni danych, integracji danych, BI, Big Data, zaawansowanej analityki oraz rozwiązań chmurowych dla klientów z Polski i Europy. Zespół pracuje w oparciu o technologie Microsoft oraz rozwiązania klasy enterprise. Jeśli masz doświadczenie w budowie platform danych w Azure, pracowałeś/aś z Microsoft Fabric i dobrze odnajdujesz się w środowisku projektowym - ta rola może być dla Ciebie. Zakres obowiązków: Tworzenie, konfiguracja i wdrażanie rozwiązań typu Data Lake, Data Warehouse oraz Data Platform Praca w oparciu o Azure Data Stack (ADF, ADLS, Azure SQL) oraz Microsoft Fabric (Lakehouse i/lub Warehouse) Projektowanie i implementacja procesów ETL/ELT oraz modeli danych Integracja danych z systemów wewnętrznych i zewnętrznych (API, Service Bus, event-based integrations) Przetwarzanie i transformacja dużych zbiorów danych Monitorowanie procesów, analiza wydajności oraz optymalizacja kosztów rozwiązań chmurowych Refaktoryzacja i rozwój istniejących rozwiązań Proponowanie architektury rozwiązań opartych o technologie chmurowe Współpraca z zespołami BI, architektami, developerami i interesariuszami biznesowymi Wykorzystanie narzędzi i systemów opartych na GenAI (np. Copilot) w procesie wytwarzania oprogramowania Praca w środowisku Agile/Scrum z wykorzystaniem Azure DevOps (repozytoria, pipelines) Oferujemy: Współpracę w modelu B2B Pracę w pełni zdalną Elastyczne godziny pracy Prywatną opiekę medyczną Kartę sportową Budżet szkoleniowy i udział w wydarzeniach branżowych Udział w projektach międzynarodowych realizowanych w oparciu o nowoczesny stack technologiczny
Atlassian Cloud Administrator (f/m/x)
Sii Sp. z o.o.
⚲ Białystok, Centrum, Bydgoszcz, Gdańsk, Oliwa, Katowice, Kraków, Podgórze, Lublin, Łódź, Śródmieście, Piła, Poznań, Wilda, Rzeszów, Szczecin, Toruń, Warszawa, Mokotów, Wrocław, Fabryczna
Wymagania
- Rovo
- Loom
- Atlassian Cloud
- Atlassian Guard
- Atlassian Cloud Organization
- Jira
- Confluence
- Atlassian Marketplace
- TEMPO
- Atlassian Data Center
- ScriptRunner
- Big Picture
Nasze wymagania: At least 4 years of hands-on experience in implementing and administering the Atlassian Cloud ecosystem Strong operational expertise in Jira, Confluence, Loom, and Rovo, including a solid understanding of their functionalities and integrations within the System of Work Proven ability to administer Atlassian Cloud Organization and Atlassian Guard, with a focus on security architecture and Identity Provider (IdP) integration Practical experience in building Automation Rules and working with the Jira REST API Involvement in Jira and Confluence on‑premise to Atlassian Cloud migration projects Ability to translate business requirements into effective and scalable tool configurations Experience in documenting implemented processes and configurations in line with solution architecture standards Fluent Polish required Residing in Poland required Mile widziane: Hands-on experience with popular Atlassian Marketplace apps such as ScriptRunner, Tempo Suite, Xray, BigPicture, and eazyBI Familiarity with additional Atlassian Cloud applications, including Focus, Talent, Compass, Bitbucket, and Statuspage, also within the context of the System of Work, as well as on‑premise tools like Bamboo and Jenkins Experience in integrating systems using platforms such as OpsHub, Getint Integration Platform, and ScriptRunner Connect Ability to support, administer, and maintain Atlassian Data Center environments Atlassian certifications confirming expertise O projekcie: At Sii Poland, we focus on growth, innovation, and building strong, partnership-based relationships with our clients. We are looking for a professional to join our team of experts within the Atlassian Competency Center and support our clients in effectively using Atlassian Cloud tools. As an Atlassian Cloud Administrator, you will be responsible for providing technical and process-related support for Atlassian Cloud environments at our clients. Your role will include designing, configuring, and optimizing solutions based on Jira, Confluence, Loom, Guard, Rovo, and other Atlassian tools to effectively support business processes. This also includes participation in migration projects from on-premise solutions (Server/Data Center) to Atlassian Cloud. If you value task variety, enjoy combining technical work with client interaction, and want to have a real impact on the development of Atlassian environments – this role is for you! Zakres obowiązków: Administering, configuring, and providing ongoing maintenance of Atlassian Cloud environments for clients Managing system settings and optimizing Atlassian environments in line with best practices and business requirements Troubleshooting technical issues and providing user support Delivering integrations and data migrations between Atlassian systems and other platforms used by the client Managing user accounts, permissions, and other access and security aspects within the Atlassian Cloud ecosystem Creating, updating, and maintaining technical documentation Collaborating with clients on implementing business processes using Atlassian tools and Marketplace applications Oferujemy: Great Place to Work since 2015 - it’s thanks to feedback from our workers that we get this special title and constantly implement new ideas Employment stability - revenue of PLN 2.1BN, no debts, since 2006 on the market We share the profit with Workers - over PLN 76M has already been allocated for this aim since 2022 Attractive benefits package - private healthcare, benefits cafeteria platform, car discounts and more Comfortable workplace – class A offices or remote work Dozens of fascinating projects for prestigious brands from all over the world – you can change them thanks to Job Changer application PLN 1 000 000 per year for your ideas - with this amount, we support the passions and voluntary actions of our workers Investment in your growth – meetups, webinars, training platform and technology blog – you choose Fantastic atmosphere created by all Sii Power People
Applied Data Scientist (m/k)
TEAM UP RECRUITMENT SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Katowice
Wymagania
- Python
- Pandas
- NumPy
- scikit-learn
- data science
- jupyter notebooks
- AWS S3
- Glue
- Athena
- Redshift
- Airflow
- Dagster
Nasze wymagania: Bardzo dobra znajomość Pythona, nie tylko do skryptowania, ale również do pisania czytelnego, dobrze zorganizowanego kodu, Praktyczne doświadczenie z bibliotekami Pandas, NumPy, scikit-learn, Doświadczenie w budowaniu pipeline’ów ETL/ELT w Pythonie, Doświadczenie w pracy z nieuporządkowanymi danymi pochodzącymi z wielu systemów źródłowych, Znajomość Git oraz dobrych praktyk inżynierskich, Doświadczenie w constraint solving lub mathematical optimization, Praktyczne wykorzystanie OR-Tools lub podobnych narzędzi, Bardzo dobre umiejętności analizy danych, Swoboda w pracy z Jupyter Notebooks, Bardzo dobra znajomość języka angielskiego. Mile widziane: Doświadczenie z usługami danych w chmurze, np. AWS S3, Glue, Athena, Redshift lub równoważnym stackiem, Znajomość narzędzi do orkiestracji i transformacji danych, takich jak dbt, Airflow, Dagster, Doświadczenie we wdrażaniu modeli ML lub znajomość praktyk MLOps, Znajomość modeli grafowych, danych o topologii sieci lub domeny telekomunikacyjnej, Doświadczenie w obszarze pricingu, revenue optimization lub analityki komercyjnej w środowisku B2B lub telecom. O projekcie: Szukamy doświadczonej osoby na stanowisko Applied Data Scientist, która połączy kompetencje z obszaru analizy danych, optymalizacji matematycznej i praktycznej inżynierii danych. To rola dla kogoś, kto potrafi przełożyć złożone wymagania biznesowe na działające rozwiązania, budować logikę ofertową, pracować na nieuporządkowanych danych z wielu źródeł i tworzyć modele wspierające decyzje cenowe. Zakres obowiązków: Tworzenie i rozwój rozwiązań w Pythonie Analiza danych oraz weryfikacja hipotez w Jupyter Notebooks Projektowanie i rozwój logiki ofertowej opartej na optymalizacji ograniczeń Budowa i walidacja modeli cenowych Tworzenie oraz utrzymanie pipeline’ów ETL/ELT Integracja, czyszczenie i transformacja danych z wielu źródeł Implementacja kontroli jakości i walidacji danych Współpraca z interesariuszami biznesowymi i technicznymi
Advanced Data Scientist
Honeywell
⚲ Gdańsk
Wymagania
- C++
- C#
- Python
- JavaScript
- TypeScript
- SQL
Nasze wymagania: BS or MS in an appropriate technology field (Computer Science, Statistics, Applied Math, etc.) Plus 5 years of experience in modern advanced analytical tools and programming languages, including Python with scikit-learn, proficiency with exploratory data analysis Proficiency with ETL operations sourcing data from SQL, REST APIs, and flat files Experience with data visualization technologies, such as Power BI, Tableau, matplotlib, Excel, etc. Plus 5 years of experience in traditional programming languages such as Python, JavaScript, TypeScript, C++;, or C# Comfortable in Windows and Linux environments O projekcie: Honeywell is looking for a data driven professional to join its Data Science engineering team to design & build in-house as well as evaluate and integrate 3rd party analytical components. You will develop new innovative solutions, evaluate & integrate 3rd party solutions, and deploy state-of-the-art AI-ML models and data mining techniques that leverage physical access control system datasets to unlock new security insights for end-user customers. Do you enjoy integrating systems together, mashing-up datasets and analyzing them by leveraging state-of-the-art data mining, generative AI, and ML techniques to drive decision making? As an Advanced Data Scientist, you will be responsible for data engineering, leveraging closed and open-source LLMs, text and multi-modal embedding models, and development of new generative AI systems and ML models to deliver analytical systems that improve forensic and real-time security outcomes. These analytical systems you develop in-house and those integrated from 3rd parties will extend the capabilities of our core product ecosystems. Zakres obowiązków: Participate in extending product capabilities through development and deployment of analytical systems leveraging data mining, generative AI, and ML techniques. Interact with 3rd parties to evaluate integration feasibility and licensing of technologies and analytic components Design, prototyping, and implementation of new data-centric solutions Effectively communicate and collaborate with local teams, international teams, and 3rd parties Contribute to build versus buy decisions, self-starter that can take minimal direction and deliver results Work closely with members of Product Management, New Product Development, Quality Assurance, and end users as may be necessary to bring solutions to life Oferujemy: Competitive Salary regularly increased based on your performance Multisport Card, Medical Care, Life Insurance and Lunch Card Employee Assistance Program - Free and confidential service to help with any difficulties regarding work, life and personal or family matters In-house and external learning platforms (Udemy) with unlimited access to give you opportunities to develop
Administrator systemów operacyjnych i baz danych (K/M)
Gas Storage Poland spółka z ograniczoną odpowiedzialnością
⚲ Warszawa, Wola
Wymagania
- Windows Server
- VMware
- SQL
- PostgreSQL
- Veeam
- Storage
- DC
Nasze wymagania: znajomość Windows Serwer i usług sieciowych tj.: AD, DHCP, DNS, PKI itp.; znajomość baz danych SQL Microsoft, PostgreSQL; znajomość Vmware na poziomie administracyjnym; znajomość Microsoft 365, administrowanie Exchange Online; minimum 3 lata doświadczenia w zarządzaniu środowiskiem domeny Microsoft; minimum 3 lata doświadczenia w administrowaniu bazami danych; znajomość podstawowych zagadnień związanych z cyberbezpieczeństwem, ochroną danych i zabezpieczeniem sieci; umiejętność pracy pod presją czasu oraz w sytuacjach wymagających szybkiego reagowania; bardzo dobra organizacja pracy – dokładność, skrupulatność, terminowość. Mile widziane: znajomość systemów Linux Red Hat/Ubuntu; znajomość języka angielskiego umożliwiająca swobodną pracę z dokumentacją techniczną; certyfikaty Microsoft; znajomość zagadnień związanych z bezpieczeństwem IT i politykami dostępu. Zakres obowiązków: zarządzanie domeną i systemami Windows Serwer i usług pracujących na tych systemach, będących częścią systemu operacyjnego tj. DHCP, DNS, PKI itp.; zarządzanie i utrzymanie platformy wirtualizacyjnej Vmware; administracja i zarządzanie SAN i macierzami dyskowymi; administracja i zarządzanie systemem archiwizacji; administrowanie i zarządzanie serwerem MS Exchange w wersji hybrydowej; administrowanie i zarządzanie usługami chmurowymi w Microsoft Azure; administracja bazami danych SQL Server; wsparcie w zarządzaniu i administrowaniu systemami Linux. Oferujemy: dodatkowy dzień wolny z tytułu święta branżowego: 4.12; trzynastą pensję; dofinansowanie do wypoczynku Twojego i Twojego dziecka; udział w szkoleniach i konferencjach branżowych, dofinansowanie do studiów itp.; Pracowniczy Program Emerytalny opłacany przez Pracodawcę; opiekę medyczną wraz ze stomatologią i wiele innych.
Administrator Baz Danych Oracle
Code & Pepper Sp. z o.o.
⚲ Suwałki
12 500–21 000 zł / mies. (zal. od umowy)
Wymagania
- PL/SQL
- Oracle
- SQL
Nasze wymagania: Minimum 2 lata realnego, produkcyjnego doświadczenia z Oracle RAC (instalacja, konfiguracja, utrzymanie) + praktyczna praca na srvctl, crsctl, asmca, asmcmd Dobra znajomość mechanizmów HA w Oracle (RAC, failover, Clusterware, diagnostyka problemów klastrowych) Doświadczenie w projektowaniu i optymalizacji backupów (RMAN) + testowanie restore i scenariuszy DR Praktyczny performance tuning Oracle Database (AWR/ASH, execution plans, analiza wait events, optymalizacja SQL) Bardzo dobra znajomość SQL i PL/SQL (złożone zapytania, procedury, pakiety, triggery, optymalizacja) Swobodna praca w środowisku Linux (monitoring zasobów, analiza logów, konfiguracja systemu pod DB) Doświadczenie z ASM (disk groups, redundancy, diagnostyka) Doświadczenie w: Instalacji i konfiguracji Oracle Database, Patchowaniu (RU/PSU), Upgrade’ach i migracjach, Monitorowaniu środowisk produkcyjnych, Realizacji procedur disaster recovery, Współpracy przy projektowaniu architektury środowisk bazodanowych. O projekcie: W Code & Pepper wspieramy klientów z branż, gdzie nie ma miejsca na półśrodki – FinTech, HealthTech i AI. Pomagamy im skalować zespoły, rozwijać platformy i dowozić funkcje wtedy, kiedy naprawdę mają znaczenie. Zakres obowiązków: Tworzymy produkty z obszaru FinTech, HealthTech i AI (choć nie zamykamy się w sztywnych ramach). Pracujemy w modelach Team Augmentation, Full Outsourcing oraz end-to-end, głównie dla klientów spoza Polski. Nie opowiadamy historii o „innowacjach” ani „dynamicznym środowisku”. Interesuje nas konkret: kod, architektura i decyzje, które dowożą. Budujemy działające produkty, które przechodzą audyty, skalują się i realnie zdobywają rynek — nie kolejne slajdy ani sprinty do odhaczenia. Stawiamy na odpowiedzialność, techniczne myślenie i sensowną współpracę. A przy okazji - po prostu dobrze się u nas pracuje! Oferujemy: Współpracę B2B lub umowę o pracę — Ty wybierasz 100% pracy zdalnej Budżet szkoleniowy do 2500 zł netto rocznie MacBooka i komplet niezbędnych narzędzi pracy Kartę Multisport Plus Prywatną opiekę medyczną (Luxmed)
AI Senior Engineer
Zurich Insurance Company LTD
⚲ Kraków, Prądnik Czerwony
Wymagania
- SQL
- Python
- Java
- Scala
- R
- Bash
- Spark
- Pandas
- Microsoft Azure
- Docker
- Kubernetes
- Databricks
- Selenium
Nasze wymagania: • Technically strong: o Has professional experience across data science and data engineering (shipping production grade analytics/AI applications) o Hands-on experience building LLM applications (e.g., prompt design, retrieval-augmented generation, embeddings, vector stores, evaluation & guardrails, cost/performance tuning) and willingness to engineer the full stack to get them into production o Familiarity with agentic patterns (tool use, planning, function calling, document workflows) and LLM orchestration frameworks o Solid statistical foundations (e.g. regression, time series, uncertainty estimation) o Any Dataframe API (like Spark or Pandas) and SQL o Query optimizations (RDBMS or Spark) and indexing o Strong Python (production-grade). Java and/or Scala are a plus; functional programming experience is a plus o Knowledge of scripting languages, such as Python, R, bash o Experience working on all stages of the software development lifecycle • Can-do attitude, with a clear focus on the end-product and user experience and the specific business use case • Passion to tackle real business problems and persistence to follow through with your recommendations • Good team player and communicator • Excellent written and spoken English, other European languages are a plus Mile widziane: Experience with cloud-based technology and solution design: e.g., experience with Microsoft Azure Products, Databricks, Kubernetes, Docker Front-end development experience is a strong plus Experience in designing, running, and expanding AI models (in particular, text classification, entity extraction, clustering & topic modeling) in production; with a main focus on Natural Language processing Experience with web scraping, e.g., Selenium/Playwright O projekcie: Are you a motivated, hands-on, and innovative person, interested in working for one of the largest global insurers? Are you obsessed with developing great AI/LLM-powered analytics software, which helps addressing daily business challenges of one of the biggest global insurers? Then this job is something for you. We are looking for a Senior Data Scientist with strong engineering skills to join the global Commercial Insurance team. In this role, you will: • Solve high impact business problems with a particular focus on Underwriting, for example: understanding claims drivers, portfolio optimization or improving our risk selection, • Learn how Commercial Insurance works at its core, including dedicated training, • Be part of a fast-paced entrepreneurially minded global team, which is daring to challenge the status quo, • Developing and driving adoption of our main global Underwriting analytical product suite, • Excelling on your technical skills by working with internal and external experts. Zakres obowiązków: Working on high impact projects with end-to-end responsibility for their success Evaluating and applying the right cloud and foundation model capabilities (e.g., Azure OpenAI and open-source models) to solve specific business problems, including RAG, tool-use/agents, and orchestration Generating insights from internal and external data sources, using a wide range of tools and methodologies, e.g., from building robust big data pipelines in Spark/Databricks to applying LLMs, retrieval, embeddings, and classical ML/statistics, and extending our front-end applications Building applications loved by internal and external users: from implementing proof of concepts to full-scale solutions; from portfolio management applications used by senior Zurich executives to API services embedded into the core Underwriting processes Making sure our platform expands and runs reliably in Production: build or help build AI models, add new and further optimize existing data pipelines, expand our automation architecture (e.g., web scrapers, automated user alerts) Coordinating directly with product managers and application users globally (with particular focus on adoption) Mentoring and developing more junior team members on all matters above Oferujemy: Real life opportunities to develop and grow with us and contribute to the world around us Competitive salaries, language allowance and an employee benefits package that includes among others medical insurance, life insurance and sport-card Annual bonus depending on company annual results and individual performance Wide range of learning programs and personal development opportunities including also possibility to apply for up to 80% of educational trainings reimbursement Referral awards Online fitness trainings Hybrid work Nice and friendly atmosphere
Tech Lead Data Engineer - GCP - Customer Value Management & Analytics B2C Departament
T-Mobile
⚲ Warszawa, Mokotów
Wymagania
- Google Cloud Platform
- BigQuery
- Airflow
- Python
- CI/CD
Nasze wymagania: +5 lat doświadczenia na stanowisku Data Engineer oraz doświadczenie w pełnieniu roli wiodącej. Praktyczna znajomość ekosystemu GCP, w szczególności: BigQuery - zaawansowany SQL, zarządzanie kosztami, optymalizacja wydajności. Cloud Storage - zarządzanie danymi, wersjonowanie. Pub/Sub oraz Dataflow/Apache Beam lub Dataproc/Spark. Cloud Composer (Airflow) - orkiestracja i harmonogramowanie pipeline’ów danych. Podstawy bezpieczeństwa w GCP: IAM, KMS, DLP. Umiejętność programowania w Python (np. pandas, PySpark, testy automatyczne). Doświadczenie w projektowaniu modeli danych (Kimball, Data Vault, Dimensional Modeling) i budowie warstw danych (raw/bronze, curated/silver, semantic/gold). Znajomość narzędzi do automatyzacji: CI/CD (np. GitLab CI, Cloud Build). Praktyka w zapewnieniu jakości danych (testowanie, monitorowanie, alertowanie). Znajomość narzędzi do monitorowania i rozwiązywania problemów wydajnościowych (Cloud Monitoring, Logging). Doświadczenie w dokumentacji technicznej oraz code review. Umiejętność pracy zespołowej i komunikacji z zespołami biznesowymi, technicznymi oraz analitycznymi. Proaktywność, odpowiedzialność i nastawienie na jakość w obszarze danych. Mile widziane: Doświadczenie z narzędziami zarządzania danymi, np.: dbt, Dataform (transformacja i dokumentacja danych). Dataplex, Data Catalog (zarządzanie ładem danych). Praktyczna znajomość narzędzi do analityki takich jak Looker Studio. Doświadczenie z technologiami MLOps: Vertex AI, Feature Store. Zaawansowana znajomość Apache Kafka, Apache Pulsar dla streamingu danych. Znajomość zasad RODO, ISO 27001 i polityk bezpieczeństwa w obszarze danych. Znajomość narzędzi do zarządzania jakością danych, takich jak Great Expectations/Soda. Umiejętność tworzenia architektury dla poszczególnych produktów (dostosowanie od Doświadczenie w migracjach danych z systemów on-prem. Znajomość Oracle (PL/SQL). O projekcie: Dołącz do nowego, strategicznego projektu transformacji danych: przenosimy analitykę z on‑premise do GCP, budując od zera architekturę i model danych z mocnym naciskiem na zwiększanie wartości biznesowej i poprawę CX naszych klientów. Pracujemy z technologiami takimi jak GCP, Spark, Python, Kubernetes, BigQuery, Vertex AI, Terraform, Looker. Integrujemy różnorodne, wysokowolumenowe źródła danych, projektujemy warstwy przetwarzania w trybach streaming i batch, wdrażamy data governance, lineage, jakość i bezpieczeństwo danych, a także CI/CD oraz monitoring/SLO — wszystko po to, aby skrócić drogę od pytania do odpowiedzi i stworzyć solidny fundament pod rozwiązania AI/LLM. To część szerszego programu transformacji danych, który redefiniuje sposób, w jaki T‑Mobile pracuje z danymi na co dzień. Tworzymy środowisko sprzyjające eksperymentowaniu, szybkiemu prototypowaniu i innowacjom, oparte na kulturze otwartości i współpracy. Pracując z najnowocześniejszymi technologiami, masz realny wpływ na strategię danych oraz kierunek rozwoju naszej platformy. Jako Data Engineer będziesz projektować, implementować i utrzymywać rozwiązania danych w Google Cloud Platform (GCP), wspierając procesy analityczne i biznesowe, budowę modeli ML, aplikacji AI oraz innych rozwiązań opartych na danych. Szukamy osób, które łączą architekturę z praktyką inżynierską, rozumieją potrzeby biznesowe, są proaktywne, energiczne i chcą współkształtować standardy, wzorce i długoterminowy kierunek rozwoju naszej platformy danych. Zakres obowiązków: Projektowanie, rozwój i utrzymanie potoków danych (ETL/ELT) w środowisku GCP. Integracja danych z różnych źródeł (API, bazy, pliki) do narzędzi takich jak BigQuery i Cloud Storage. Projektowanie i optymalizacja modeli danych w hurtowniach danych (Kimball, Data Vault, Dimensional Modeling). Implementacja rozwiązań streamingowych (np. Pub/Sub, Dataflow, Apache Beam). Automatyzacja procesów wokół danych przy użyciu Cloud Composer (Airflow). Planowanie prac/sprintów, priorytetyzacja backlogu, facylitacja warsztatów z biznesem, przekładanie wymagań na rozwiązania i SLA/SLO. Zapewnienie wydajności, jakości, bezpieczeństwa i skalowalności danych. Współpraca z zespołami ds. analityki danych, Data Science oraz zespołami biznesowymi. Tworzenie dokumentacji technicznej i udział w code review. Monitorowanie i rozwiązywanie problemów wydajnościowych oraz optymalizacja kosztów w chmurze. Optymalizacja wydajności i kosztów implementowanych rozwiązań. Mentoring, prowadzenie warsztatów, zarządzanie interesariuszami.
Staż w Zespole Utrzymania HD/BI i Kontroli Jakości Danych
GRUPA PZU
⚲ Warszawa
Wymagania
- SQL
- SAS 4GL
- Python
- Azure
Nasze wymagania: Status studenta co najmniej 3-go roku (lub absolwent do dwóch lat po studiach) - kierunki: informatyka, automatyka i robotyka, fizyka lub pokrewne Znajomość MS Excel, VBA Znajomość zagadnień przetwarzania w chmurze Azure i znajomość Python Znajomości podstaw języka SQL lub innego języka zapytań do baz danych (np. SAS 4GL) oraz wiedza o funkcjonowaniu baz danych Umiejętność analitycznego myślenia Zakres obowiązków: Realizacja wdrożeń w obszarze Hurtowni Danych Przetwarzanie danych i raportowanie na potrzeby różnych jednostek biznesowych Grupy PZU Automatyzacja procesów zasilania Hurtowni Danych/BI/CRM (DevOps) Udział w procesach migracji kodów zasileń HD (programowanie SQL, SAS, Python) na środowisko chmurowe Azure Oferujemy: Możliwość pracy w zespole, który rozwija i utrzymuje jedną z największych platform analitycznych w Europie Środkowo-Wschodniej, opartą na najnowszych rozwiązaniach technologicznych Oracle, SAS Institute, MS Azure. Oferujemy pracę w dynamicznym środowisku, zarówno w wymiarze technologicznym jak i organizacyjnym (Agile / DevOps / DataOps) 6-miesięczny płatny staż – od 1 lipca 2026 r. Pracę w modelu hybrydowym Umowę o pracę Możliwość zdobycia doświadczenia zawodowego w jednej z największych instytucji finansowej w Europie Środkowo-Wschodniej Poznanie najlepszych specjalistów w branży i nawiązanie swoich pierwszych relacji biznesowych Szkolenia rozwojowe Możliwość kontynuowania współpracy po zakończeniu stażu Wsparcie doświadczonego opiekuna Opiekę medyczną w PZU Zdrowie Zniżkę pracowniczą do 50% na ubezpieczenia (m. in. PZU DOM, PZU AUTO) Platformę benefitową m.in. karta sportowa, bilety do kin i teatrów, vouchery zakupowe Elastyczną ofertę grupowego ubezpieczenia na życie w wielu wariantach Dostęp do bazy szkoleń cyfrowych oraz nowoczesnych platform edukacyjnych Programy i działania wellbeingowe dla pracowników Najbardziej zielone biuro w Warszawie (PZU Park) ze strefami relaksu i siłownią
Starszy Specjalista ds. Modeli Taryfowych w Centre of Excellence (K/M)
LINK4 Towarzystwo Ubezpieczeń S.A.
⚲ Warszawa, Mokotów
Wymagania
- Python
- SQL
Nasze wymagania: minimum 3 lata doświadczenia w firmie ubezpieczeniowej w zakresie budowania modeli ryzyka i pricingu (szczególnie komunikacyjnych), znajomość różnych typów modeli, technik segmentacji i analizy danych, biegła obsługanarzędzi: Earnix lub Emblem, SQL Server oraz znajomości Python, kreatywność, zaangażowanie i podejście do ciągłego usprawniania procesów. Mile widziane: atutem będzie znajomość narzędzi chmurowych (np. Databricks). O projekcie: LINK4 rozwija obszar taryfikacji i analizy danych – szukamy osoby na poziomie Starszego Specjalisty lub Eksperta, która wzmocni nasz Centre of Excellence. Jeśli masz doświadczenie w tworzeniu modeli pricingowych i znasz narzędzia Earnix i/lub Emblem, to może być Twoje miejsce! Zakres obowiązków: tworzenie modeli ryzyka dla produktów ubezpieczeń majątkowych, rozwijanie nowoczesnych metod modelowania i analizy danych, analiza nowych zmiennych i rekomendowanie ich wykorzystania, prowadzenie analiz w kierunku identyfikacji skutecznych reguł underwritingowych, współpraca z zespołami odpowiedzialnymi za strategię cenową i rozwój systemu taryfikacyjnego. Oferujemy: pracę w zespole ekspertów, który tworzy innowacyjne rozwiązania w obszarze pricingu, stabilne warunki zatrudnienia – umowę o pracę, pracę w trybie hybrydowym Nasze biuro mieści się przy ul. Postępu 15 w Warszawie, wdrożenie na stanowisko pracy – przekażemy Ci naszą wiedzę i doświadczenie, abyś mógł/a komfortowo rozpocząć pracę i rozwijać swoje kompetencje, pakiet benefitów – opiekę medyczną, dofinansowanie do karty Multisport, grupowe ubezpieczenie na życie oraz szereg inicjatyw na rzecz naszych pracowników, kulturę organizacyjną opartą na trzech wartościach: klient, mistrzostwo, szacunek – w centrum naszego zainteresowania zawsze jest klient, swoimi działaniami dążymy do mistrzostwa, a podstawą naszych relacji jest szacunek.
Starszy Programista / Starsza Programistka Hurtowni Danych
PROVIDENT Polska
⚲ Warszawa, Śródmieście
Wymagania
- T-SQL
- Git
- SSIS
- SnowSQL
- SSAS
Nasze wymagania: Wykształcenie wyższe (preferowane: informatyka, matematyka, fizyka lub pokrewne). Min. 4 lata doświadczenia komercyjnego w pracy z hurtowniami danych. Znajomość tematyki hurtowni danych i technologii w niej wykorzystywanych (Dimentional modeling R. Kimball-a). Bardzo dobra znajomość języka T-SQL i SQL Server Integration Services (SSIS) oraz co najmniej podstawowa znajomość MS Analysis Services i MS Reporting Services. Znajomość narzędzi monitorowania i optymalizacji wydajności baz danych (np. Resource Governor). Znajomość technik optymalizacji hurtowni danych (np. analiza planów zapytań, indeksów, parameter sniffing). Doświadczenie w pracy z narzędziami kontroli wersji (Git / DevOps). Umiejętność samodzielnego rozwiązywania złożonych problemów technicznych. Umiejętność przekładania wymagań biznesowych na projekt techniczny. Zdolności komunikacyjne. Inicjatywa, kreatywność, dokładność i efektywność. Język angielski w mowie i piśmie na poziomie min. dobrym. Dostępność w wymiarze pełnego etatu. Mile widziane: Snowflake Cloud Data Platform Apache Airflow Zakres obowiązków: Rozwijanie Hurtowni Danych w zakresie: przekładania wymagań biznesowych na projekt techniczny, projektowania i tworzenia procesów integracji danych (pakiety ETL), tworzenia kodów źródłowych dla procesów zasilających hurtownie danych, przeprowadzania testów wdrażanych rozwiązań, tworzenia dokumentacji technicznej wdrażanych rozwiązań. Monitoring i utrzymanie Hurtowni Danych. Tworzenie zoptymalizowanych kodów procedur T-SQL i SnowSQL, budowanie pakietów SSIS (BIML). Analizowanie błędów oraz wdrażanie i rekomendowanie zmian. Oferujemy: Stabilne zatrudnienie – 93% osób jest zatrudnionych na umowę o pracę, na czas nieokreślony. Bezpieczeństwo – jesteśmy na polskim rynku już 29 lat. Przyjazne środowisko pracy – 13 razy z rzędu otrzymaliśmy nagrodę Top Employer. Pracę hybrydową – zazwyczaj 2 razy w tygodniu widzimy się w biurze (metro Dworzec Gdański). Ekstra 3 dni płatnego urlopu – jeśli wykorzystasz cały urlop w danym roku kalendarzowym. Prywatną opiekę medyczną z usługą gwarancji terminu (Medicover). Pełne wdrożenie pod okiem mentora, w tym pakiet profesjonalnych szkoleń wdrożeniowych. Dostęp do platformy rozwojowej, obejmującej szkolenia e-learningi, podcasty i webinary. Aktywności wspierające rozwój w organizacji np. cykl szkoleń „Skuteczny Manager” dla osób obejmujących stanowiska kierownicze. Telefon służbowy (również do użytku prywatnego). Dostęp do platformy kafeteryjnej ProviBenefity, zasilanej co miesiąc kwotą do wykorzystania lub dofinansowanie do Twojej karty Multisport – wybierasz z pośród 5 rodzajów kart. Ubezpieczenie na życie (UNUM Życie TUiR S.A.) na preferencyjnych warunkach. Świadczenia świąteczne oraz dofinansowanie do wypoczynku „Wczasy pod gruszą” dla Ciebie oraz dla Twoich dzieci. Wsparcie psychologiczne pracowników, obejmujące m.in. opiekę psychologa (również dziecięcego), psychoterapeuty, dietetyka, coaching.
Specjalista / Specjalistka ds. Obserwacji Ziemi (ML/DL)
GISPartner Sp. z o.o.
⚲ Wrocław, Psie Pole
Wymagania
- Python
- Docker
- XGBoost
- rasterio
- GDAL
- geopandas
- xarray
- numpy
- pandas
- PostGIS
- Git
- PyTorch
- TensorFlow
- DuckDB
- geoparquet
- Planet
- Maxar
- Airflow
- Prefect
- Dagster
- Prometheus
- Grafana
Nasze wymagania: Doświadczenie zawodowe adekwatne do poziomu stanowiska: zapraszamy zarówno osoby na poziomie junior, mid, jak i senior, Dobra znajomość języka Python i umiejętność tworzenia czytelnego, uporządkowanego oraz odtwarzalnego kodu, Praktyczne doświadczenie w pracy ze środowiskami conda lub mamba, Znajomość Dockera i umiejętność przygotowywania oraz uruchamiania kontenerów, Doświadczenie w pracy z rozwiązaniami ML/DL, w szczególności z XGBoost oraz frameworkami PyTorch lub TensorFlow, Znajomość bibliotek wykorzystywanych w pracy z danymi EO i GIS, takich jak rasterio, GDAL, geopandas, xarray, numpy i pandas, Znajomość baz danych przestrzennych, w szczególności PostGIS, Rozumienie zagadnień związanych z metadanymi i standardem STAC; mile widziana znajomość DuckDB i geoparquet, Znajomość dobrych praktyk inżynierskich, takich jak praca z Git, podstawy testowania, dokumentacja i reproducibility, Biegła znajomość języka polskiego oraz angielskiego. Mile widziane: Doświadczenie w pracy z komercyjnymi źródłami danych satelitarnych, np. Planet lub Maxar, Doświadczenie z danymi hiperspektralnymi i SAR, Znajomość narzędzi do orkiestracji zadań, takich jak Airflow, Prefect lub Dagster, Doświadczenie w obszarze monitoringu i observability, np. Prometheus, Grafana, Praktyka w pracy z modelami LLM i systemami RAG, Udział w projektach badawczo-rozwojowych, Publikacje lub aktywność w projektach open source, Doświadczenie w projektowaniu i optymalizacji baz danych oraz systemów wyszukiwania i indeksowania, w tym rozwiązań wektorowych. O projekcie: Do naszego zespołu szukamy osoby, która chce współtworzyć nowoczesne rozwiązania AI dla zadań związanych z obserwacją Ziemi. Interesuje nas ktoś, kto łączy praktyczne podejście do danych teledetekcyjnych z wiedzą z zakresu machine learningu i deep learningu oraz dobrze odnajduje się w pracy z danymi, kodem i infrastrukturą. Na tym stanowisku będziesz uczestniczyć w projektowaniu i rozwoju platformy AI wspierającej trenowanie, wdrażanie i integrację modeli wykorzystywanych w obszarze EO i GIS. To rola dla osoby, która lubi budować rzeczy od podstaw, usprawniać procesy i pracować na styku analizy danych, inżynierii i realnych wdrożeń. Zakres obowiązków: Projektowanie i rozwój platformy AI wspierającej trenowanie, wdrażanie i integrację modeli dla zadań związanych z obserwacją Ziemi, Budowa i utrzymanie API oraz usług backendowych do inferencji modeli i przetwarzania danych geoprzestrzennych, Tworzenie i automatyzacja potoków danych ETL/ELT, obejmujących pobieranie danych źródłowych, ich Przygotowanie i przetwarzanie na potrzeby trenowania modeli, Implementacja i optymalizacja modeli ML/DL, w tym modeli opartych o XGBoost, CNN oraz architektury Transformer/ViT, Przygotowywanie danych do uczenia, w tym m.in. korekcja atmosferyczna, maskowanie chmur, mosaicking, Ekstrakcja cech oraz walidacja przestrzenna i czasowa,praca z formatami i narzędziami wykorzystywanymi w obszarze EO i GIS, takimi jak SAFE, GeoTIFF, STAC, rasterio, GDAL, xarray czy geopandas, Współpraca przy rozwoju infrastruktury kontenerowej i procesów CI/CD, w tym z wykorzystaniem Dockera i środowisk opartych o Kubernetes, Projektowanie i utrzymanie baz danych przestrzennych oraz zarządzanie metadanymi,wykorzystywanie środowisk chmurowych i platform wspierających pracę z danymi EO, Korzystanie z lokalnych modeli LLM do automatyzacji wybranych zadań, eksploracji danych i pracy z dokumentacją, Przygotowywanie dokumentacji technicznej, notebooków, raportów, map i materiałów prezentacyjnych dla zespołu oraz klientów. Oferujemy: Elastyczne godziny pracy i możliwość pracy zdalnej, Udział w innowacyjnych projektach z obszaru AI, EO i GIS, Pracę w interdyscyplinarnym zespole łączącym kompetencje technologiczne, analityczne i branżowe, Realny wpływ na rozwój architektury i rozwiązań wdrażanych u klientów, Możliwość rozwoju kompetencji i awansu wewnętrznego, Wynagrodzenie dopasowane do poziomu doświadczenia i zakresu odpowiedzialności, Pakiet benefitów GISTeam wspierający rozwój zawodowy i komfort pracy, Dostęp do platformy Multi.Life wspierającej wellbeing, rozwój osobisty i naukę języków obcych.
Specjalista / Specjalistka ds. Automatyzacji Procesów Biznesowych
CUK Ubezpieczenia
⚲ Aleksandrów Kujawski, Bydgoszcz, Grudziądz, Inowrocław, Toruń, Włocławek
Wymagania
- SQL
- ETL
- Power Automate
- Power Apps
- Power BI
- BPMN
- UML
Nasze wymagania: doświadczenie w pracy z Power Platform (w szczególności Power Automate desktop oraz cloud) doświadczenie w automatyzacji procesów biznesowych doświadczenie w budowie procesów ETL lub przetwarzania danych znajomość SQL i pracy z bazami danych umiejętność analizy procesów biznesowych samodzielność w realizacji zadań i rozwiązywaniu problemów dobra komunikacja z użytkownikami biznesowymi Mile widziane: doświadczenie w Power Apps doświadczenie w pracy z Power BI znajomość integracji API znajomość BPMN lub UML Zakres obowiązków: analiza procesów biznesowych i identyfikacja obszarów do automatyzacji projektowanie i budowa automatyzacji z wykorzystaniem Power Platform (Power Automate) rozwój procesów ETL i integracji danych pomiędzy systemami budowa integracji z wykorzystaniem API, baz danych oraz plików dokumentowanie wdrażanych rozwiązań automatyzacyjnych monitorowanie działania automatyzacji i rozwój istniejących rozwiązań współpraca z biznesem, zespołem BI oraz działem IT Oferujemy: Pracę w gronie doświadczonych profesjonalistów w atmosferze wzajemnej współpracy (Multiagncja Roku 2024, Najlepszy Pracodawca 2025 roku, - ponad 200 nagród branżowych) Kompleksowe wdrożenie i możliwość rozwoju zawodowego (pakiet szkoleń) Pracę na pełen etat, w oparciu o umowę o pracę Pracę stacjonarną (Toruń) / hybrydową Kafeterię benefitów – to Ty decydujesz co wybierasz z setek możliwości i dopasowujesz je do siebie np.: kino, podróże, SPA, kręgle, koncerty i/lub parki rozrywki Dofinansowanie kart Multisport Kartę medyczną Lux-med Kursy językowe (j. angielski, niemiecki, włoski, hiszpański, francuski) Konsultacje z lektorem językowym Konsultacje z trenerem finansowym E-booki i audioboki w bibliotece Legimi Kursy rozwojowe Youniversity Plany dietetyczne Konsultacje z dietetykiem Konsultacje z psychologiem Kurs Mindfulness Dostęp do aplikacji muzycznych Kurs jogi online Nielimitowane e-konsultacje z lekarzem internistą Konsultacje z trenerem personalnym i ćwiczenia online Bezpłatny dostęp do usług i aplikacji: Diagnostyka, Legimi, Focusly, Yes2Move, GO ON, Lerni, Berlitz, MultiLife Diet, Youniversity, Telemedi Webinary z ekspertami m.in. w zakresie odżywiania, finansów, zdrowia, sportu czy odporności psychicznej Nieoprocentowane pożyczki
Senior Specialist - Data Scientist
ING Bank Śląski S.A.
⚲ Katowice
Wymagania
- Python
Nasze wymagania: masz znajomość i praktyczną biegłość w zakresie machine learning, potwierdzoną realizacją projektów swobodnie tworzysz modele ML, takie jak drzewa decyzyjne, lasy losowe, regresja logistyczna czy sieci neuronowe bardzo dobrze znasz Python i potrafisz programować obiektowo masz doświadczenie w tworzeniu segmentacji, w tym metodami nienadzorowanymi znasz środowiska chmurowe, takie jak Google AI Stack – Vertex AI, Dataproc, Gemini lub pokrewne potrafisz tworzyć kod wysokiej jakości oraz wdrażać go w ramach praktyk Continuous Integration – preferowane doświadczenie z Azure DevOps O projekcie: Jesteśmy zespołem Data Scientistów, którzy realizują zadania związane z budową i implementacją rozwiązań Machine Learning oraz Deep Learning. Wspólnie zdobywamy doświadczenie i regularnie wymieniamy się wiedzą oraz nowinkami z dziedziny AI. Współpracujemy projektowo z jednostkami biznesowymi w celu właściwego doboru metod oraz optymalizacji docelowego rozwiązania. Z nami zyskasz wiedzę na temat modeli klasyfikacyjnych, computer vision, speech recognition itp. Zakres obowiązków: rozwijasz i utrzymujesz rozwiązania ML i AI, zapewniając ich wysoką jakość, dostępność i niezawodność tworzysz przyjazne środowisko pracy, które wspiera efektywne wdrożenia projektów data science współtworzysz i rozwijasz wspólne rozwiązania wykorzystywane w wielu projektach ML wdrażasz rozwiązania AI we wszystkich obszarach banku, blisko współpracując z wewnętrznym klientem biznesowym bierzesz udział w pracach Społeczności AI, gdzie współtworzysz best practices oraz standardy popularyzujesz AI w firmie poprzez aktywne uczenie siebie i innych zapewniasz właściwą komunikację z interesariuszami Oferujemy: Inwestujemy w rozwój - proponujemy dofinansowanie szkoleń i kursów oraz dostęp do platform edukacyjnych: Udemy Business, eTutor, wewnętrznej platformy elearningowej. Oferujemy także staże rozwojowe czy konsultacje z doradcami kariery Dbamy o zdrowie i bezpieczeństwo - oferujemy pakiet medyczny i ubezpieczenie na życie dla Ciebie i Twoich bliskich, dostęp do platformy Mindgram z indywidualnymi konsultacjami ze specjalistami i webinariami. Pracując w ING masz możliwość dołączenia do Pracowniczego Programu Emerytalnego i Programu Profilaktyki Onkologicznej Promujemy aktywność fizyczną i zdrowy tryb życia. Oferujemy bezpłatne karty sportowe Multisport oraz Medicover Sport – możesz korzystać z szerokiej gamy obiektów sportowych i zajęć. Wierzymy, że aktywność fizyczna to klucz do dobrego samopoczucia i równowagi Work life balance w praktyce to dodatkowe dni wolne: „dzień dla rodziny” (od Ciebie zależy jak go wykorzystasz), wolne dni w formie nagrody i wolne godziny na wolontariat czy profilaktykę zdrowotną Dla rodziców mamy dodatkowe dni urlopu macierzyńskiego i ojcowskiego oraz dni wolne na opiekę nad dzieckiem, niezależenie od wykorzystanego limitu przez drugiego rodzica Dołączając do nas decydujesz się na pracę w stabilnej i zorientowanej na komfortowe warunki pracy organizacji z certyfikatem Top Employer. Przyszłość to nasza wspólna inwestycja - razem z ING możesz zaangażować się w każdą inicjatywę wspierającą ESG i odpowiedzialność społeczną Każdej osobie pracującej zapewniamy niezbędny sprzęt do pracy, ale jeśli chcesz korzystać z własnego smartfona jako telefonu służbowego, oferujemy program BYOD (Bring Your Own Device) z refundacją i zniżkami na wybrane zakupy. Laptop do pracy zapewniamy standardowo Świętujemy wspólnie i poznajemy się na zespołowych wyjazdach, imprezach rodzinnych i sportowych, jak Dzień Dziecka, Biegnij Warszawo czy Turnieje sportowe
Senior Solutions Architect (Data Solutions)
C&F
⚲ Warszawa
Wymagania
- Snowflake
- Databricks
- BigQuery
- Redshift
- Spark
- Kafka
- dbt
- Delta Lake
- Iceberg
Nasze wymagania: Strong hands-on knowledge of modern Data & AI tech (Snowflake, Databricks, BigQuery, Redshift, Spark, Kafka, dbt, Delta Lake, Iceberg, etc.). Proven expertise in at least one major platform (certifications welcome). Solid understanding of data engineering, data architecture, analytics, and cloud-native patterns. Excellent communication skills (English C2). Experience working with enterprise clients in consulting or architecture roles. Ability to run presales activities and communicate solutions clearly. O projekcie: We are seeking an experienced Senior Solutions Architect specializing in modern Data & AI platforms to design, lead, and deliver advanced data solutions for enterprise clients. The ideal candidate combines deep technical expertise with strong consultative and communication skills, enabling them to operate effectively across both technical and business stakeholder groups. Zakres obowiązków: Technical Expertise • Broad and up to date knowledge of modern Data & AI technology stacks, including platforms such as Snowflake, Databricks, Google BigQuery, and related ecosystem tools. • Proven hands on mastery of at least one major data platform, backed by demonstrable project history (certifications or advanced trainings are highly desirable). • Strong understanding of data engineering, data architecture, analytics, and cloud native solution design in enterprise environments. • Ability to architect scalable, secure, and future proof end to end data solutions across hybrid/multi cloud ecosystems. Solution Architecture & Delivery • Skilled at translating business needs into actionable technical architectures, solution blueprints, and delivery roadmaps. • Experienced in developing high level and detailed solution architectures, ensuring alignment with best practices, compliance standards, and client expectations. • Capable of supporting and guiding delivery teams, ensuring architectural consistency through the entire lifecycle. Client Facing & Cross Functional Collaboration • Excellent communication, storytelling, and facilitation abilities, with C2 level English proficiency. • Comfortable working directly with enterprise clients, senior stakeholders, and internal leaders across Business Units and Sales. • Able to handle challenging discussions, resolve objections, and persuade clients using data driven reasoning and clear argumentation. • Adept at bridging business and technology, driving clarity and consensus across diverse groups. Presales & Commercial Engagement • Skilled in participating in presales activities, including: • shaping solution proposals, • supporting RFP/RFI responses, • identifying client needs and solution gaps, • preparing technical demos and presentations. • Comfortable with defining scope, estimating effort, and identifying technical risks and dependencies during early sales cycles. Oferujemy: You choose your employment type – we’re open to both employment contracts and B2B arrangements. Learning & development opportunities – after your probation period, you’ll have access to a highly flexible and generous English language reimbursement program, along with an individual development budget to use as you see fit. Classic benefits like private medical care, a sports card, and a preferential life insurance plan. Plus, our infamous Fruit Tuesdays and a special summer bonus – ice cream. A hybrid work setup with plenty of flexibility. Delivery teams work mostly remotely. A bunch of non-work activities, including Office Day (a fun-filled day when employees from all over Poland gather at the office), POP UP integrations, various competitions from cooking to photography, and the chance to submit charity causes to our CF4GOOD program, which provides support to those in need. A workplace that values people and is built on collaboration, not competition. If you’re tired of toxic work environments, you’ll finally get a chance to breathe. And if you’ve been lucky with great employers so far, we’ll do our best to keep that streak going.
Senior Machine Learning Researcher
RTB House
⚲ Warszawa
35 000–47 000 zł netto (+ VAT) / mies.
Wymagania
- Python
- Java
Nasze wymagania: 4+ years of hands-on experience with Machine Learning / Data Science Interest and willingness to constantly develop in the area of Machine Learning Knowledge of statistics and probability Proficiency in programming Mile widziane: Experience in the ML industry Experience in designing recommendation systems Practical knowledge of the tools we use Zakres obowiązków: Designing and implementing models, most often of deep neural networks, used to predict the behavior and preferences of Internet users Analysis of the latest works in the field of Machine Learning Conducting and analyzing A/B tests of new solutions Developing and testing new approaches to modeling key issues, such as bidding in first-price auctions Oferujemy: Work in a team of enthusiasts with experience in machine learning who willingly share their knowledge and skills Extremely flexible cooperation conditions - you work when it is convenient for you and devote as much time as you can; you can work fully remotely Access to the latest technologies and the possibility of real use of them in a large-scale and highly dynamic project Possibility of using the possessed knowledge and competences in practical applications - while optimizing algorithms supporting hundreds of millions of Internet users and monthly buyers of billions of advertising views in the RTB model, based on extensive data sets The effects of your work immediately visible in the company's business results Possibility to publish your results
Senior Machine Learning Engineer
RTB House
⚲ Warszawa
35 000–47 000 zł netto (+ VAT) / mies.
Wymagania
- Python
- Java
- Hadoop
- Kafka
- Storm
- Spark
- Flink
Nasze wymagania: Expertise in designing and implementing complex IT systems. Ability to develop user-friendly, versatile tools. Proficiency in at least one programming language, such as Python, C++, Java, or Scala, along with expertise in Linux. Strong skills in evaluating and optimizing system performance, from initial design through to production troubleshooting. Deep understanding of algorithms and data structures. Initiative and creativity to improve existing solutions. Ability to work effectively both within and across teams. Mile widziane: Previous experience in the field of Machine Learning is not required, but would be an asset. Solid foundation in mathematics. Experience with GPU programming and Machine Learning frameworks such as Torch, PyTorch, or TensorFlow. Proven experience with distributed systems. Familiarity with Big Data technologies such as Hadoop, Kafka, Storm, Spark, or Flink. Hands-on experience with Google Cloud Platform (GCP) or similar cloud providers. Zakres obowiązków: Developing and maintaining the ML training platform and the bidding infrastructure that evaluates ML models in the production environment. Identifying performance bottlenecks and optimizing critical, low-level parts of the system. Ensuring the reliability and scalability of implementations, and creating performance and correctness tests for new system components. Testing and benchmarking open-source Big Data and ML technologies to assess their suitability for the production environment. Oferujemy: A highly competitive salary. The opportunity to work with a team of enthusiasts experienced in Machine Learning, Big Data, and distributed systems, who are eager to share their knowledge and skills. Flexible working hours, with the possibility of remote work or working from our office in Warsaw. Access to the latest technologies, with the opportunity to apply them in a large-scale and fast-paced project. An opportunity to apply your expertise in optimizing algorithms that support hundreds of millions of internet users and billions of ad views per month within the RTB model. The ability to see the immediate impact of your work on the company's business outcomes. The possibility of publishing your results.
Senior Front End Engineer
IG Group
⚲ Kraków, Łagiewniki-Borek Fałęcki
Wymagania
- React.js
- JavaScript
- TypeScript
- Redux
- WebSocket
- GitLab
- React Native
Nasze wymagania: Who we’re looking for? • Front End Specialist: Someone who can deliver sophisticated UI applications that handle complex financial data and real-time market updates • Performance Optimization Expert: A developer passionate about creating lightning-fast user experiences that can process high-frequency trading data without compromise • Financial Technology Enthusiast: Interest in fintech domain with understanding of trading platforms, market data, and the unique challenges of financial applications • Collaborative Attitude: Proven ability to work in agile, cross-functional teams and driving technical excellence • Quality-Focused Developer: Strong advocate for testing, code quality, and engineering best practices in a regulated financial environment What you’ll need • 5+ years of React development experience with a proven track record of delivering production UI applications • Experience with React Native is a plus. • Strong expertise in JavaScript/TypeScript, React hooks, Redux/Context API, and web development best practices • Solid understanding of react performance optimization, including memory management, rendering optimization, and efficient API integration • Experience with real-time data handling, WebSocket connections, and high-frequency data updates • Knowledge of CI/CD pipelines, especially Gitlab, and automated testing frameworks • Familiarity with financial services or trading platforms is highly desirable but not essential • Bachelor's degree in Computer Science, Engineering, or equivalent practical experience O projekcie: Join our dynamic Front End Engineering team with a focus on our institutional business where we're revolutionizing trading through innovative front end applications. You'll be instrumental in delivering seamless, high-performance web-based experiences that empower traders to make split-second decisions in fast-moving financial markets. Our team is at the forefront of front end fintech innovation, directly impacting how hundreds of thousands of users engage with trading platforms daily. Zakres obowiązków: Participate in the development of complex UI features for our award-winning trading platforms, ensuring optimal performance and user experience. Architect scalable front end solutions that handle real-time financial data streams and high-frequency trading operations Collaborate with cross-functional teams including backend engineers, designers, and product managers to deliver features that drive business growth Provide a focus for changes needed within the Prime institutional business allowing adaption for multiple brands to use the platform for their needs and as they prescribe Oferujemy: Home office equipment reimbursement Performance relate bonus Private medical cover for you and your family/partner (Medicover) Multikafeteria system (you can choose a multisport card, vouchers, etc.) Life insurance (Generali) LinkedIn Learning platform free access Share Plans for Employees Employee-led LGBTQ+, Women’s, Black, and Parents & Carers networks with an annual budget for organizing events & projects that foster an open, diverse, and inclusive culture Career-focused technical and leadership training in-class and online, incl. unlimited access to LinkedIn Learning platform Well-being events as well as Employee Assistance Programme Summer picnic, New Year party and other social events 3 additional days off a year - 1 to celebrate your Birthday and 2 for voluntary work App-based parking spots booking system Stretching sessions Wellbeing weeks
Senior Data Scientist
Capgemini Polska
⚲ Gdańsk, Kraków, Poznań, Warszawa, Wrocław
Wymagania
- Python
- GCP
- AWS
- Microsoft Azure
- Databricks
- Snowflake
Nasze wymagania: Proven track record of delivering AI systems in production, covering the full development lifecycle. Deep understanding of Machine Learning, Generative AI, and agentic AI architectures, including modern approaches to intelligent system design. Hands-on experience with at least two major cloud platforms: GCP, AWS, or Microsoft Azure. Strong Python combined with a production grade engineering mindset and clean coding practices.grade engineering mindset and clean coding practices. Experience with CI/CD pipelines and modern MLOps practices, including automation, monitoring, and model deployment. Familiarity with modern data platforms, such as Databricks or Snowflake. Experience leading teams or technical workstreams in AI or data-focused projects. Very good stakeholder communication and decision-making skills, with the ability to collaborate with both technical and business audiences.#L O projekcie: ABOUT INSIGHTS AND DATA: Join a team that brings together advanced data engineering and the latest breakthroughs in artificial intelligence. At Insights & Data, we build scalable Cloud, Big Data, and Generative AI solutions that transform how organizations work with information. Zakres obowiązków: As a Senior Data Scientist you will shape the technological direction of key projects, collaborate with experts in our AI Center of Excellence and design architectures that define the future of intelligent systems. This role combines advanced technical expertise in data science with consulting skills to provide strategic guidance and solutions to clients. • Own the full lifecycle of data and AI projects — from discovery and problem framing, through modeling and validation, to deployment and delivery. • Apply a wide range of techniques, including statistics, machine learning, forecasting, optimization, and Generative AI where appropriate. • Design and deliver production ready solutions, going beyond prototypes and ensuring long-term maintainability and scalability. ready solutions, going beyond prototypes and ensuring long-term maintainability and scalability. • Collaborate directly with clients, leading scoping sessions, workshops, and translating ambiguous requirements into clear, actionable deliverables. • Balance rigor with pragmatism by selecting the right level of analytical and technical sophistication for each problem. • Communicate insights effectively to both technical and nontechnical stakeholders, adapting style and depth to the audience. Frequently used technologies: o Python o CI/CD o Cloud (GCP / AWS / Microsoft Azure) Oferujemy: Well-being culture: medical care with Medicover, private life insurance, and Multisport card. But we went one step further by creating our own Capgemini Helpline offering therapeutical support if needed and the educational podcast "Let's talk about wellbeing" which you can listen to on Spotify. Access to over 70 training tracks with certification opportunities (e.g., GenAI, Excel, Business Analysis, Project Management) on our NEXT platform. Dive into a world of knowledge with free access to Education First languages platform, Pluralsight, TED Talks, Coursera and Udemy Business materials and trainings. Continuous feedback and ongoing performance discussions thanks to our performance management tool GetSuccess supported by a transparent performance management policy. Enjoy hybrid working model that fits your life - after completing onboarding, connect work from a modern office with ergonomic work from home, thanks to home office package (including laptop, monitor, and chair). Ask your recruiter about the details.
Senior Data Engineer (Azure, Databricks , Python) k/m/*
SquareOne
⚲ Remote
23 520 - 28 560 PLN (B2B)
Wymagania
- Databricks
- Apache Spark
- Azure
- Python
- pandas
- Polars
- Redis (nice to have)
- FastAPI (nice to have)
- Docker (nice to have)
- Kubernetes (nice to have)
O projekcie: Join a global technology team delivering innovative, AI-driven solutions supporting tax services for one of the world’s leading professional services organizations. You will work on large-scale data platforms and modern cloud-based architectures, collaborating with cross-functional teams across engineering, tax, and business domains. Wymagania: - 5+ years of hands-on experience in software development - Extensive experience working with Apache Spark, including platforms such as Databricks and/or Azure Synapse/Fabric - Proficient in Python, with strong skills in data manipulation using Pandas/Polars and similar - Solid understanding of columnar data storage formats, particularly Parquet, with practical experience using Delta Tables - Proven expertise in data processing, analysis, and transformation workflows - Strong analytical and problem-solving abilities with a detail-oriented mindset - Practical and pragmatic approach to balancing standardized processes with flexibility to meet project goals effectively - Excellent organizational skills with the ability to self-manage, prioritize tasks, structure workload, and meet tight deadlines - Solid understanding of microservices architecture and its implementation in scalable systems Codzienne zadania: - Define and enforce best practices and coding standards across the project - Conduct thorough code reviews to ensure adherence to established guidelines and maintain high code quality - Working both independently and in close collaboration with others in the team - Communicating clear instructions to team members and helping manage the flow of day-to-day operations - Communicating with the client regularly - Design, develop, and maintain robust and scalable Spark applications - Write clean, maintainable, and efficient code following best practices and coding standards - Optimize code for performance and scalability, ensuring efficient data handling - Work closely with cross-functional teams to deliver high-quality software solutions - Identify and resolve technical issues, ensuring the reliability and performance of applications - Create and maintain comprehensive documentation for code, processes, and workflows
Senior Data Engineer
Experis Polska
⚲ Remote
25 200 - 28 560 PLN (B2B)
Wymagania
- Python
- Java
- SQL
- Jenkins
- CloudFormation
- Terraform
- Git
- Docker
- Spark
- PySpark
- Redshift (nice to have)
O projekcie: Start Date: ASAP / within 1 month / flexible Work Model: Fully remote, B2B contract via Experis (150-170) PLN/h + vat) Job Description: We are looking for an experienced Senior Data Engineer to join our team and take ownership of designing, developing, and maintaining advanced data pipelines. You will collaborate closely with Product Analysts, Data Scientists, and Machine Learning Engineers to deliver clean, structured, and business-ready data. Our Offer: - Medicover healthcare package - Multisport card - Access to an e-learning platform - Group life insurance Opis Firmy Experis to światowy lider rekrutacji specjalistów i kadry zarządzającej w kluczowych obszarach IT. Z nami znajdziesz konkurencyjne oferty zatrudnienia oraz ciekawe projekty IT skierowane zarówno do ekspertów z wieloletnim doświadczeniem, jak i osób, które dopiero zaczynają swoją przygodę w branży IT. Oferujemy rekrutacje menedżerów i wysoko wykwalifikowanych konsultantów z doświadczeniem w branży IT. Experis jest częścią ManpowerGroup i został uznany za jedną z najbardziej etycznych firm na świecie. Wymagania: - 5–8 years of relevant experience. - Knowledge of DSCS and DPTM is a plus. - Strong experience with AWS services: S3, IAM, Redshift, Sagemaker, Glue, Lambda, Step Functions, CloudWatch. - Hands-on experience with platforms like Databricks and Dataiku. - Proficiency in Python or Java, SQL (preferably Redshift), Jenkins, CloudFormation, Terraform, Git, Docker. - 2–3 years of experience with Spark / PySpark. - Strong communication skills and ability to document technical processes. Codzienne zadania: - Design, develop, and maintain ETL/ELT pipelines to extract data from various sources and load it into data lakes and data warehouses. - Define data transformation rules and build data models. - Collaborate with analytics and ML teams to identify and transform data for better usability. - Implement data quality checks, maintain data catalogues, and use orchestration, logging, and monitoring tools. - Apply test-driven development methodology in pipeline creation. - Document processes in line with SDLC standards.
Senior Data Engineer
Polski Standard Płatności S.A.
⚲ Warszawa, Mokotów
Wymagania
- Python
- Go
- SQL
Nasze wymagania: Minimum 6 lat komercyjnego doświadczenia w programowaniu w języku Python lub Go Doświadczenie w pracy z co najmniej jednym z narzędzi: Apache Airflow, Spark, Beam, NiFi, Flink Biegłość w SQL (PostgreSQL) i NoSQL - key-value, dokumentowe, time-series oraz kolumnowe DWH Pisanie kodu wg zasad Clean Code (np. "Meaningful Variable and Function Names", "Keep Functions and Methods Short.) Doświadczenie z silnikami kolejek Znajomość powszechnie stosowanych formatów, algorytmów i struktur danych Mile widziane: Doświadczenie w pracy w chmurach publicznych (wykorzystujemy Google Cloud, natomiast jeśli znasz dobrze inną - na pewno dojdziemy do porozumienia) Znajomość technologii CI/CD oraz IaC (Terraform, Ansible) O projekcie: Szukamy samodzielnych seniorów, którzy chcą mieć realny wpływ, a nie tylko "dowodzić tickety". Pracujemy w modelu "wolno, drogo, ale dobrze". Budujemy platformę danych od zera, kształtujemy kulturę data-driven w całej organizacji i decydujemy, jak będzie wyglądał ekosystem danych na najbliższe lata. Pracujemy na nowoczesnym stacku opartym o Google Cloud, BigQuery, Python. Przetwarzamy miliardy eventów, a przy tym dbamy, żeby była przestrzeń na eksperymenty, dyskusje architektoniczne i zwykłą radość z rozwiązywania trudnych problemów (i czytanie whitepaperów o algorytmach i strukturach danych). Projekt nie ma "daty końca", a większość przed nami. Jesteśmy nowym, autonomicznym zespołem w BLIKu i naprawdę interesujemy się tym, co robimy i jak to działa kilka poziomów abstrakcji pod spodem. Techniczne wyzwania i sensowny wpływ na biznes - to jest dokładnie to miejsce. Zakres obowiązków: Praca przy tworzeniu globalnej platformy analitycznej w firmie, z myślą o skalowalności i kosztach. Projektowanie i rozwój data pipeline'ów (batch, streaming). Tworzenie i utrzymywanie kontraktów danych, testów i metryk jakości (freshness, completeness, accuracy). Projektowanie algorytmów (deduplikacja, windowing, segmentacja) i struktur danych zoptymalizowanych dla tysięcy eventów na sekundę. Zbieranie, analiza i synteza wymagań od zespołów produktowych, analityków i Data Science. Propagowanie kultury data-driven w organizacji. Tworzenie dokumentacji oraz proponowanie nowych rozwiązań i kierunków dalszego rozwoju. Oferujemy: Możliwość pracy nad kluczowym systemem płatniczym w Polsce, mającym realny wpływ na codzienne życie milionów użytkowników Autonomię w podejmowaniu decyzji technicznych i możliwość wprowadzania innowacyjnych rozwiązań Pracę w środowisku, które ceni wiedzę ekspercką, argumenty merytoryczne i wspiera kulturę ciągłego uczenia się Elastyczne godziny pracy, praca hybrydowa Pakiet standardowych benefitów (zawierający m.in. opiekę medyczną, ubezpieczenie na życie, naukę języka angielskiego, nieograniczony dostęp do dużej platformy e-learningowej, MyBenefit) Budżet szkoleniowy i konferencyjny
Senior Cloud Engineer (Ansible / IaC)
Capgemini Polska
⚲ Gdańsk, Katowice, Kraków, Lublin, Opole, Poznań, Warszawa, Wrocław
Wymagania
- Ansible
- Terraform
- Azure
- AWS
- GCP
- Git
- GitHub
- GitLab
- Bitbucket
- Bamboo
- Jenkins
- Python
- Bash
- PowerShell
- Puppet
- Chef
- OpenStack
- Docker
- Kubernetes
Nasze wymagania: Strong experience in automation and configuration management using Ansible (required). Hands-on experience with Infrastructure-as-Code, preferably Terraform (required). Experience working in large-scale IT environments.Hands-on experience with Azure and/or AWS and/or GCP. Practical engineering experience with at least one cloud platform (Azure, AWS, GCP, Oracle, Orange, etc.). Experience with Git-based version control systems (GitHub, GitLab, Bitbucket).Experience with CI/CD pipelines and tools (e.g., Bamboo, Jenkins).Solid scripting skills (Python, Bash, PowerShell, etc.). Good understanding of networking and cloud security fundamentals. Mile widziane: Familiarity with other provisioning/configuration tools (Puppet, Chef, OpenStack). Experience with containers and orchestration platforms (Docker, Kubernetes). Understanding of Agile / Lean methodologies in practice.Knowledge of cluster storage technologies. Experience with Linux and/or Windows system administration. Cloud provider certifications (AWS, Azure, GCP). Kubernetes certifications: CKA, CKAD, CKS, DCA. O projekcie: Your role As an Senior Cloud Engineer (Ansible, IaC), you will focus on designing, developing, and maintaining automation solutions that optimize the operation, deployment, and scalability of cloud environments. Your primary responsibility will be to build Infrastructure-as-Code (IaC) components, automate provisioning processes, and enhance existing configuration management workflows. You will work in AWS and/or Google Cloud Platform (GCP) environments, contributing to both operational and project-based initiatives with strong emphasis on automation, reliability, and standardization. Zakres obowiązków: Design, implement, and maintain automation solutions leveraging Ansible and Infrastructure-as-Code frameworks. Create, enhance, and maintain IaC modules for cloud environments (AWS and/or GCP). Automate deployment, configuration, provisioning, and operational workflows. Support and develop cloud infrastructure components with a strong automation-first mindset.Write and maintain code/scripts to support automation pipelines. Collaborate with Cloud Engineers, DevOps teams, and other technical stakeholders to improve and standardize automation practices. Oferujemy: Practical benefits: yearly financial bonus, private medical care with Medicover with additional packages (e.g., dental, senior care, oncology) available on preferential terms, life insurance and access to NAIS benefit platform. Access to over 70 training tracks with certification opportunities (e.g., GenAI, Excel, Business Analysis, Project Management) on our NEXT platform. Dive into a world of knowledge with free access to Education First languages platform, TED Talks and Udemy Business materials and trainings. Cutting-Edge Technology: Position yourself at the forefront of IT innovation, working with the latest technologies and platforms. Capgemini partners with top global enterprises, including 145 Fortune 500 companies. Enjoy hybrid working model that fits your life - after completing onboarding, connect work from a modern office with ergonomic work from home, thanks to home office package (including laptop, monitor, and chair). Ask your recruiter about the details.
Scala/Spark Developer
Antal
⚲ Kraków
25 200 - 33 600 PLN (B2B)
Wymagania
- Scala
- Spark
- GitHub
- Airflow
- Python
- Jira
- Confluence
- Apache Airflow (nice to have)
- GCP (nice to have)
- Jenkins (nice to have)
- JUnit (nice to have)
- TDD (nice to have)
- BDD (nice to have)
- Clean Code (nice to have)
- DRY (nice to have)
- Elasticsearch (nice to have)
- AWS (nice to have)
- Azure (nice to have)
O projekcie: Scala/Spark Developer Kraków (Hybrid, 2 days in office) O projekcie: Pracując nad Global Social Network Analytics (GSNA) platform, wykorzystujemy Big Data, AI i Google Cloud Platform (GCP), aby identyfikować potencjalne ryzyka przestępstw finansowych. Nasz zespół wspiera globalną sieć Investigatorów, Intelligence Analystów i Data Scientistów w prowadzeniu skutecznych dochodzeń opartych na inteligencji danych. Dlaczego warto do nas dołączyć: - Jesteśmy zespołem 150+ osób, pracującym zgodnie z Agile Scrum w lokalizacjach w Polsce, Chinach i Wielkiej Brytanii. - Świetna kultura współpracy, otwartość i regularne wspólne wyjścia, aby celebrować sukcesy i uczyć się na porażkach. - Będziesz pracować hybrydowo, 2 dni w tygodniu w biurze w Krakowie, resztę czasu zdalnie. Co wyróżnia tę rolę: - Realny wpływ na globalną walkę z przestępczością finansową - Praca nad nowoczesnymi technologiami Big Data i AI - Świetna hybrydowa kultura pracy w Krakowie i kontakt z zespołami międzynarodowymi Dołącz do nas i twórz rozwiązania, które realnie zmieniają sposób prowadzenia dochodzeń finansowych! Wymagania: - Bardzo dobra znajomość Scala/Spark - Doświadczenie z GitHub, AirFlow, podstawy Python - Praca w Scrum i znajomość Jira/Confluence - Dobre umiejętności komunikacyjne w języku angielskim Mile widziane: - Doświadczenie z GCP, Apache AirFlow, Jenkins - Znajomość JUnit, TDD, BDD - Praktyki Clean Code, SOLID, KISS, DRY, wzorce projektowe - Elasticsearch i doświadczenie w chmurze (AWS, Azure) - Certyfikaty Secure Code Warrior Codzienne zadania: - Tworzenie pipeline’ów w Scala/Spark w Google Cloud Platform (GCP), analiza danych w jednym z największych Datalakes na świecie. - Wdrażanie testów przy użyciu AirFlow, dbanie o jakość kodu i zgodność z regulacjami. - Współpraca z innymi programistami w Polsce, UK i Chinach. - Utrzymanie kodu: testowanie, refaktoryzacja, poprawki. - Pomoc Product Ownerom w zrozumieniu i doprecyzowaniu backlogu technicznego. - Dzielenie się wiedzą w zespole i na poziomie globalnym. - Udział w pełnym cyklu rozwoju produktu, w tym w release’ach do produkcji.
SQL Developer - Remote
Link Group
⚲ Remote
14 500 - 18 000 PLN (B2B)
Wymagania
- SQL
- ETL
- AWS RDS (nice to have)
- Google BigQuery (nice to have)
- Snowflake (nice to have)
- NoSQL (nice to have)
- Python (nice to have)
- Shell (nice to have)
- PowerShell (nice to have)
O projekcie: At Link Group, we build tech teams for Fortune 500 companies and the world’s most innovative startups. Our mission is to connect skilled professionals with opportunities that match their expertise, interests, and career aspirations. About the Project The project focuses on data processing and optimization within the finance/stock exchange industry. You will be responsible for developing, managing, and optimizing SQL databases and ETL processes to support business-critical applications. Tech Stack - Databases: SQL Server, PostgreSQL, MySQL, Oracle - ETL Tools: SSIS, Talend, Apache Airflow - Cloud Platforms: AWS, GCP, Azure - Scripting: Python, Shell, PowerShell What We Offer - Tailored opportunities to match your professional interests and goals. - A dynamic and collaborative work environment. - Access to exciting and diverse projects for global clients. - Competitive compensation aligned with your expectations. - Ongoing opportunities for professional growth and development. If you're ready to take on new challenges and work on groundbreaking projects in the IT industry, we'd love to hear from you! Apply today and join us at Link Group to make an impact! Wymagania: Must-Have Qualifications - At least 3+ years of experience as an SQL Developer - Strong SQL programming and database management skills - Experience with ETL processes and data modeling - Knowledge of performance tuning, indexing, and query optimization - Good command of English Nice to Have - Experience with cloud-based databases (AWS RDS, Google BigQuery, Snowflake) - Familiarity with NoSQL databases - Scripting experience in Python, Shell, or PowerShell Codzienne zadania: - Develop and optimize SQL queries, stored procedures, and database functions - Design and maintain data models, schemas, and indexing strategies - Implement and manage ETL pipelines for data extraction, transformation, and loading - Ensure database performance, integrity, and security - Work closely with BI, analytics, and data engineering teams to support business needs
Quality Analyst with Russian and Ukrainian
WIPRO IT SERVICES POLAND Sp. z o.o.
⚲ Kraków
Wymagania
- MS Excel
- Google Sheets
Nasze wymagania: Proficiency in Russian and Ukrainian language and English at B2 level (essential) Fluency in another European language is a significant advantage At least 1 year of experience in customer service, compliance or quality monitoring Prior experience as a customer care QA and/or familiarity with digital marketing tools and platforms Knowledge of quality improvement tools and cultural awareness across European countries Good knowledge of MS Excel and/or Google Sheets Bachelor’s degree in any relevant field Google Ads experience – mandatory Zakres obowiązków: Monitor and evaluate calls, emails and chat interactions to ensure alignment with our quality standards Develop and implement customer quality evaluations across European markets, providing feedback and reporting to the Team Lead Foster a culture of exceeding customer satisfaction goals by identifying areas for improvement and collaborating with teams to drive results Support the continuous improvement of our processes, ensuring qualitative and quantitative KPIs are met Oferujemy: Flexible benefits package tailored to your needs (Multisport card, shop vouchers, etc. – via MyBenefit cafeteria) Premium medical services for employees and family members (Lux med) Life & Disability Insurance for employees and family members (Generali) Profitable Capital pension Plan (PPK) up to 4% of employer contribution Social Fund benefits: holiday bonuses, kindergarten allowances, Christmas bonuses etc Co-financing for glasses Access to internal and external learning platforms (i.e. Udemy, WiLearn, HMM, FutureSkills) Employee Assistance Program and Fit app for wellbeing Employee Referral bonuses Relocation assistance: accommodation, travel, and other covered expenses Foreign language allowance, On-call allowance, Call-out allowance, morning/evening/night Shift allowance, Overtime work allowance, Business travel allowance (if applicable to the role requirements) Famous annual company integration event for employees & families combined with CSR impact – Spirit of Wipro Run Integration and cultural events for employees Performance based Reward and recognition programs
Quality Analyst with French
WIPRO IT SERVICES POLAND Sp. z o.o.
⚲ Kraków
Wymagania
- MS Excel
- Google Sheets
Nasze wymagania: French languages at B2 level (essential) English at B2 level (essential) Fluency in another European language is a significant advantage At least 1 year of experience in customer service, compliance or quality monitoring Google ads experience will be considered as a strong asset Prior experience as a customer care QA and/or familiarity with digital marketing tools and platforms will be considered as a strong asset Knowledge of quality improvement tools and cultural awareness across European countries Good knowledge of MS Excel and/or Google Sheets Bachelor’s degree in any relevant field Zakres obowiązków: Monitor and evaluate calls, emails and chat interactions to ensure alignment with our quality standards Develop and implement customer quality evaluations across European markets, providing feedback and reporting to the Team Lead Foster a culture of exceeding customer satisfaction goals by identifying areas for improvement and collaborating with teams to drive results Support the continuous improvement of our processes, ensuring qualitative and quantitative KPIs are met Oferujemy: Flexible benefits package tailored to your needs (Multisport card, shop vouchers, etc. – via MyBenefit cafeteria) Premium medical services for employees and family members (Lux med) Life & Disability Insurance for employees and family members (Generali) Profitable Capital pension Plan (PPK) up to 4% of employer contribution Social Fund benefits: holiday bonuses, kindergarten allowances, Christmas bonuses etc Co-financing for glasses Access to internal and external learning platforms (i.e. Udemy, WiLearn, HMM, FutureSkills) Employee Assistance Program and Fit app for wellbeing Employee Referral bonuses Relocation assistance: accommodation, travel, and other covered expenses Foreign language allowance, On-call allowance, Call-out allowance, morning/evening/night Shift allowance, Overtime work allowance, Business travel allowance (if applicable to the role requirements) Famous annual company integration event for employees & families combined with CSR impact – Spirit of Wipro Run Integration and cultural events for employees Performance based Reward and recognition programs