Oferty pracy
Filtry
Remote Data Platform Engineer
StatXplorer
⚲ Remote
15 000 - 20 000 PLN (B2B)
Wymagania
- Azure
- Airflow
- Kubernetes
- Helm
- Terraform
- Python
- SQL
- Docker
- DuckDB (nice to have)
- Airbyte connectors (nice to have)
- OpenMetadata (nice to have)
O projekcie: Kim jesteśmy StatXplorer to firma technologiczna specjalizująca się w data science, AI/ML, digital twins i IoT. Pracujemy z klientami z sektora medycznego, przemysłowego i finansowego — budujemy dla nich systemy które naprawdę działają. Większość firm IT patrzy na problem przez pryzmat technologii. My rozumiemy biznes klienta — i to jest nasza przewaga. Inżynierowie u nas wiedzą dlaczego coś budują, nie tylko jak. Szukamy ludzi którzy myślą podobnie. Czego szukamy Szukamy inżyniera z solidnym backgroundem data engineeringowym, który rozumie również warstwę infrastrukturalną — lub chce tę kompetencję świadomie rozwinąć. Co oferujemy - Praca w pełni zdalna — bez biura, bez hybridu na siłę - Budujemy dosłownie od zera — masz realny wpływ na kształt systemu od pierwszego dnia - Dostęp do architekta który zaprojektował system — pełen kontekst decyzji technicznych - Małe środowisko, brak komitetów — decyzje podejmowane szybko - Stack open-source, cloud-native — nowoczesne narzędzia bez korporacyjnego balastu - Szukamy kogoś na długo — zależy nam na zbudowaniu solidnego core teamu, nie na rotacji kontaktorów co kwartał Jeśli masz coś na GitHubie — daj znać :) Wymagania: Wymagania: - Airflow w praktyce — projektowanie i wdrażanie DAGów, KubernetesPodOperator, diagnostyka i debugowanie - Kubernetes — deployowanie aplikacji, praca z Helm chartami, orientacja w działaniu klastra - Terraform — infrastruktura jako kod, Azure provider, zarządzanie stanem - Python na poziomie umożliwiającym samodzielne zaprojektowanie i implementację pipeline'u w Kedro - SQL — modelowanie i transformacje danych, nie tylko odpytywanie - Docker — budowanie obrazów, rozumienie przepływu przez ACR do środowiska AKS - Zdolność do samodzielnego prowadzenia zadań od analizy wymagań do wdrożenia — w projekcie greenfield liczymy na inicjatywę, nie tylko realizację Nice to have: - DuckDB - Airbyte connectors - OpenMetadata - Great Expectations - medallion architecture / data lakehouse Stack: - Apache Airflow, Kedro, Great Expectations, OpenMetadata, - Airbyte, DuckDB, Azure Blob Storage, - Azure AKS, Azure Key Vault, ACR, Terraform, Helm, Docker, Python, SQL Codzienne zadania: - Rozwój platformy danych — implementacja nowych funkcjonalności, rozbudowa warstw medallion, optymalizacja pipelines - Utrzymanie i monitoring infrastruktury — AKS, Airflow, Airbyte, storage; reagowanie na incydenty, dbanie o stabilność środowiska - Integracja źródeł danych — podpinanie nowych systemów źródłowych przez Airbyte, konfiguracja connectorów, obsługa edge cases - Infrastruktura jako kod — zarządzanie zasobami Azure przez Terraform i Helm, utrzymanie repo jako jedynego źródła prawdy - Jakość danych — konfiguracja i utrzymanie walidacji Great Expectations, nadzór nad quarantine, reagowanie na anomalie - Dokumentacja i katalog danych — utrzymanie OpenMetadata, dbanie o to żeby system był zrozumiały dla kolejnych osób w zespole - Onboarding nowych klientów — konfiguracja nowych środowisk w ramach architektury multi-tenant
Regular Data Supporter
summ-it s.a.
⚲ Poznań, Grunwald
11 500–14 000 zł netto (+ VAT) / mies.
Wymagania
- Databricks
- Microsoft SQL Server
- Azure Data Factory
- Microsoft Power BI
Nasze wymagania: Min. 2 lata doświadczenia na podobnym stanowisku Gotowość do wsparcia on-call kilka dni w miesiącu (elastyczny grafik ustalany z zespołem) Bardzo dobra znajomość zagadnień związanych z działaniem oraz optymalizacją technologii w platformie danych Azure (Data Factory, Databricks, SQL Server) Doświadczenie w przetwarzaniu danych za pomocą Azure Data Factory i Azure Databricks Znajomość Power BI Znajomość języka angielskiego na poziomie min. B2 Mile widziane: Praktyczne doświadczenie w projektowaniu i rozwijaniu rozwiązań na platformie danych Azure Doświadczenie w tworzeniu systemów przetwarzania danych na platformie Azure Microsoft Certified: Azure Data Engineer Associate (DP203) Microsoft Certified: Power BI Data Analyst Associate O projekcie: Jeśli chcesz nauczyć się nowych technologii, a następnie pracować w projektach dla marek znanych na całym świecie, a jednak wciąż w ramach niekorporacyjnej struktury, to idealne miejsce dla Ciebie! Zakres obowiązków: Nadzór nad działaniem istniejących komponentów platformy danych Azure oraz reagowanie na pojawiające się incydenty. (Azure Synapse Analytics i Azure Data Factory) Utrzymywanie, strojenie i optymalizacja platformy danych oraz obszarów analitycznych Zarządzanie i korekta modeli semantycznych wykorzystywanych w środowisku Microsoft Analiza oraz usuwanie nieprawidłowości wpływających na wydajność platformy Zapewnienie ciągłości działania systemów w trybie 24/7/365 Udział w dyżurach on-call kilka razy w miesiącu (terminy ustalane zespołowo) Oferujemy: Pracę z dużą platformą danych opartą o Microsoft Azure (Databricks, SQL Server, ADF, AAS, Synapse Analytics, Power BI) Zatrudnienie na podstawie umowy B2B Pracę w atmosferze koleżeństwa i zaufania – w ankiecie satysfakcji ponad 92% pracowników zgadza się z tym stwierdzeniem Odpowiednie wsparcie i współpracę w swoim zespole – w ankiecie satysfakcji 100% pracowników zgadza się z tym stwierdzeniem Pracę w modelu zdalnym Elastyczne godziny pracy Możliwość pracy z biura w centrum Poznania Dostęp do najnowszych technologii IT Możliwość rozwoju w międzynarodowej firmie Szkolenia zewnętrzne i wewnętrzne: Bezpieczne czwartki, Science Friday Spotkania firmowe: Summer Party, Witner Party, AllHands, Talk to Your C-level, Lokalne środy, summ-itowe śniadania Programy doceniania pracowników: summ-it heores i nagrody za przyznane kudosy Program poleceń pracowniczych Możliwość dołączenia do benefitów (opieka medyczna, karta Multisport, ubezpieczenie grupowe) Pracę w zrównoważonym zespole – 3 generacji: X, Y, Z
Qlik Sense Developer K/M
BCF Software Sp. z o.o.
⚲ Wrocław
90–100 zł netto (+ VAT) / godz.
Wymagania
- Qlik Sense
Nasze wymagania: Udokumentowane doświadczenie w pracy z Qlik Sense i tworzeniu dashboardów Bardzo dobra znajomość modelowania danych i podstaw hurtowni danych Umiejętność efektywnej komunikacji zarówno z zespołami technicznymi, jak i biznesowymi Doświadczenie we współpracy z zespołami cross-funkcyjnymi przy dostarczaniu rozwiązań data Analityczne podejście oraz nastawienie na dostarczanie wartości biznesowej Bardzo dobra znajomość języka angielskiego O projekcie: Poszukujemy doświadczonego developera Qlik Sense, który będzie projektować i tworzyć intuicyjne oraz wartościowe biznesowo dashboardy i raporty. Idealny kandydat będzie ściśle współpracował z interesariuszami biznesowymi, aby zrozumieć potrzeby raportowe, kwestionować niejasne lub mało istotne wymagania oraz proponować ulepszenia zwiększające użyteczność i wartość biznesową. Projekt dotyczy rozwoju i utrzymania rozwiązań Business Intelligence opartych o Qlik Sense. Głównym celem jest dostarczanie przejrzystych, użytecznych dashboardów wspierających podejmowanie decyzji biznesowych. Rola obejmuje współpracę z interesariuszami biznesowymi oraz zespołem data engineering w celu przekształcania wymagań w efektywne rozwiązania raportowe oparte na dobrze zaprojektowanym modelu danych. Zakres obowiązków: Tworzenie interaktywnych i przyjaznych dla użytkownika dashboardów oraz raportów w Qlik Sense Współpraca z użytkownikami biznesowymi w celu zbierania i doprecyzowania wymagań Przekładanie potrzeb biznesowych na specyfikacje techniczne dla zespołu data engineering Zapewnienie odpowiedniego modelowania danych pod potrzeby raportowania zgodnie z najlepszymi praktykami Wykorzystywanie wiedzy z zakresu hurtowni danych, w tym: Slowly Changing Dimensions (SCD) Tabele faktów i wymiarów Schematy gwiazdy i płatka śniegu Oferujemy: Praca w firmie, która otrzymała nagrodę Great Place to Work Award i Diamentowy Certyfikat Forbesa. Pakiet benefitów (karta multisport, prywatna opieka medyczna, ubezpieczenie grupowe) Udział w projekcie dla międzynarodowego klienta Stabilną współpracę w profesjonalnym środowisku Środowisko pracy ludzi otwartych na dzielenie się i wymianę wiedzą IT.
PySpark Data Engineer
BRAVER IT SPÓŁKA AKCYJNA
⚲ Warszawa
21 000–30 000 zł netto (+ VAT) / mies.
Wymagania
- PySpark
- Microsoft Azure
- SQL
- Microsoft Power BI
Nasze wymagania: Minimum 3 years of experience in Data Engineering Strong hands on experience with PySpark (DataFrames, SparkSQL optimization, partitioning) Practical experience with Databricks and Azure Data Factory Knowledge of Azure SQL and core Azure services (Storage Accounts, KeyVault, VNET, Application Gateway, Azure Portal) Experience working with Delta, Parquet, and CSV file formats Experience with CI/CD processes Ability to work independently and solve problems with minimal supervision Strong written and spoken English Experience with Power BI O projekcie: We are looking for a Data Engineer to design and maintain modern data solutions built on Databricks, PySpark, and Microsoft Azure. The role focuses on developing scalable data platforms and supporting business use cases with reliable data pipelines. Zakres obowiązków: Design, build, and maintain scalable data pipelines Develop data processing and transformation workflows Support data ingestion from multiple sources into cloud environments Ensure performance, reliability, and data quality across solutions Collaborate with business and technical stakeholders to translate requirements into data solutions Contribute to documentation and continuous improvement of data processes Work in a distributed team environment, focusing on product and business goals Oferujemy: Work on modern data solutions in Azure and Databricks environment Flexible working model and stable long term cooperation Exposure to international projects and stakeholders Support for professional growth and continuous learning
Programista PL/SQL ze znajomością integracji
4IT SOLUTIONS sp. z o.o.
⚲ Warszawa
130–170 zł netto (+ VAT) / godz.
Wymagania
- PL/SQL
- SoapUI
- REST
- Oracle Service Bus
- Oracle SOA
- Oracle Weblogic Server
Nasze wymagania: Minimum 5-letnie doświadczenie na podobnym stanowisku Bardzo dobra znajomość PL/SQL i SQL Doświadczenie w pracy z dużymi zbiorami danych i ich optymalizacji Znajomość architektury SOA oraz integracji systemów Praktyczne doświadczenie w wykorzystaniu SOAP, REST, XQuery, XSLT Wykształcenie wyższe (informatyczne lub pokrewne) Mile widziane: Certyfikaty Oracle PL/SQL Znajomość Oracle Service Bus, Oracle SOA Suite, Oracle Weblogic ServerZa O projekcie: Poszukujemy Programisty PL/SQL ze znajomością integracji dla naszego klienta – globalnego lidera w dziedzinie baz danych, rozwiązań chmurowych i oprogramowania biznesowego. To wyjątkowa okazja do pracy dla jednej z wiodących firm tworzących kompleksowe oprogramowanie bazodanowe oraz nowoczesne rozwiązania chmurowe oparte na sztucznej inteligencji. Dzięki ciągłemu rozwojowi technologii oraz inwestycjom w nowoczesne rozwiązania, firma pozostaje kluczowym graczem w sektorze IT, dostarczając innowacyjne produkty dla firm na całym świecie. Dynamiczny rozwój oraz globalna społeczność ekspertów IT sprawiają, że jest to idealne miejsce dla ambitnych specjalistów. Zakres obowiązków: Modelowanie danych oraz tworzenie struktur danych na potrzeby integracji systemów w architekturze SOA Rozwój i optymalizacja kodu PL/SQL, w tym implementacja zapytań, procedur składowych i interfejsów usług z naciskiem na wydajność i skalowalność Analiza i optymalizacja zapytań SQL na dużych zbiorach danych Praca zgodnie z wymaganiami SLA (Service Level Agreement) Oferujemy: Atrakcyjna lokalizacja biura Brak dress code’u Możliwość pracy zdalnej Przyjazna niekorporacyjna atmosfera Spotkania integracyjne
Pre-Sales Engineer (AI & Big Data)
Addepto
⚲ Białystok, Gdańsk, Kraków, Grzegórzki, Warszawa, Śródmieście, Wrocław, Stare Miasto
Wymagania
- Python
- AI
- ML
- Generative AI
- Machine Learning
- Data Engineering
- Cloudflare
- Big Data
- Databricks
Nasze wymagania: Undergraduate degree or higher in Computer Science, Data Science, Engineering, or related field – or equivalent hands-on experience. Proven experience in technical roles – e.g., exposure to AI/ML products, data platforms, consulting services, solution engineering, or cloud architecture. Foundational understanding of public cloud platforms (AWS, Azure, GCP) with experience deploying cloud-based AI solutions and/or modern data platform architectures. Comfortable working across multiple clients and projects, often in parallel, with strong organizational and time management skills. A strong foundational understanding of AI/ML workflows – from data preprocessing and model training to evaluation and deployment. Familiarity with LLM-based applications, including embeddings, vector databases, and orchestration frameworks (e.g., LangChain, LlamaIndex). Working knowledge of MLOps and orchestration tools like MLflow, Airflow, Kubeflow, Vertex AI, or SageMaker. Proficiency in Python and experience with common AI/ML libraries such as pandas, scikit-learn, PyTorch, or TensorFlow. Understanding of modern data architectures and data engineering concepts, including ETL/ELT pipelines, big data processing, and cloud data services (e.g., Azure Data Factory, Azure Synapse, Databricks, or similar platforms). Strong communication skills, with the ability to simplify complex concepts for diverse audiences, including AI engineers, data scientists, data engineers, and non-technical stakeholders. Excellent English (at least C1 level). Excellent time management and multitasking ability – comfortable working across several customer projects and internal teams. Mile widziane: Exposure to or interest in sales processes, technical demos, and customer-facing engagements. O projekcie: We are looking for a Pre-Sales Engineer to help clients unlock the value of modern AI and data platforms. In this role, you will support organizations in the early stages of their transformation by aligning technical solutions – such as machine learning, LLM-based applications, and cloud data platforms – with their strategic business goals. You will become an expert in our consulting offerings across AI/ML, LLM integrations, and modern data engineering solutions, acting as a trusted technical advisor during pre-sales engagements. Working closely with sales, delivery, and engineering teams, you will help shape solution concepts, support technical discovery, and ensure a smooth transition from early discussions to project implementation. Zakres obowiązków: Serve as a technical advisor during pre-sales and early engagement stages, helping clients understand what’s possible with AI/LLMs and modern data platforms, and how these capabilities align with their strategic business goals. Lead or support technical discovery sessions, clarifying business problems, identifying solution patterns, and assessing feasibility across both AI/ML and data platform initiatives. Design and communicate solution architectures, including LLM integrations, AI/ML solution designs, retrieval-augmented generation (RAG), vector databases, orchestration pipelines, and data flows, as well as modern cloud data architectures such as data lakes, data warehouses, and big data processing solutions. Create and deliver technical PoCs and PoVs, demo narratives, and early prototypes to support proposals and shape delivery, including solutions leveraging AI/ML as well as modern data engineering and analytics platforms. Contribute to internal R&D by evaluating emerging AI tools, libraries, frameworks, and modern data technologies (e.g., cloud-native data platforms, data engineering tools), and translating insights into recommendations for internal teams and clients. Collaborate with sales, delivery, and engineering teams to ensure a smooth transition from pre-sales, through technical scoping and solution design, to hand-off to delivery teams and full implementation. Oferujemy: Work in the rapidly evolving world of AI & Big Data. Engage with top-tier global enterprises and cutting-edge startups on international projects. Enjoy flexible work arrangements, allowing you to work remotely or from modern offices and coworking spaces. Accelerate your professional growth through career paths, knowledge-sharing initiatives, language classes, and sponsored training or conferences, including a partnership with Databricks, which offers industry-leading training materials and certifications. Choose your preferred form of cooperation: B2B or a contract of mandate, and enjoy 20 fully paid days off. Participate in team-building events and utilize the integration budget. Celebrate work anniversaries, birthdays, and milestones. Access medical and sports packages, eye care, and well-being support services, including psychotherapy and coaching. Get full work equipment for optimal productivity, including a laptop and other necessary devices. With our backing, you can boost your personal brand by speaking at conferences, writing for our blog, or participating in meetups. Experience a smooth onboarding with a dedicated buddy, and start your journey in our friendly, supportive, and autonomous culture.
Oracle DB and ETL Specialist
Ework Group
⚲ Warszawa, Gdynia, Gdańsk
20 160 - 24 360 PLN (B2B)
Wymagania
- Oracle DB
- ETL
- Linux
- Jenkins
- Git
O projekcie: Kluczowe obowiązki: - Pełna, operacyjna odpowiedzialność „end-to-end” – od gotowości biznesowej do wdrożenia aż po działanie na produkcji, z naciskiem na efektywność i jakość operacyjną - Codzienne wsparcie operacyjne w trybie hands-on, w tym monitoring, rozwiązywanie problemów (troubleshooting), zarządzanie incydentami oraz analiza przyczyn źródłowych (root cause analysis) - Współpraca z zespołami cross-funkcyjnymi, w tym developerami, analitykami oraz interesariuszami biznesowymi - Zapewnienie jasnej i terminowej komunikacji dotyczącej incydentów, ich rozwiązania oraz bieżących kwestii operacyjnych Szczegółowy zakres zadań: 🔹 Wsparcie operacyjne i monitoring: Przyjmowanie, analiza i rozwiązywanie zgłoszeń (ticketów) dotyczących Oracle DB i rozwiązań ETL Monitorowanie wydajności baz danych i procesów ETL, kondycji systemu oraz przepływów procesów biznesowych Przeprowadzanie proaktywnych kontroli stanu systemów oraz działań prewencyjnych Zarządzanie incydentami oraz koordynacja działań ze stakeholderami w przypadku krytycznych problemów 🔹 Zarządzanie problemami i analiza: Rozwiązywanie złożonych problemów w środowiskach pre-produkcyjnych i produkcyjnych (w tym równoległych środowiskach produkcyjnych) Przeprowadzanie analizy przyczyn źródłowych (root cause analysis) w ramach ustrukturyzowanego procesu zarządzania problemami Analiza logów Oracle, logów ETL oraz alertów systemowych przy użyciu narzędzi monitoringowych Dokumentowanie rozwiązań oraz utrzymywanie bazy wiedzy dla powtarzających się problemów 🔹 Operacje release i wdrożenia Realizacja wdrożeń baz danych i ETL zgodnie z procesami ITIL Koordynacja działań release’owych pomiędzy różnymi środowiskami (Pre-Prod, Production) Zarządzanie harmonogramem wdrożeń oraz komunikacja z biznesem Weryfikacja po wdrożeniu oraz wykonywanie rollbacków w razie potrzeby Wymagania: - Certyfikat ITIL Foundation - Ponad 5 lat praktycznego doświadczenia w pracy z bazami danych Oracle oraz operacjach i wsparciu ETL, w tym umiejętność pisania i optymalizacji zapytań - Bardzo dobra znajomość architektury Oracle, wydajności oraz administracji bazami danych - Doświadczenie z infrastrukturą Linux oraz zarządzaniem środowiskami, a także znajomość narzędzi DevOps, takich jak Jenkins, Git oraz narzędzi do zarządzania zmianami w bazach danych (np. Liquibase, Flyway) - Dobre umiejętności programistyczne w językach takich jak Python, Java lub C# - Doświadczenie z narzędziami monitoringu i systemami alertowania (np. Splunk)
Node.js Developer
Green Minds Sp. z o.o.
⚲ Warszawa
180–210 zł netto (+ VAT) / godz.
Wymagania
- Node.js
- Typescript
- GraphQL
- Kafka
- React.js
- NoSQL
- MongoDB
- Neo4j
Nasze wymagania: At least 6 years of commercial experience as a Backend / Node.js Developer, with a proven track record of working on complex international projects. Very good knowledge of Node.js Commercial experience with TypeScript Practical experience working with GraphQL (schema design, resolvers) Experience in maintaining and developing backend systems in a production environment Good knowledge of backend application architecture Knowledge of Polish Mile widziane: Experience with NoSQL databases, particularly MongoDB and/or Neo4j Knowledge of event-driven and streaming systems (e.g., Kafka) Basic knowledge of React Experience working with systems featuring complex architectures O projekcie: We are building an advanced analytics platform whose core consists of a dynamic relationship structure based on the Neo4j graph database and real-time data streaming via Kafka. Your role will be to develop an intelligent GraphQL layer that integrates these technologies into a cohesive, high-performance API capable of handling complex relationships between data. Zakres obowiązków: Development and maintenance of backend applications in Node.js (TypeScript) Designing, developing, and maintaining GraphQL APIs Implementing an integration layer between APIs and: databases (MongoDB, Neo4j), queueing/event systems (Kafka) Ensuring code quality, stability, and scalability Participating in code reviews and technical decisions Collaborating with other technical teams Oferujemy: You have a real say in matters of architecture and technology. Work with a unique set of technologies (Graphs + Kafka + GraphQL). Remote work, Stability and growth
Młodszy specjalista / Młodsza specjalistka ds. raportowania i analizy danych
Cursor S.A.
⚲ Warszawa, Włochy
Wymagania
- Microsoft Excel
- Power Query
- Power BI
Nasze wymagania: Bardzo dobra i praktyczna znajomość MS Excel Zdolność do wyciągania wniosków na podstawie analizy danych Komunikatywność, samodzielność i zaangażowanie Otwartość na zmiany i chęć dostosowania się do dynamicznego środowiska Mile widziane: Znajomość Power BI i Power Query Zakres obowiązków: Obsługa projektów pod względem analitycznym, raportowym i systemowym Przygotowywanie danych do raportowania, dbanie o ich jakość i monitorowanie wyników Przygotowywanie prezentacji i wizualizacji danych Współpraca z innymi działami w ramach bieżących obowiązków i trwających projektów Oferujemy: Stabilne zatrudnienie w firmie działającej ponad 25 lat na rynku Zatrudnienie w oparciu o umowę zlecenie lub kontrakt B2B Możliwość rozwoju zawodowego i ciągłego podnoszenia kwalifikacji zawodowych Szkolenia (zarówno specjalistyczne jak i interpersonalne) Zespół dzielący się wiedzą i doświadczeniem Pracę w trybie hybrydowym po okresie wdrożenia Wygodne biuro dopasowane do różnych stylów pracy Udział w wydarzeniach integracyjnych Dostęp do benefitów firmowych (karta sportowa, prywatna opieka medyczna, dodatkowe ubezpieczenie na życie, platforma językowa)
Middle Data Analyst
SQUARE ONE RESOURCES sp. z o.o.
⚲ Kraków
Wymagania
- SQL
- Google Cloud Platform
- Microsoft Power BI
- Tableau
- Terraform
- Rest API
Nasze wymagania: Strong SQL skills and experience working with complex datasets Hands-on experience or willingness to work with dbt for data modeling Experience with cloud data environments (GCP) Experience working with orchestration tools (e.g., Airflow) or similar concepts Experience with infrastructure-as-code tools (e.g., Terraform) Familiarity with Git and collaborative development workflows Ability to investigate data issues across multiple systems and identify root causes Basic scripting skills (Python) and understanding of API-based data flows Experience with BI tools (Tableau, Power BI, Looker, or similar) Understanding of financial instruments (equities, derivatives, FX, etc.) Strong communication skills and ability to collaborate in cross-functional teams Experience working in Agile environments (Scrum or Kanban) Mile widziane: Experience working with REST APIs and data ingestion pipelines Knowledge of market data providers (Bloomberg, Refinitiv) Experience in risk or regulatory reporting (MiFID II, EMIR) Zakres obowiązków: Analyse and troubleshoot data across complex financial data pipelines to ensure consistency and accuracy between multiple sources Work with modern data stack tools such as dbt (data modeling) and Airflow (orchestration) to build, maintain, and enhance data pipelines Investigate and resolve data quality issues (e.g., missing or inconsistent data across systems and reports) Contribute to data model design and enhancements within existing pipelines, including backfilling historical data Collaborate closely with data engineers and other analysts on shared ownership of data pipelines and applications Work with APIs and data ingestion processes, including testing and validating data flows (e.g., using Postman) Operate within Git-based workflows (GitLab), including version control and CI/CD processes Support reporting and analytics use cases by preparing datasets and, where needed, building dashboards Participate in Agile ceremonies and iterative delivery of data solutions
Mid-Level SQL Server Data Warehouse Developer
ITDS Polska Sp. z o.o.
⚲ Warszawa
16 800–17 640 zł netto (+ VAT) / mies.
Wymagania
- Git
- Oracle
- Python
- SQL Server
- SSAS
- SSIS
- SVN
- T-SQL
Nasze wymagania: At least 3 years of experience in data development and management. Very good knowledge of Microsoft SQL Server and T-SQL. Experience with SSIS and SSAS. Understanding of Data Warehouse concepts (facts, dimensions, data models). Knowledge of version control systems (SVN, GIT). Mile widziane: Certifications in data or software development. Knowledge of Python. Additional data processing techniques or tools. O projekcie: As a Mid-Level SQL Server Data Warehouse Developer, you will be working for our client, a leader in data solutions. You’ll drive the development and optimization of the Data Warehouse, supporting business needs through precise data modeling, ETL processes, and system enhancements. Join a team committed to innovation and continuous growth in the data landscape. Zakres obowiązków: Develop and expand Data Warehouse components (measures, dimensions) aligned with business requirements. Optimize data loading processes and ensure SLA adherence. Implement data processing projects, including ETL development and data modeling. Manage large datasets (>10 TB), providing robust support and error resolution. Facilitate migration projects from Oracle to SQL Server. Enhance CI/CD tools and perform thorough code reviews. Analyze system performance and troubleshoot production issues. Oferujemy: Stable and long-term cooperation with very good conditions. Enhance your skills and develop your expertise in the financial industry. Work on the most strategic projects available in the market. Define your career roadmap and develop yourself in the best and fastest possible way by delivering strategic projects for different clients of ITDS over several years. Participate in Social Events, training, and work in an international environment. Access to attractive Medical Package. Access to Multisport Program. Access to Pluralsight. Flexible hours.
Master Data Quality Specialist
3Shape Poland Sp. z o.o.
⚲ Szczecin, Gumieńce
Wymagania
- SQL
- Python
Nasze wymagania: Strong attention to detail and analytical skills. Ability to understand and follow complex instructions. Proficiency in making data-driven decisions. Excellent English skills. Advanced MS Excel and Power BI skills. Experience in Master Data Management. Knowledge of programming languages (e.g., SQL, Python) is a plus. Zakres obowiązków: Ensure accuracy and consistency of master data. Develop and implement data quality standards. Build and maintain BI reports. Participate in master data and company projects. Train the Master Data Operational Team. Collaborate with teams to resolve data issues. Use advanced Excel and Power BI for data analysis. Oferujemy: Attractive office with relax zones located in Szczecin, Poland. A vibrant and international environment with social, diverse, and highly skilled and cooperative colleagues. An attractive Luxmed healthcare package with additional dentistry care. Fresh fruits, delicious and healthy lunches cooked by our canteen for 2PLN. Language courses with qualified teachers. Company events.
Master Data Management Administrator with French
KION Business Services Polska Sp. z o. o.
⚲ Kraków, Podgórze Duchackie
Wymagania
- SAP
- S4Hana
Nasze wymagania: Experience in a similar position French at C1 level Minimum English at B2 level Good knowledge of SAP master data (MM, PTP, OTC), S4Hana would be an advantage Minimum Excel knowledge at intermediate level (VLOOKUP, pivot tables, etc.) Analytical skills and attention to details Ability to work within an European virtual team Ability to initiate new solutions and build positive relationships with the stakeholders You demonstrate KION Core Values of Integrity, Excellence, Collaboration and Courage Zakres obowiązków: Manage day-to-day Master Data Management activities across a virtual global organization (Customers, Suppliers, GLs) Direct contact with Suppliers to confirm general data Support MDM team to define the architecture of the data to be managed globally Ensure business requirements are adequately covered Provide quality checks Support users with master data inquiries and resolving issues Actively participate in Business Transformation Project – S4Hana implementation ( validation of data upload files, data cleansing etc.), participate in the system test Collaborate with Global Process Organization, Local Businesses as well as other departments within Centre of Excellence Make regular updates of process documentation in case of changes Take part in performance measurement exercises Support improvements and standardization Respond to supervisor’s questions/tasks in a timely manner Oferujemy: Possibility to participate in building Financial structures in Kraków Online recruitment process Hybrid work & Flexible Working Hours Private medical care in LuxMed Group 4 hours off work per year for health check-ups ("Dzień na U") MyBenefit Cafeteria Platform (with Multisport card available) Group Life Insurance Employee referral program Professional training & courses Sharing the costs of foreign language courses No dress code Possibility of growth inside an organization
Lead Solution Architect (Data & AI Platform)
BCF Software Sp. z o.o.
⚲ Opole, Wrocław
100–130 zł netto (+ VAT) / godz.
Wymagania
- Python
- Kubernetes
- REST API
- SQL
- NoSQL
- Snowflake
- MongoDB
- Oracle
- Kafka
- Docker
- Linux
- Airflow
- Apache Spark
- Java
- Spring Boot
- React
- Vue
- Angular
- Redis
- MuleSoft
- ElasticSearch
Nasze wymagania: Minimum 5 lat doświadczenia jako Solution Architect, Technical Lead lub w podobnej roli przy projektowaniu systemów enterprise. Bardzo dobra znajomość architektury danych, Data Mesh, FAIR Data oraz projektowania pipeline’ów ETL dla dużych zbiorów danych. Doświadczenie w projektowaniu rozwiązań opartych o Semantic Web lub Linked Data. Bardzo dobra znajomość Python w kontekście backendu i przetwarzania danych. Praktyczne doświadczenie z Kubernetes, Docker oraz budową skalowalnych platform w chmurze. Doświadczenie w projektowaniu modeli danych i optymalizacji schematów dla baz takich jak Snowflake, MongoDB, Oracle lub PostgreSQL. Znajomość wzorców integracyjnych (API, messaging, event streaming) oraz narzędzi takich jak Kafka. Doświadczenie w wykorzystaniu AI w procesach data engineering lub data product development. Mile widziane: Znajomość systemów LIMS, biosample management, biobanków lub procesów badań klinicznych. Doświadczenie pracy w środowisku regulowanym (GxP, FDA 21 CFR Part 11, GDPR). Znajomość zarządzania metadanymi, śledzenia pochodzenia danych (data lineage) i provenance w środowisku badawczym. O projekcie: Poszukujemy Senior Solution Architect, który wesprze rozwój nowoczesnej platformy Biosample Management wykorzystywanej w procesach badawczo-rozwojowych w branży life science. System odpowiada za śledzenie próbek biologicznych, zarządzanie ich cyklem życia oraz budowę zaawansowanych produktów danych wspierających rozwój nowych terapii. Projekt koncentruje się na projektowaniu skalowalnej architektury danych i aplikacji w środowisku chmurowym, integracji dużych zbiorów danych laboratoryjnych oraz wdrażaniu nowoczesnych podejść takich jak Data Mesh, FAIR Data czy GraphRAG. Architekt będzie również współtworzyć strategię wykorzystania AI i Large Language Models w ekosystemie produktu. Kluczowym celem jest stworzenie bezpiecznej, skalowalnej i zgodnej z regulacjami platformy wspierającej digitalizację procesów laboratoryjnych. Zakres obowiązków: Definiowanie i rozwijanie architektury technicznej dla platformy Biosample Management, z uwzględnieniem skalowalności, bezpieczeństwa i wysokiej dostępności. Budowa architektury danych wspierającej digitalizację procesów biosample oraz tworzenie produktów danych dla zespołów badawczych. Projektowanie integracji systemowych (API, messaging, data pipelines) oraz wzorców przetwarzania danych takich jak ETL, ELT lub noETL. Tworzenie strategii integracji rozwiązań AI i LLM w systemie, z uwzględnieniem zarządzania modelami, reprodukowalności oraz governance. Bliska współpraca z Product Management, zespołami developerskimi, DevOps oraz architektami domenowymi przy definiowaniu roadmapy technologicznej. Przygotowywanie dokumentacji architektonicznej (SAD, ADR, SDD), udział w przeglądach architektury i procesach decyzyjnych. Analiza potrzeb użytkowników systemu (naukowców, laboratoriów, biobanków) oraz przekładanie ich na rozwiązania technologiczne. Oferujemy: Praca w firmie, która otrzymała nagrodę Great Place to Work Award i Diamentowy Certyfikat Forbesa System premiowania za polecenia Dofinansowanie karty MultiSport Luxmed – dofinansowanie pakietu medycznego Ubezpieczenie na życie (grupowe) Coaching języka angielskiego 1:1 Środowisko pracy ludzi otwartych na dzielenie się i wymianę wiedzą IT
Lead Data Scientist / ML Engineer
Addepto
⚲ Gdańsk, Katowice, Kraków, Grzegórzki, Poznań, Warszawa, Śródmieście, Wrocław, Stare Miasto
19 320–28 560 zł / mies. (zal. od umowy)
Wymagania
- Python
- Docker
- LLM
- ML
- GenAI
- AI agents
- AWS
- MLOps
Nasze wymagania: Proven commercial experience (+5 years) designing and implementing scalable AI solutions (Machine Learning, Predictive Modeling, Optimization, LLM, NLP, Computer Vision, GenAI). Proficiency in developing ML algorithms from scratch to production deployment. Strong programming skills in Python: writing clean code, OOP design, extensive knowledge of ML libraries (Scikit-Learn, PyTorch / Tensorflow). Proven expertise in deploying solutions in cloud environments (AWS or Azure). Knowledge in applying LLMs (semantic search, prompt engineering, multimodal embeddings, RAG). High proficiency in English (C1 level). Excellent communication skills and consulting experience with direct interaction with clients. Working experience in SQL and NoSQL databases (MongoDB, Snowflake, Databricks). Good knowledge of CI/CD principles (GitHub and GitHub Actions). Familiarity with MLOps practices, Kubernetes and Docker. Bachelor’s or Master’s degree in Computer Science, Data Science, Mathematics, Physics, or a related field. Mile widziane: Experience with Big Data technologies like Spark, Hadoop, and Kafka is a plus. Leadership and mentoring experience is highly desirable. O projekcie: As a Lead Data Scientist / ML Engineer, you will have the exciting opportunity to work with a team of technology experts on challenging projects across various industries, leveraging cutting-edge technologies. Here are some of the projects we are seeking talented individuals to join: • AI optimization engine for airport operation management. This project involves creating an AI-driven optimization engine to streamline airport operations, using real-time data from sources like radar, air traffic, and passenger information. • AI recommendation engine for the leading innovation company. This project involves creation of AWS-powered solutions to provide domain-specific recommendations by employing sophisticated LLMs. Zakres obowiązków: Lead the development, implementation, and validation of Machine Learning solutions, ensuring alignment with project objectives. Lead the design of AI solution architectures that meet complex business goals and drive innovation. Research, test and select the best tools and technologies as well as AI solutions to meet the business requirements. Understand clients’ needs and translate business problems into data science problems. Architect and oversee the implementation of data pipelines and workflows, setting standards for data quality and security. Coordinate with Data Engineering and Software Engineering teams to strategize and oversee the building of AI applications. Present findings and recommendations clearly and concisely to stakeholders. Prioritize, and control tasks within an Agile/Scrum framework, ensuring timely delivery. Oferujemy: Work in a supportive team of passionate enthusiasts of AI & Big Data. Engage with top-tier global enterprises and cutting-edge startups on international projects. Enjoy flexible work arrangements, allowing you to work remotely or from modern offices and coworking spaces. Accelerate your professional growth through career paths, knowledge-sharing initiatives, language classes, and sponsored training or conferences, including a partnership with Databricks, which offers industry-leading training materials and certifications. Choose your preferred form of cooperation - B2B or a contract of mandate - and enjoy 20 fully paid days off. Participate in team-building events and utilize the integration budget. Celebrate work anniversaries, birthdays, and milestones. Access medical and sports packages, eye care, and well-being support services, including psychotherapy and coaching. Get full work equipment for optimal productivity, including a laptop and other necessary devices. With our backing, you can boost your personal brand by speaking at conferences, writing for our blog, or participating in meetups. Experience a smooth onboarding with a dedicated buddy, and start your journey in our friendly, supportive, and autonomous culture.
Lead Data Engineer (with Streaming)
Lingaro
⚲ Warszawa, Mokotów
Wymagania
- SQL
- Python
- Apache Spark
- Synapse
- ADF
- ADLS
- Databricks
- Apache Kafka
- Apache Flink
- Debezium
- SQL Server CDC
- Azure CDC
- Kafka Connect
- Avro
- Schema Registry
- Delta Lake
- Delta Live Tables
Nasze wymagania: 4–6 years of experience as Data Engineer. Strong SQL and Python skills (production-grade code). Experience with Apache Spark (including Structured Streaming). Hands-on experience with Azure (Synapse / ADF / ADLS / Databricks). Understanding of distributed systems fundamentals. Experience designing ETL/ELT pipelines. Experience working in Agile environment. English C1. Mile widziane: Experience with Apache Kafka (event streaming) and/or Apache Flink (stream processing engine). Experience with Change Data Capture (CDC) tools (e.g. Debezium, SQL Server CDC, Azure CDC, Kafka Connect). Experience with schema management (e.g. Avro, Schema Registry). Experience with Delta Lake / Delta Live Tables. Knowledge of event-driven architecture patterns. Experience with CI/CD for data platforms. O projekcie: We are looking for a Data Engineer with strong hands-on experience in batch data processing and practical exposure to streaming solutions. The ideal candidate understands event-driven architecture and can design scalable, real-time data pipelines on Azure. The role includes designing reliable near real-time data platforms supporting analytical and operational use cases. Zakres obowiązków: Design and implement scalable batch data pipelines on Azure using modern ETL/ELT approaches Develop and optimize data transformations using Apache Spark and SQL, ensuring performance and maintainability. Design efficient data models for analytical and reporting use cases (data lakes, data warehouses). Ensure data reliability, quality, monitoring, and performance in distributed environments. Build and maintain near real-time data pipelines using Apache Spark (Structured Streaming). Implement Change Data Capture (CDC) pipelines from relational databases when required. Contribute to event-driven solutions using message brokers where streaming use cases are present. Engage with stakeholders to refine data requirements and architecture choices. Perform code reviews, promote best practices, and mentor junior engineers. Work independently while maintaining effective communication with stakeholders. Oferujemy: Stable employment. On the market since 2008, 1500+ talents currently on board in 7 global sites. “Office as an option” model. You can choose to work remotely or in the office. Workation. Enjoy working from inspiring locations in line with our workation policy. Great Place to Work® certified employer. Flexibility regarding working hours and your preferred form of contract. Comprehensive online onboarding program with a “Buddy” from day 1. Cooperation with top-tier engineers and experts. Unlimited access to the Udemy learning platform from day 1. Certificate training programs. Lingarians earn 500+ technology certificates yearly. Upskilling support. Capability development programs, Competency Centers, knowledge sharing sessions, community webinars, 110+ training opportunities yearly. Grow as we grow as a company. 76% of our managers are internal promotions. A diverse, inclusive, and values-driven community. Autonomy to choose the way you work. We trust your ideas. Create our community together. Refer your friends to receive bonuses. Activities to support your well-being and health. Plenty of opportunities to donate to charities and support the environment. Modern office equipment. Purchased for you or available to borrow, depending on your location.
Lead Data Engineer (PySpark)
EPAM Systems (Poland) sp. z o.o.
⚲ Kraków, Grzegórzki
Wymagania
- Azure Fabric
- OneLake
- Delta
- OpenLake
- Python
- PySpark
- SparkSQL
- Cosmos DB
- Azure DevOps
- Microsoft Power BI
Nasze wymagania: 9+ years of experience in data engineering with AI exposure Expertise in Azure Fabric and end-to-end Fabric experience Knowledge of OneLake (Delta / OpenLake) Advanced skills in Python, PySpark and SparkSQL Proficiency in Cosmos DB (NoSQL API) and other Cosmos DB variants Understanding of DF Gen2 and M-code Capability to implement CI/CD pipelines using Azure DevOps or equivalent tools Experience with generic Azure services and Power BI integration, semantic models and performance considerations Background in Agile or Scrum environments Strong ownership mindset and ability to lead by example Excellent communication skills for technical and non-technical audiences Good understanding of the financial domain Mile widziane: Experience with code generation, including non-AI and AI-assisted approaches Azure AI Foundry experience Data Science fundamentals and collaboration with DS teams Strong background in Big Data architectures and Spark ecosystems Familiarity with financial instruments and financial services data Hands-on experience with industry-standard LLMs (including GPT, Claude or similar) Exposure to AI-enabled data platforms and intelligent analytics use cases O projekcie: We are seeking a Lead Data Engineer with deep expertise in Microsoft Azure Fabric–based data platforms and AI-enabled data engineering. This role blends hands-on technical leadership with architectural and team mentoring responsibilities, focusing on modern data engineering, big data processing, and AI-driven workflows in complex enterprise environments. Zakres obowiązków: Lead the design, development and optimization of scalable data engineering solutions using Azure Fabric and cloud-native technologies Own end-to-end data pipelines including ingestion, transformation, storage and analytics Architect and implement solutions leveraging OneLake (Delta / OpenLake) and Fabric experiences Develop and optimize PySpark, SparkSQL and Python-based data processing pipelines Work with Cosmos DB (NoSQL API) and other Cosmos DB variants to support high-performance data access patterns Implement and maintain CI/CD pipelines and promote DevOps best practices Collaborate with data scientists, AI engineers and product stakeholders to enable AI-driven analytics and insights Mentor and guide junior engineers, setting coding standards and best practices Ensure data quality, security, governance and performance across platforms Contribute to technical decision-making and solution architecture discussions Oferujemy: Engineering community of industry professionals Friendly team and enjoyable working environment Flexible schedule and opportunity to work remotely within Poland Chance to work abroad for up to 60 days annually Business-driven relocation opportunities Outstanding career roadmap Leadership development, career advising, soft skills, and well-being programs Certification (GCP, Azure, AWS) Unlimited access to LinkedIn Learning, Get Abstract, Cloud Guru English language classes Stable income (Employment Contract or B2B) Participation in the Employee Stock Purchase Plan Benefits package (health insurance, multisport, shopping vouchers) Strategically located offices featuring entertainment and relaxation zones, table tennis and football, free snacks, fantastic coffee, and more Referral bonuses Corporate, social and well-being events
Kafka Developer
Integral Solutions
⚲ Warszawa
150–190 zł netto (+ VAT) / godz.
Wymagania
- Kafka
- Java
- Spring Framework
- IntelliJ
- Oracle
- Oracle PL/SQL
- SQL
- Confluent Kafka Cloud
- ELK servers
Nasze wymagania: 2 Years of experience developing Kafka based applications 2 years of experience with the following Kafka components: Streams including processor API, Connect, Schema registry 2 years of experience with Java, Spring, implementing Kafka streams application Experience in developing ELK monitoring applications Experience with Logstash Configuration Language (LCL) configuring pipelines, which consists: inputs, filters, and outputs. Experience working in Windows and Unix/Linux environments Experience using Intellij IDE Experience with Oracle PL/SQL, SQL queries & SQL performance tuning Experience working with Rest APIs Experience with Kafka CLIs and rest APIS for managing and querying Kafka resources. Experience with Developing DevOps processes for Kafka & ELK Organized, dedicated, team player Mile widziane: Manage and maintain ELK servers - an advantage Experience with Confluent Kafka Cloud – an advantage O projekcie: We are looking for an exceptional Kafka Developer with a passion for a data who is not afraid to seek new solutions. We offer cooperation with a unique client who provides opportunities for development in many complex and global supply chain projects. You will join a new IT Hub, where you will encounter only new technologies and projects related to the creation of new functionalities. Salary range: 35-45 Euro/H B2B net+ Vat Zakres obowiązków: Design and Develop event-based architecture based on Kafka & Kafka streams Design and Develop ELK pipelines, indexes, dashbords & alerts Lead Architecture discussion & design of Kafka based event streaming applications Design a holistic approach for Event based architecture Configure Kafka connectors and Kafka topic Develops effective and event-based stream processing applications according to design specifications Supports software development and test teams throughout the software development lifecycle Oferujemy: Long-term cooperation in a prestigious, global corporation Cooperation with international teams across Europe and Israel Career development path - from Software Engineer to Tech Lead Challenging projects and exposure to new technologies Private healthcare package or access to Multisport
Junior Computer Vision Engineer (F/M)
Transfer Multisort Elektronik Sp. z o.o.
⚲ Rzgów
Wymagania
- C++
- Python
- Git
- Visual Studio
Nasze wymagania: wykształcenie wyższe, kierunki: informatyka, elektronika i pokrewne; komunikatywna znajomość języka angielskiego B1/ B2; znajomość języków programowania C++ i Python w stopniu co najmniej średniozaawansowanym; umiejętność pisania czystego kodu i znajomość dobrych praktyk programistycznych; znajomość systemu kontroli wersji Git. Mile widziane: znajomość podstaw algebry liniowej; znajomość algorytmów analizy obrazów i/lub chmur punktów 3D (detekcja obiektów, segmentacja, śledzenie itp.); znajomość Visual Studio; roczne doświadczenie na podobnym stanowisku; zainteresowania nowoczesnymi rozwiązaniami na rynku technologicznym w zakresie analizy obrazu, systemów wizyjnych, systemów optycznych. Zakres obowiązków: projektowanie i programowanie autorskich systemów wizyjnych do współpracy z robotami z wykorzystaniem algorytmów komputerowej analizy obrazów i uczenia maszynowego; praca nad projektami R&D, poszukiwanie nowych rozwiązań; rozwój i utrzymywanie kodu w językach C++ i Python; przygotowanie i obróbka danych potrzebnych do testowania rozwiązań. Oferujemy: Nazwa stanowiska nie determinuje płci osoby, która może je zajmować.
Junior Azure Data Supporter
summ-it s.a.
⚲ Poznań, Grunwald
Wymagania
- Azure Data Factory
- Azure Databricks
- SQL
Nasze wymagania: Wykształcenie wyższe informatyczne/pokrewne lub studenci ostatnich lat studiów Min. rok doświadczenia na podobnym stanowisku Gotowość do wsparcia on-call kilka dni w miesiącu (elastyczny grafik ustalany z zespołem) Ogólna orientacja w pracy z Azure Data Factory i Azure Databricks Podstawowa znajomość SQL Zaznajomienie z koncepcją hurtowni danych i przetwarzania danych (ETL/ELT) Umiejętność pracy z dokumentacją techniczną Gotowość do nauki i rozwoju w obszarze cloud data engineering Znajomość języka angielskiego na poziomie min. B2 Mile widziane: Praktyczne doświadczenie w projektowaniu i rozwijaniu rozwiązań na platformie danych Azure Doświadczenie w tworzeniu systemów przetwarzania danych na platformie Azure O projekcie: Jeśli chcesz nauczyć się nowych technologii, a następnie pracować w projektach dla marek znanych na całym świecie, a jednak wciąż w ramach niekorporacyjnej struktury, to idealne miejsce dla Ciebie! Zakres obowiązków: Monitorowanie pracy środowisk danych, w tym Azure Synapse Analytics i Azure Data Factory Analiza zgłoszeń dotyczących przepływów danych i procesów ETL/ELT Wsparcie developerów w diagnozowaniu błędów i nieprawidłowości integracji Realizacja prostych zadań operacyjnych, np. uruchamianie pipeline’ów lub weryfikacja logów Pomoc w przygotowywaniu dokumentacji technicznej oraz operacyjnej Udział w zapewnianiu dostępności systemów 24/7/365 Gotowość do dyżurów on-call kilka razy w miesiącu Oferujemy: Pracę z dużą platformą danych opartą o Microsoft Azure (Databricks, SQL Server, ADF, AAS, Synapse Analytics, Power BI) Zatrudnienie na podstawie umowy B2B Pracę w atmosferze koleżeństwa i zaufania – w ankiecie satysfakcji ponad 92% pracowników zgadza się z tym stwierdzeniem Odpowiednie wsparcie i współpracę w swoim zespole – w ankiecie satysfakcji 100% pracowników zgadza się z tym stwierdzeniem Pracę w modelu zdalnym Elastyczne godziny pracy Możliwość pracy z biura w centrum Poznania Dostęp do najnowszych technologii IT Możliwość rozwoju w międzynarodowej firmie Szkolenia zewnętrzne i wewnętrzne: Bezpieczne czwartki, Science Friday Spotkania firmowe: Summer Party, Witner Party, AllHands, Talk to Your C-level, Lokalne środy, summ-itowe śniadania Programy doceniania pracowników: summ-it heores i nagrody za przyznane kudosy Program poleceń pracowniczych Możliwość dołączenia do benefitów (opieka medyczna, karta Multisport, ubezpieczenie grupowe) Pracę w zrównoważonym zespole – 3 generacji: X, Y, Z
Information Technology Project Manager
HCL Poland
⚲ Wrocław
Wymagania
- Azure DevOps
Nasze wymagania: Very good knowledge of development methodology and good practices (development lifecycle, testing, CI/CD, etc.) is a must Good knowledge of different data integration tools and their usage is a must (ETL, APIs, Replication mechanisms, etc.) Good knowledge of Azure Cloud ecosystem Basic Knowledge of Azure DevOps Wanted Profile: You have strong experience in delivery and project portfolio management. Autonomously driving your delivery for several projects at the same time across different teams. You are good at sharply reporting project statuses, providing clear timelines, highlighting risks in a sharp and efficient manner You have proven experience of data integration & ingestion in Cloud environments You are comfortable working in international environments with team members from different cultures and countries You have strong experience of stakeholder management in complex environments. Including excellent communication You have good experience of managing team members operationally You are pragmatic, result oriented You have basic knowledge of Scrum and SAFe Agile Framework If required, you’re willing to deep-dive into technical problems with team members O projekcie: The Data Enablement Factory is a critical area which mission is to deliver data sources, along with related activities such as data classification and lineage management. As a Digital Product Owner (DPO) , you will be a key member of the Agile Team responsible for defining user stories, prioritizing tasks, and managing the Team Backlog. You will also be the person coordinating the stable team on a day-to-day basis. In this position, you will represent the Data Replication & Ingestion department across specific business domains and will be identified across the organization as the primary point of contact for all data ingestion and data enablement activities. Zakres obowiązków: Drive the ingestion of data source and ensure they are delivered on time and according to business use cases requirements. Manage a portfolio of several ingestion projects Drive data classification activities and ensure it is performed Document, structure, then perform data lineage activities Ensure the data flows are maintained and production SLA respected (including directly managing incident in case of major issues) Manage risks and report on progress. Provide clear sharp reporting to DPAO, DPM and Data Platform Management. Escalating when required Be a major contributor to industrialization, standardization and automation of your activities (building the Data Enable Factory) Build a strong partnership (Business, Data science, analytics, etc.) in your business domains for activities related to data ingestion, classification and lineage. Be a leader to team members. Aligning business priorities with their motivations and empowering them towards autonomy Support other teams using our tools and processes Oferujemy: • Life insurance • Private healthcare • MultiSport Card • Clear career path in a growing multinational organization
Fullstack Senior Data Scientist
Lingaro
⚲ Warszawa, Mokotów
Wymagania
- Python
- LangChain
- LlamaIndex
- LangGraph
- Microsoft Azure
- AWS
- Google Cloud Platform
- GitHub Actions
- GitLab
- Azure DevOps
- Spark
- Databricks
- Docker
- Kubernetes
Nasze wymagania: 6+ years of experience in Data Science/AI engineering At least 4+ years of experience in production-ready Python AI-related code development. At least 2+ years of experience in production-ready LLM-related code development, preferably based on the Retrieval-Augmented Generation (RAG) concept. Strong analytical and problem-solving skills with the ability to optimize AI solutions for diverse applications. Strong knowledge and experience in Generative AI, including LLMs, chatbots, AI agents, and RAG mechanisms. Deep understanding of LLM evaluators, validators, and guardrails. Hands-on experience with one or more GenAI frameworks: LangChain, LlamaIndex, LangGraph, or similar orchestration stacks. Hands-on experience designing or operating MCP servers/clients for LLM agents Strong Python skills, including production-grade code, packaging, and testing for data/ML services Solid understanding of ML/AI concepts: types of algorithms, machine learning frameworks, model efficiency metrics, model lifecycle, AI architectures. Proven ability to collaborate effectively across technical and non-technical teams. Familiarity with cloud environments such as Azure (preferred), GCP, or AWS, including AI-related managed services. Familiarity with CI/CD, testing, and containerized deployments. Excellent communication skills in English, with the ability to convey complex technical concepts to various audiences. Mile widziane: Experience in designing and programming ML algorithms and data processing pipelines using Python. Good understanding of CI/CD and DevOps concepts, with experience working with selected tools (preferably GitHub Actions, GitLab, or Azure DevOps). Experience in productizing ML solutions using technologies like Spark/Databricks or Docker/Kubernetes. Experience with agentic AI development frameworks (e.g., BMAD, multi-agent orchestration, spec-driven AI workflows). O projekcie: We are looking for a skilled and experienced Fullstack Data Scientist with solid expertise in Generative AI (GenAI) to lead projects focused on building and implementing advanced systems based on Large Language Models (LLMs), chatbots, AI agents, and Retrieval-Augmented Generation (RAG) mechanisms. As a Senior Data Scientist, you will be responsible for designing, implementing, and optimizing GenAI solutions, as well as mentoring teams. Your knowledge and experience will be crucial in making architectural decisions, selecting technologies, and implementing best practices in AI-driven development. Zakres obowiązków: Lead discovery and solution design for GenAI use cases, translating business problems into concrete architectures (LLM decision, RAGs, fine-tuning, agents, guardrails). Build end-to-end GenAI applications: data ingestion, retrieval layer, orchestration (e.g. LangChain/LlamaIndex/LangGraph), API/backend, and simple UI where needed. Design and implement RAG pipelines with vector databases, hybrid search, rerankers, query transformation, and evaluation frameworks for relevance and robustness. Perform model selection, prompting strategies, and fine-tuning (LoRA/QLoRA/SFT) for text, code, and multimodal models, including evaluation and A/B testing. Implement safety, compliance, and governance controls (input/output filters, PII handling, audit logs, human-in-the-loop review where required). Collaborate with data engineers, product owners, and full-stack developers on scalable architectures, SLAs, and integration with existing enterprise systems Gather technical requirements and estimate planned work. Mentor other data scientists/engineers in GenAI patterns, code quality, and best practices; contribute to internal libraries, templates, and reusable components. Stay current with GenAI landscape (new open and hosted models, agentic frameworks, evaluation techniques) and perform targeted PoCs to validate them. Oferujemy: Stable employment. On the market since 2008, 1500+ talents currently on board in 7 global sites. “Office as an option” model. You can choose to work remotely or in the office. Workation. Enjoy working from inspiring locations in line with our workation policy. Great Place to Work® certified employer. Flexibility regarding working hours and your preferred form of contract. Comprehensive online onboarding program with a “Buddy” from day 1. Cooperation with top-tier engineers and experts. Unlimited access to the Udemy learning platform from day 1. Certificate training programs. Lingarians earn 500+ technology certificates yearly. Upskilling support. Capability development programs, Competency Centers, knowledge sharing sessions, community webinars, 110+ training opportunities yearly. Grow as we grow as a company. 76% of our managers are internal promotions. A diverse, inclusive, and values-driven community. Autonomy to choose the way you work. We trust your ideas. Create our community together. Refer your friends to receive bonuses. Activities to support your well-being and health. Plenty of opportunities to donate to charities and support the environment. Modern office equipment. Purchased for you or available to borrow, depending on your location.
Expert Data Engineer
B2B.NET S.A.
⚲ Gdańsk, Gdynia, Łódź, Warszawa
120–150 zł netto (+ VAT) / godz.
Wymagania
- SQL
- Python
- Scala
- Hive
- Oozie
- Spark
- Big Data
- ETL
Nasze wymagania: Big Data ETL Data Testing SQL Hadoop stack: YARN, EMR, Sqoop, Hive, Oozie Hive, Oozie Python Scala Spark and Spark SQL Zakres obowiązków: Building distributed and highly parallelized Big data processing pipeline which process massive amount of data (both structured and unstructured data) in near real-time Leveraging Spark to enrich and transform corporate data to enable searching, data visualization, and advanced analytics Working closely with analysts and business stakeholders to develop analytics models Continuous delivering on Hadoop and other Big Data Platforms Automating processes where possible and are repeatable and reliable Working closely with QA team
ETL Developer (Informatica PowerCenter)
GOLDENORE ITC sp. z o.o.
⚲ Warszawa
Wymagania
- Oracle
- RDBMS
- SQL
- SVN
- GitHub
- Jira
- Confluence
Nasze wymagania: Dobra znajomość Informatica PowerCenter w zakresie budowy procesów ETL Dobra znajomość Oracle (RDBMS) w zakresie projektowania baz danych Bardzo dobra znajomość SQL oraz znajomość PL/SQL Znajomość zagadnień inżynierii systemów informatycznych oraz metodyk wytwarzania oprogramowania Minimum 6 miesięcy doświadczenia w projektowaniu i implementacji procesów ETL w Informatica PowerCenter Minimum 1 rok doświadczenia w pracy z bazami danych Oracle Doświadczenie w projektowaniu i rozwijaniu hurtowni danych lub systemów informacyjnych Znajomość języka angielskiego umożliwiająca pracę z dokumentacją techniczną Mile widziane: Doświadczenie w obszarze Big Data Znajomość zagadnień Business Intelligence (BI) Doświadczenie w pracy w metodykach Agile (Scrum, Kanban) Znajomość narzędzi SQL Developer, SVN, GitHub, Jira, Confluence O projekcie: Dla naszego klienta z branży finansowej poszukujemy osoby, która wesprze rozwój hurtowni danych oraz środowisk raportowo-analitycznych. Jeśli masz doświadczenie w projektowaniu procesów ETL oraz pracy z bazami danych Oracle – ta rola może być dla Ciebie. Praca odbywa się w modelu hybrydowym – ok. 2 dni w miesiącu w biurze w Warszawie. Zakres obowiązków: Realizacja prac projektowych i implementacyjnych związanych z rozwojem hurtowni danych oraz systemów informacyjnych Projektowanie algorytmów oraz implementacja procesów ETL Udział we wdrożeniach i rozwoju platformy Informatica PowerCenter Projektowanie baz danych oraz martów raportowo-analitycznych Rozwój środowisk Business Intelligence (BI) Testowanie rozwiązań informatycznych oraz kontrola jakości wykonanych prac Tworzenie specyfikacji technicznej oraz dokumentacji projektowej Przygotowywanie pakietów instalacyjnych oprogramowania Udział w procesach odbioru oprogramowania oraz przekazywania systemów do eksploatacji
Digital Manufacturing Process & Data Science Engineer - Fabryka Kuchenek (k/m)
BSH SPRZĘT GOSPODARSTWA DOMOWEGO sp. z o.o.
⚲ Wrocław, Psie Pole
Nasze wymagania: Wykształcenie techniczne (informatyka przemysłowa, automatyka, mechatronika, elektrotechnika lub pokrewne) oraz minimum 3 lata doświadczenia w projektach cyfryzacyjnych w środowisku produkcyjnym Umiejętność pracy z danymi: Python i SQL i doświadczenie z narzędziami wizualizacyjnymi (Grafana/Power BI) Praktyczna znajomość systemów ERP (SAP) i protokołów przemysłowych (OPC UA, PROFINET) Podstawowa znajomość sieci komputerowych i IoT Dobre umiejętności komunikacyjne (tłumaczenie techniki na język biznesu), umiejętność pracy międzydziałowej i gotowość do pracy on‑site w środowisku produkcyjnym Umiejętność zarządzania projektami i znajomość języka angielskiego na poziomie min. B2 Zakres obowiązków: Definiowanie strategii transformacji cyfrowej dla fabryki (na podstawie wytycznych korporacyjnych) i koordynacja jej wdrażania Prowadzenie projektów cyfryzacji (scoping, pilotaż, roll‑out) Zbieranie, przetwarzanie i wizualizacja danych produkcyjnych (ETL, SQL, Python, Grafana/Power BI). Integracja systemów OT (PLC/HMI/SCADA) z MES/chmurą (OPC UA, MQTT, REST) Projektowanie i wdrażanie rozwiązań IoT (sensoryka, edge, bramki, chmura) Tworzenie modeli do analizy danych produkcyjnych z wykorzystaniem korporacyjnych rozwiązań uczenia maszynowego (predykcja awarii, optymalizacja procesów) Oferujemy: Work-life integration: oferujemy wspierające i elastyczne środowisko pracy, które ułatwia realizację obowiązków i sprzyja wspólnemu wypracowywaniu rozwiązań Możliwość uczestnictwa w tworzeniu Inteligentnej Fabryki opartej na robotyzacji i innowacyjnych rozwiązaniach Przemysłu 4.0 Pakiet benefitów: dofinansowanie posiłków 450 zł netto/miesięcznie oraz stołówka pracownicza, Zakładowy Fundusz Świadczeń Socjalnych, prywatna opieka medyczna Medicover, karta MultiSport, grupowe ubezpieczenie na życie, dofinansowanie nauki języków obcych, dostęp do platformy szkoleniowej System kafeteryjny i rabaty: system kafeteryjny, zniżki pracownicze na sprzęt AGD marek Bosch i Siemens oraz na zakupy w przyzakładowym sklepie z chemią gospodarczą Bardzo dobra lokalizacja, możliwość dojazdu komunikacją miejską (przystanek Wołowska oraz Kępińska), dostępny parking oraz miejsca postojowe dla rowerów
Dataflow Engineer
Mindbox Sp. z o.o.
⚲ Kraków
23 100 - 27 300 PLN (B2B)
Wymagania
- Python
- Java
- Google cloud platform
- ETL
- JSON
- SQL
- NoSQL
- Security
O projekcie: At Mindbox we connect top IT talents with technology projects for leading enterprises across Europe. Ready to Shape the Future of Data Engineering? Join Us as a Dataflow Engineer! We are looking for a skilled Dataflow Engineer to join our team and play a key role in designing, building, and maintaining robust data pipelines and workflows. In this role, you will collaborate closely with data architects, analysts, and engineers to ensure seamless data flow across systems and efficient processing at scale. Sounds like your kind of challenge? What you get in return - Flexible cooperation model – choose the form that suits you best(B2B, employment contract, etc.) - Hybrid work setup – remote days available depending on the client’s arrangements (2 days per week from Cracow office) - Collaborative team culture – work alongside experienced professionals eager to share knowledge - Continuous development – access to training platforms and growth opportunities - Comprehensive benefits – including Interpolska Health Care, Multisport card, Warta Insurance, and more - High quality equipment – laptop and essential software provided Design and Build Data Pipelines: Develop and implement efficient data - pipelines for collecting, transforming, and storing data across different platforms. Note: Detailed project information will be shared during the recruitment process. Wymagania: - Experience: 4+ years as a Dataflow Engineer, Data Engineer, or similar role working with large datasets and distributed systems. Technical Skills: - Proficiency in Python and Java. - Hands-on experience with Google Dataflow and orchestration tools. - Expertise in Google Cloud Platform (BigQuery, Dataflow). - Strong experience with ETL frameworks, real-time data streaming, and processing. - Familiarity with data formats like JSON, Parquet, etc. - Knowledge of SQL and NoSQL databases, data governance, quality, and security best practices. - Problem-Solving: Ability to troubleshoot complex data integration and processing issues. - Communication: Strong written and verbal communication skills for collaboration with technical and non-technical stakeholders. Joining this project you’ll become part of Mindbox – a tech-driven company where consulting, engineering, and talent meet to build meaningful digital solutions. We’ll back you up every step of the way, accelerate your development, and ensure your skills make a difference. Codzienne zadania: - Data Integration: Integrate data from various sources, including cloud platforms (Google Cloud), databases (SQL/NoSQL), APIs, and external services. - Optimize Data Flow: Troubleshoot and fine-tune existing pipelines for optimal performance. - Data Transformation: Implement ETL processes to transform raw data into usable formats for analytics and reporting. - Collaboration: Work with cross-functional teams to understand data needs and implement solutions; provide occasional support during weekends or non-office hours. - Automation & Scalability: Build scalable, automated workflows to handle large volumes of data with high reliability and low latency. - Monitoring & Maintenance: Set up monitoring and alerting systems for data pipelines to ensure minimal downtime and maximum performance. - Documentation: Document data flows, pipeline configurations, and processing logic for maintainability and transparency.
Databricks Data Engineer (m/k/n)
UPVANTA SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Wrocław, Fabryczna
22 000–24 000 zł netto (+ VAT) / mies.
Wymagania
- SQL
- PySpark
- Python
- Azure
- AWS
- Google Cloud Platform
Nasze wymagania: Minimum 5 lat doświadczenia w obszarze Data Engineering Minimum 2 lata doświadczenia w pracy z Databricks Bardzo dobra znajomość: SQL, PySpark, Python Doświadczenie w obszarze hurtowni danych, ETL, przetwarzania rozproszonego oraz modelowania danych Znajomość koncepcji: Data Marts, Data Warehouses, Data Lakes, Data Mesh Doświadczenie w pracy z co najmniej jedną chmurą publiczną (Azure, AWS lub GCP) Znajomość technik projektowania relacyjnych baz danych oraz nierelacyjnych systemów przechowywania danych Doświadczenie w pracy z danymi o różnej strukturze Umiejętność analitycznego rozwiązywania problemów w środowisku Big Data Bardzo dobra znajomość języka angielskiego (w mowie i piśmie) Doświadczenie w pracy w metodykach Agile (Scrum, Kanban) oraz znajomość zasad DevOps i CI/CD O projekcie: Do naszego zespołu poszukujemy doświadczonego Databricks Data Engineera, który będzie odpowiedzialny za projektowanie, budowę oraz rozwój nowoczesnych rozwiązań data engineeringowych w środowisku Big Data i chmurze publicznej. Zakres obowiązków: Projektowanie i rozwój rozwiązań opartych o Databricks Budowa i optymalizacja procesów ETL/ELT Tworzenie oraz rozwój hurtowni danych, Data Martów i Data Lake Modelowanie danych oraz projektowanie architektury przetwarzania danych Praca z danymi ustrukturyzowanymi, pół-ustrukturyzowanymi i nieustrukturyzowanymi Optymalizacja zapytań i procesów przetwarzania w środowiskach rozproszonych Współpraca z zespołami analitycznymi, BI oraz biznesem Praca w środowisku Agile z wykorzystaniem dobrych praktyk DevOps i CI/CD
Data Steward / Analityk / Analityczka Jakości Danych Klienta Korporacyjnego
Bank Pekao
⚲ Warszawa, Wola
Wymagania
- UML
- BPMN
- SQL
- T-SQL
- R
- Python
- Enterprise Architect
- Adonis
Nasze wymagania: Posiadasz wykształcenie wyższe techniczne (np. informatyczne, matematyczne, fizyczne). Znasz notacje UML, BPMN oraz pakiet MS Office. Bardzo dobrze znasz SQL/T‑SQL, narzędzia analityczne, R/Python i Power BI. Posługujesz się narzędziami do modelowania procesów (Enterprise Architect, Adonis). Posiadasz doświadczenie w analizie i zarządzaniu danymi, szczególnie w obszarze jakości danych. Znasz logikę hurtowni danych oraz koncepcje data lake/data lakehouse. Masz rozwinięte umiejętności modelowania danych oraz tworzenia raportów. Łatwo pracujesz z dużymi zbiorami danych i wyciągasz wnioski z analiz. Potrafisz prezentować wyniki swojej pracy w przystępny sposób oraz jasno komunikować się w zespole oraz z pozostałymi interesariuszami Cechuje Cię skrupulatność, dokładność, terminowość oraz umiejętność pracy pod presją czasu. Posiadasz rozwinięte kompetencje interpersonalne, samodzielność i odpowiedzialność. Dobrze odnajdujesz się w pracy nad kilkoma tematami jednocześnie oraz w pracy zespołowej. Posługujesz się językiem angielskim na poziomie min. B2. Znajomość bankowości korporacyjnej jest dodatkowym atutem. O projekcie: Jeśli ważne jest dla Ciebie realne porządkowanie i podnoszenie jakości danych - ta rola daje bezpośredni wpływ na to, jak wygląda i działa obszar danych klienta korporacyjnego w Banku. Na stanowisku Stewarda Danych realizowane są zadania związane z zarządzaniem danymi i ich jakością – od monitoringu kompletności i spójności, przez analizę i identyfikację ryzyk, po współpracę z biznesem i IT. W codziennej pracy wykorzystywana jest analityka danych, optymalizacja zapytań i integracja danych z różnych źródeł, a także wsparcie budowy data mart oraz raportowania. Zakres obowiązków: Wsparcie Właściciela Danych w obszarze bankowości korporacyjnej oraz realizacja zadań związanych z zarządzaniem danymi i monitorowaniem ich jakości. Dbanie o kompletność, poprawność, spójność i aktualność danych klienta/podmiotu korporacyjnego. Udział w projektach dotyczących zarządzania danymi, w tym inicjatywach data‑driven. Identyfikacja ryzyk dotyczących danych oraz analiza procesów i przepływów danych w organizacji. Współpraca z jednostkami biznesowymi, IT i obszarami wsparcia. Analizę danych klienta korporacyjnego, zapewnienie jakości danych oraz spójności między systemami. Optymalizacja zapytań do baz danych i integracja danych z różnych źródeł. Wsparcie przy budowie data mart oraz przygotowywaniu zestawień i raportów. Uporządkowanie danych klientowskich, produktowych i transakcyjnych w obszarze bankowości korporacyjnej jako Steward Danych. Oferujemy: Zatrudnienie w ramach umowy o pracę oraz premię uzależnioną od wyników i zaangażowania. Prywatną opiekę medyczną dla Ciebie i Twojej rodziny na preferencyjnych warunkach. Kartę MultiSport i Ubezpieczenie Grupowe na korzystnych warunkach. System szkoleń i programów rozwojowych (w tym: wsparcie w rozwoju i poznawanie nowych narzędzi pracy). Pracę w strategicznej jednostce w Pionie Bankowości Korporacyjnej. Udział w unikalnym projekcie transformacyjnym z zakresu data driven. Dużą samodzielność stanowiska pracy oraz możliwość kreacji nowych rozwiązań.
Data Steward
Devire
⚲ Warszawa
11 760 - 14 280 PLN (B2B)
Wymagania
- SAP Material Master
- PIR
- SL
- SAP MM
- MM01
- MM02
- Qa08
- MEK1
- ME11
- ME01
- ME02
- MM17
- Tcodes
- MS Office Suite
O projekcie: Devire IT Outsourcing is a form of cooperation dedicated to IT professionals, based on the principles of own business - B2B, implementing projects for clients running innovative and modern projects. With our client who is a global leader in the ophthalmology industry, producing medical devices, contact lenses, lens care solutions, and advanced surgical equipment we are looking for a Data Steward. Salary: 70-85 zł/h netto + vat - Employment for 10–12 months. - Benefits package (medical healthcare, sports membership, etc.). - Salary up to 85 PLN net+VAT/h; B2B via Devire (alternatively, a contract of mandate) - Hybrid work - 2 or 3 days from office. - International environment, English as a working language. - Collaboration with global teams. Wymagania: - Proficient in SAP Material Master, PIR , SL ( SAP MM experience 3-5 years preferred). - Proficiency with transactions such as MM01/MM02/Qa08/MEK1,ME11,ME01/ME02, MM17 etc material master data related Tcodes. - Proficient in Microsoft Office suite. - Experience working within matrix structure within international fast paced environment. - Hands on attitude, ability to operate without minimal supervision and across different geographical & cultural backgrounds. - Fluent English. Codzienne zadania: - Create and maintain local material master records and perform ongoing maintenance of local data for global materials. - Provide guidance to commercial functional teams regarding the procedural and systematic tasks required for material master management in IRIS. - Analyze business problems and operational data from one or more sources to formulate solutions of moderate to significant complexity. - Ensure that the Alcon business rules defined in the GDM Data Dictionary are applied in the data maintenance. - Analyze and complete new material master setup and change requests in Alcon ERP system, support day-to-day business operations - Work closely with other business teams like Supply Chain, Finance, Quality, and Sales, to address and resolve master data issues in a timely manner - Query disparate databases to analyze large amounts of data to support Corporate Alcon ERP data validation activities - Participate in data governance and data quality/cleansing activities to ensure data accuracy and completeness - Coordinate data setup activities like costing, pricing, material data extension approvals as needed in the process of activating new materials for the commercial affiliates. - Collect and store evidence of each change events related to financially-controlled material master attributes and perform monthly financial control audits utilizing standard guidelines. - Serve as primary contact within regional business contacted immediately when business disruption occurs related to materials (transactional, logistical) - Understands local and regional SCM structure to perform appropriate extensions and setups to support local supply chain activities & gain approvals in timely manner. - Supports the maintenance of local affiliate settings requiring close/quick coordination with affiliate warehouses, customer service, planners and marketing Works directly with Global Data Management team to represent EMEA as changes to Global material settings are proposed (UOM, GTIN, Descriptions, etc.)
Data Scientist | Branża Ubezpieczeniowa
Edge One Solutions Sp. z o.o.
⚲ Warszawa
Wymagania
- Python
- Pandas
- SQL
- matplotlib
- seaborn
- ggplot2
- Emblem
- Radar
- SAS
- Git
- AWS
- Microsoft Azure
Nasze wymagania: Bardzo dobra znajomość Python (analiza danych, modelowanie) Dobra znajomość metod uczenia maszynowego, analityki predykcyjnej oraz wnioskowania statystycznego Doświadczenie w pracy z narzędziami do przetwarzania danych (pandas, SQL) oraz wizualizacji (matplotlib, seaborn, ggplot2) Doświadczenie w pracy z repozytorium kodu Silne umiejętności analityczne i problem solving Umiejętność pracy w interdyscyplinarnym środowisku Mile widziane: Znajomość narzędzi pricingowych WTW (Emblem, Radar) Doświadczenie w branży ubezpieczeniowej Znajomość SAS Znajomość systemów kontroli wersji (Git) Doświadczenie z chmurą (AWS, Azure) O projekcie: Nasz klient to lider rynku ubezpieczeniowego, ale również organizacja inwestująca w transformację cyfrową, rozwój analityki danych i AI. Pracując w tym środowisku, zyskasz możliwość: pracy nad realnymi wyzwaniami biznesowymi w skali milionów klientów, dostępu do nowoczesnych narzędzi i dużych zbiorów danych, współpracy z doświadczonymi ekspertami z obszaru data science, aktuariatu i IT, realnego wpływu na procesy decyzyjne. Opis roli Dla naszego klienta z branży ubezpieczeniowej poszukujemy Data Scientista, który wesprze obszar aktuarialny poprzez rozwój modeli statystycznych i rozwiązań machine learningowych. Tryb pracy Praca hybrydowa (3 dni w tygodniu praca z biura w Warszawie, 2 dni w tygodniu praca zdalna). Zakres obowiązków: Opracowywanie, wdrażanie i utrzymywanie modeli statystycznych oraz modeli uczenia maszynowego wspierających funkcje aktuarialne Analiza dużych i złożonych zbiorów danych w celu generowania praktycznych wniosków biznesowych Prowadzenie eksploracyjnej analizy danych (EDA) oraz feature engineering w celu poprawy jakości i interpretowalności modeli Automatyzacja i optymalizacja procesów aktuarialnych z wykorzystaniem nowoczesnych narzędzi data science Ścisła współpraca z aktuariuszami, underwriterami i zespołami likwidacji szkód Przygotowywanie prezentacji wyników i rekomendacji dla odbiorców technicznych i biznesowych Oferujemy: Zyskujesz indywidualne wsparcie Service Delivery Managera, który pomoże Ci zaplanować ścieżkę kariery i zadba o Twój komfort i satysfakcję z pracy w projekcie Szkolenia, certyfikaty i konferencje - dofinansowujemy lub w pełni pokrywamy koszty rozwoju kompetencji technicznych SmartChange – umożliwiamy zmianę projektu i dobieramy kolejny zgodnie z Twoimi preferencjami Dbamy o Twój work-life balance, dlatego poza pracą oferujemy wyjścia integracyjne, aktywności sportowe i inspirujące webinary #edge1talks, które rozwijają i łączą ludzi Aktywność fizyczna – wspieramy sportowe inicjatywy i wynajem sal treningowych Pakiet zdrowotny – prywatna opieka, karta sportowa, ubezpieczenie i wsparcie psychologiczne (HearMe) Elastyczne benefity – sam decydujesz, na co przeznaczasz punkty w naszym systemie benefitowym Bezpłatne lekcje języka angielskiego – dopasowane do Twojego poziomu, idealne do pracy w międzynarodowym środowisku
Data Scientist / ML Engineer
Addepto
⚲ Białystok, Gdańsk, Katowice, Kraków, Grzegórzki, Poznań, Warszawa, Śródmieście, Wrocław, Stare Miasto
12 600–19 320 zł / mies. (zal. od umowy)
Wymagania
- Python
- AWS
- SQL
- Kubernetes
- Docker
- AI
- ML
- Pytorch
- TensorFlow
- React.js
- Node.js
- JavaScript
- TypeScript
- Fullstack
Nasze wymagania: Proven commercial experience (+3 years) designing and implementing scalable AI solutions (Machine Learning, Predictive Modeling, Optimization, LLM, NLP, Computer Vision, GenAI). Proficiency in developing ML algorithms from scratch to production deployment. Strong programming skills in Python: writing clean code, OOP design, extensive knowledge of ML libraries (Scikit-Learn, PyTorch / Tensorflow). Proven expertise in deploying solutions in cloud environments (AWS or Azure). Knowledge in applying LLMs (semantic search, prompt engineering, multimodal embeddings, RAG). High proficiency in English (C1 level). Excellent communication skills and consulting experience with direct interaction with clients. Working experience in SQL and NoSQL databases (MongoDB, Snowflake, Databricks). Good knowledge of CI/CD principles (GitHub and GitHub Actions). Familiarity with MLOps practices, Kubernetes and Docker. Bachelor’s or Master’s degree in Computer Science, Data Science, Mathematics, Physics, or a related field. Mile widziane: Practical experience with frontend frameworks (e.g., React, Node.js, Nest.js, Typescript). O projekcie: As a Data Scientist / ML Engineer, you will have the exciting opportunity to work with a team of technology experts on challenging projects across various industries, leveraging cutting-edge technologies. Here are some of the projects we are seeking talented individuals to join: • AI optimization engine for airport operation management. This project involves creating an AI-driven optimization engine to streamline airport operations, using real-time data from sources like radar, air traffic, and passenger information. • AI recommendation engine for the leading innovation company. This project involves creation of AWS-powered solutions to provide domain-specific recommendations by employing sophisticated LLMs. Zakres obowiązków: Lead the development, implementation, and validation of Machine Learning solutions, ensuring alignment with project objectives. Lead the design of AI solution architectures that meet complex business goals and drive innovation. Research, test and select the best tools and technologies as well as AI solutions to meet the business requirements. Understand clients’ needs and translate business problems into data science problems. Architect and oversee the implementation of data pipelines and workflows, setting standards for data quality and security. Coordinate with Data Engineering and Software Engineering teams to strategize and oversee the building of AI applications. Present findings and recommendations clearly and concisely to stakeholders. Prioritize, and control tasks within an Agile/Scrum framework, ensuring timely delivery. Oferujemy: Work in a supportive team of passionate enthusiasts of AI & Big Data. Engage with top-tier global enterprises and cutting-edge startups on international projects. Enjoy flexible work arrangements, allowing you to work remotely or from modern offices and coworking spaces. Accelerate your professional growth through career paths, knowledge-sharing initiatives, language classes, and sponsored training or conferences, including a partnership with Databricks, which offers industry-leading training materials and certifications. Choose your preferred form of cooperation - B2B or a contract of mandate - and enjoy 20 fully paid days off. Participate in team-building events and utilize the integration budget. Celebrate work anniversaries, birthdays, and milestones. Access medical and sports packages, eye care, and well-being support services, including psychotherapy and coaching. Get full work equipment for optimal productivity, including a laptop and other necessary devices. With our backing, you can boost your personal brand by speaking at conferences, writing for our blog, or participating in meetups. Experience a smooth onboarding with a dedicated buddy, and start your journey in our friendly, supportive, and autonomous culture.
Data Scientist
CLOUDFIDE SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Warszawa, Praga-Południe
Wymagania
- Microsoft Azure
- Python
- SQL
- Databricks
- LangChain
- PostgreSQL
- Microsoft SQL Server
- Apache Spark
- Azure DevOps
Nasze wymagania: 3+ years of commercial experience as a Data Scientist. Strong proficiency in Python and hands-on experience with machine learning and deep learning frameworks. Solid understanding of neural network architectures and model training best practices. Practical experience with computer vision techniques - image classification, object detection, or image recognition. Familiarity with Azure ML, Databricks, or similar cloud-based ML platforms. Experience with LLMs, LangChain, or structured output techniques. Hands-on knowledge of OpenCV and image processing pipelines. Comfortable with Git and collaborative development workflows. Strong problem-solving skills with the ability to work independently on technically challenging tasks. Fluent English communication, able to collaborate effectively across international teams. Mile widziane: Hands-on experience with Databricks Asset Bundles and MLOps workflows. Experience delivering end-to-end computer vision or image recognition projects in a commercial setting. Familiarity with Azure DevOps or CI/CD practices for ML pipelines. Exposure to structured output engineering for production LLM applications. Knowledge of model monitoring, drift detection, or A/B testing in production environments. O projekcie: Why Join Us At Cloudfide, we engineer solutions where data truly becomes an accelerator for innovation. We build and evolve large-scale Big Data and cloud-native platforms for global clients, including leaders in retail and the Fortune 500. We process massive, complex datasets, operate fully in the cloud ecosystem, and work with the latest technologies, including AI, ML, MLOps, and modern data architectures. Our projects have measurable, real‑world impact - from enhancing customer experiences at scale to empowering data-driven decision-making in high‑visibility global organizations. As we continue to grow, you'll have the opportunity to shape solutions, mentor others, drive architecture decisions, and take ownership of strategic initiatives. Opportunity Overview As a Mid Data Scientist, you will design and deliver production-grade machine learning solutions in a cloud-native environment, working with cutting-edge technologies including Azure, Databricks, and Large Language Models. You'll tackle complex, real-world data problems for international clients - with a particular focus on computer vision and image recognition use cases. Expect hands-on work with neural networks, LLMs, and modern MLOps practices across high-visibility projects for Fortune 500 organizations. You'll join a team of passionate engineers and data scientists who value technical excellence, collaboration, and continuous growth. Zakres obowiązków: Designing, developing, and deploying production-grade machine learning and deep learning models using Python, Azure ML, and Databricks. Building and optimizing computer vision and image recognition solutions using OpenCV and related frameworks. Working with LLMs, structured outputs, and LangChain to develop intelligent, data-driven applications. Managing end-to-end ML workflows - from data preparation and model training to evaluation, deployment, and monitoring. Collaborating with data engineers, architects, and business stakeholders to translate complex requirements into scalable ML solutions. Managing code, experiments, and model versioning using Git and Databricks Asset Bundles. Contributing to MLOps practices - ensuring models are reproducible, maintainable, and production-ready. Staying up to date with emerging research and technologies in AI, ML, and computer vision. Oferujemy: Benefits: MyBenefit platform / Multisport Enel‑Med private medical care Professional Growth: Annual 2,000 PLN development budget Access to e‑learning platforms Real opportunities to expand responsibility and lead initiatives - most of our Leads come from internal promotions As the company continuously grows, you get real opportunities to expand your responsibilities, explore new areas, and even take ownership of your own initiatives. Work Environment: Long-term cooperation: UZ or B2B (we value stable, lasting relationships) Remote-first, work from anywhere in the world (workation) Flexible hours & strong focus on work-life balance Collaboration with top engineers you can truly learn from Flat structure - every voice counts, and you help shape the company Culture & Integration: Company-wide trips (including international ones) Team integration budgets Open communication and supportive, passionate teams
Data Scientist
Mindbox Sp. z o.o.
⚲ Kraków
22 000–25 000 zł netto (+ VAT) / mies.
Wymagania
- SQL
- Python
- Apache Spark
- AWS
- Microsoft Azure
- Google Cloud Platform
- TensorFlow
- PyTorch
- Keras
- Optuna
- Polars
Nasze wymagania: University degree in quantitative fields (econometrics, mathematics, computer science, quantitative methods) Minimum 3 years of experience as a Data Scientist in commercial projects Strong data processing skills (SQL, Python) Solid knowledge of ML algorithms and hands-on implementation in Python Very good command of Python (OOP, code optimization) Ability to communicate with business stakeholders and present results clearly Languages & tools: Python, Jupyter/Zeppelin, SQL, Spark (PySpark) Libraries: Pandas, Numpy, Scikit-learn, Scipy, XGBoost Mile widziane: Nice to have: TensorFlow, PyTorch, Keras, Optuna, Polars End-to-end project delivery experience: from concept to deployment Experience in NLP, LLM, or Generative AI projects Work with large-scale datasets (Apache Spark) Familiarity with cloud platforms (AWS, Azure, GCP) O projekcie: Do you want to work on end-to-end projects that truly impact business decisions? We’re looking for a Data Scientist who can turn data into real business value and implement innovative solutions. Zakres obowiązków: Design and implement machine learning models (predictive, classification, segmentation, recommendation, optimization, NLP). Perform data analysis, exploration, and prepare datasets for modeling. Prototype and test analytical approaches. Develop and deploy production-grade ML solutions. Collaborate with clients: requirements analysis, presenting concepts and results. Stay up to date with new technologies, libraries, and ML trends; propose innovative solutions Note: Detailed project information will be shared during the recruitment process. Oferujemy: Flexible cooperation model – choose the form that suits you best (B2B, employment contract, etc.) Hybrid work setup – 5 days per month in Kraków office Collaborative team culture – work alongside experienced professionals eager to share knowledge Continuous development – access to training platforms and growth opportunities Comprehensive benefits – including Interpolska Health Care, Multisport card, Warta Insurance, and more High quality equipment – laptop and essential software provided
Data QA Engineer
ITEAMLY SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Kraków
18 000–24 000 zł netto (+ VAT) / mies.
Wymagania
- Python
- SQL
- Snowflake
- GitHub
Nasze wymagania: 5+ years of experience in data engineering or backend data systems Strong proficiency in Python or a similar programming language Strong SQL skills, including complex joins and window functions Experience building or implementing automation testing frameworks Experience working with Snowflake or a similar data platform Experience working with AWS S3 or other cloud object storage Understanding of data warehousing and data modeling, including star and snowflake schemas Good knowledge of GitHub best practices Understanding of data security, access control, and governance O projekcie: We are looking for a Data QA Engineer who will be responsible for testing data pipelines and ensuring their quality, reliability, and accuracy. Zakres obowiązków: Design and maintain data tests and quality checks across the full pipeline Create and execute end to end testing strategies for data pipelines Implement monitoring, logging, and alerting for data workflows Define and track SLAs for data freshness, completeness, and accuracy Build scorecards and dashboards to monitor data quality Identify and resolve issues related to data quality, performance, and reliability Collaborate with analytics, data science, and platform engineering teams on scalable solutions Contribute to code reviews, engineering standards, and support junior team members Oferujemy: 100% remote work Long term, stable cooperation Opportunity to work on challenging production systems at meaningful scale Real impact on data quality, reliability, and engineering standards
Data Migration Engineer – doświadczenie w branży ubezpieczeniowej
Edge One Solutions Sp. z o.o.
⚲ Warszawa
Wymagania
- SQL
- Python
- Microsoft Azure
- AWS
- OVH
- Databricks
- Azure Data Factory
- Lakehouse
- Cloudera on-prem
Nasze wymagania: Min. 4 letnie doświadczenie w roli Data Engineer / Data Developer Bardzo dobra znajomość SQL oraz języka programowania Python Doświadczenie w pracy z hurtowniami danych / platformami danych Znajomość zagadnień ETL/ELT, modelowania danych Praktyczne doświadczenie w środowisku chmurowym (Azure / AWS / OVH) Doskonała znajomość środowiska Databricks w chmurze Azure Doskonała znajomość Azure Data Factory Umiejętność pracy zespołowej i komunikacji z biznesem inżynierskie podejście do jakości, wydajności i bezpieczeństwa danych Mile widziane: Znajomość architektury Lakehouse (architektura medalionowa) Doświadczenie z migracji ze środowiska on-premise do Databricks Znajomość środowiska Cloudera on-prem Doświadczenie w pracy w Agile / Scrum Podstawowa znajomość zagadnień Data Governance / Data Quality O projekcie: Nasz klient to firma z 200-letnią historią, a obecnie jedna z wiodących grup ubezpieczeniowych w Europie Środkowej i Wschodniej. W Austrii, gdzie ma swoje korzenie, uchodzi za jedną z najsilniejszych marek ubezpieczeniowych. W październiku 2020 r. stała się właścicielem spółek w Polsce, Czechach i Słowacji, umacniając swoją pozycję na rynku. Tryb pracy Praca hybrydowa z biura klienta w Warszawie (2 razy w miesiącu praca z biura) Zakres obowiązków: Projektowanie, budowa i utrzymanie pipeline’ów danych (ETL / ELT) Integracja danych z różnych źródeł (systemy transakcyjne, API, pliki, hurtownie) Rozwój i optymalizacja hurtowni danych / lakehouse/ data lake Dbanie o jakość, spójność i dostępność danych Współpraca z Tribem odpowiedzialnym za dane w organizacji Automatyzacja procesów przetwarzania danych Udział w projektowaniu architektury danych i standardów inżynierskich Oferujemy: Zyskujesz indywidualne wsparcie Service Delivery Managera, który pomoże Ci zaplanować ścieżkę kariery i zadba o Twój komfort i satysfakcję z pracy w projekcie Szkolenia, certyfikaty i konferencje - dofinansowujemy lub w pełni pokrywamy koszty rozwoju kompetencji technicznych SmartChange – umożliwiamy zmianę projektu i dobieramy kolejny zgodnie z Twoimi preferencjami Dbamy o Twój work-life balance, dlatego poza pracą oferujemy wyjścia integracyjne, aktywności sportowe i inspirujące webinary #edge1talks, które rozwijają i łączą ludzi Aktywność fizyczna – wspieramy sportowe inicjatywy i wynajem sal treningowych Pakiet zdrowotny – prywatna opieka, karta sportowa, ubezpieczenie i wsparcie psychologiczne (HearMe) Elastyczne benefity – sam decydujesz, na co przeznaczasz punkty w naszym systemie benefitowym Bezpłatne lekcje języka angielskiego – dopasowane do Twojego poziomu, idealne do pracy w międzynarodowym środowisku
Data Engineer – branża FMCG (f/m/x)
Sii Sp. z o.o.
⚲ Poznań, Wilda
Wymagania
- SQL
- Databricks
- Microsoft Azure
- Salesforce
Nasze wymagania: Minimum 3 lata doświadczenia komercyjnego na stanowisku Data Engineer lub podobnym Bardzo dobra znajomość SQL oraz transformacji danych Doświadczenie w pracy z platformami danych opartymi o Azure Praktyczna znajomość Databricks lub podobnych platform przetwarzania danych Doświadczenie w budowie pipeline’ów danych oraz integracji systemów Znajomość języka angielskiego umożliwiająca swobodną komunikację w międzynarodowym środowisku Wymagane przebywanie na terenie Polski oraz płynna znajomość języka polskiego Mile widziane: Doświadczenie w integracji systemów takich jak Salesforce, SAP lub Marketo Wcześniejsza praca w modelu utrzymaniowo-rozwojowym (obsługa ticketów i requestów) O projekcie: Dla klienta z branży FMCG budujemy zespół pełniący rolę centralnego punktu kontaktu dla inicjatyw związanych z danymi, którego celem jest rozwój obszaru integracji danych oraz analityki. Poszukujemy osób na stanowisko Data Engineer, które będą odpowiadać za budowę i rozwój pipeline’ów danych oraz integracji w środowisku Databricks, głównie w oparciu o dane sprzedażowe i marketingowe pochodzące z wielu systemów biznesowych. Rola łączy pracę projektową z obsługą bieżących zgłoszeń i utrzymaniem platformy danych, wspierając stabilność i ciągłość działania procesów biznesowych. Dołączając do tego projektu, staniesz się również częścią Centrum Kompetencji Data & Analytics – wyspecjalizowanej jednostki skupiającej ekspertów w obszarze inżynierii danych, przetwarzania i analityki danych oraz technologii chmurowych. Zakres obowiązków: Projektowanie, budowa i utrzymanie pipeline’ów danych oraz integracji w Databricks Tworzenie skalowalnych procesów przetwarzania danych w środowisku Azure Integracja danych z różnych systemów biznesowych i źródeł danych Zapewnienie wysokiej jakości danych oraz zgodności z zasadami data governance Obsługa bieżących zgłoszeń oraz wsparcie operacyjne dla platformy danych Współpraca z zespołami lokalnymi i globalnymi w celu umożliwienia efektywnego wykorzystania danych Udział w budowie centralnej architektury integracji danych dla Europy Oferujemy: Tytuł Great Place to Work od 2015 roku - to dzięki opiniom pracowników otrzymujemy tytuł i wdrażamy nowe pomysły Stabilność zatrudnienia – 2,1 MLD PLN przychodu, brak długów, od 2006 roku na rynku Dzielimy się zyskiem z pracownikami - od 2022 roku przeznaczyliśmy na ten cel już ponad 76 milionów PLN Bogaty pakiet benefitów - prywatna opieka zdrowotna, platforma kafeteryjna, zniżki na samochody i więcej Komfortowe miejsce pracy - pracuj w naszych biurach klasy A lub zdalnie Dziesiątki fascynujących projektów dla prestiżowych marek z całego świata – możesz je zmieniać dzięki aplikacji Job Changer 1 000 000 PLN rocznie na Twoje pomysły - taką kwotą wspieramy pasje i akcje wolontariackie naszych pracowników Stawiamy na Twój rozwój - meetupy, webinary, platforma szkoleniowa i blog technologiczny – Ty wybierasz Fantastyczna atmosfera stworzona przez wszystkich Sii Power People
Data Engineer – Data Lake (f/m/x)
Sii Sp. z o.o.
⚲ Białystok, Centrum, Bydgoszcz, Gdańsk, Oliwa, Katowice, Kraków, Podgórze, Lublin, Łódź, Śródmieście, Piła, Poznań, Wilda, Rzeszów, Szczecin, Toruń, Warszawa, Mokotów, Wrocław, Fabryczna
Wymagania
- Apache Spark
- Python
- ETL/ELT
- AWS
- Docker
- Kubernetes
- Kafka
Nasze wymagania: Strong experience in Data Engineering or Big Data-related roles Proficiency in Python, Scala, or Java Hands-on experience with tools such as Apache Spark, PySpark, or similar frameworks Previous work with Data Lake technologies (e.g., AWS S3, Azure Data Lake, Databricks, BigQuery) Knowledge of ETL/ELT processes and orchestration tools (e.g., Airflow, Data Factory) Good understanding of SQL and data modeling Experience with distributed systems and large-scale data processing Familiarity with Docker and Kubernetes Strong analytical and problem-solving skills Fluent in Polish required Residing in Poland required Mile widziane: Experience with streaming technologies (e.g., Kafka) Knowledge of data governance tools Familiarity with CI/CD processes in data projects O projekcie: You will join an international project within the healthcare and life sciences industry, focused on building and evolving a modern Data Lake platform supporting large-scale data processing and analytics. The solution enables data-driven decision-making in a highly regulated environment, with a strong emphasis on data quality, security, and compliance. The environment is cloud-based and leverages modern big data technologies and best engineering practices. As a Data Engineer, you will be responsible for designing, developing, and maintaining data pipelines and Data Lake architecture. You will work closely with cross-functional teams, including data scientists and business stakeholders, to deliver reliable and efficient data solutions. Zakres obowiązków: Designing and developing scalable data pipelines for batch and real-time data processing Building and optimizing Data Lake architecture for analytical use cases Integrating multiple data sources and ensuring seamless data flow across systems Ensuring data quality, consistency, and governance (data lineage, access control) Optimizing storage and processing performance using modern data formats and partitioning strategies Monitoring, troubleshooting, and improving data pipeline performance Collaborating with stakeholders to translate business needs into technical solutions Following best practices in data engineering and continuously improving the platform Oferujemy: Great Place to Work since 2015 - it’s thanks to feedback from our workers that we get this special title and constantly implement new ideas Employment stability - revenue of PLN 2.1BN, no debts, since 2006 on the market We share the profit with Workers - over PLN 76M has already been allocated for this aim since 2022 Attractive benefits package - private healthcare, benefits cafeteria platform, car discounts and more Comfortable workplace – class A offices or remote work Dozens of fascinating projects for prestigious brands from all over the world – you can change them thanks to Job Changer application PLN 1 000 000 per year for your ideas - with this amount, we support the passions and voluntary actions of our workers Investment in your growth – meetups, webinars, training platform and technology blog – you choose Fantastic atmosphere created by all Sii Power People
Data Engineer Middle
Scalo
⚲ Warszawa
20 160 - 22 680 PLN (B2B)
Wymagania
- GCP
- ETL
- Apache Airflow
- BigQuery
- Cloud
- Kafka
- PUB
- Informatica
- Oracle
- PostgreSQL
- REST API
- Python
- PySpark
- Rust
- Java
- Groovy (nice to have)
- Git (nice to have)
- Grafana (nice to have)
- JMeter (nice to have)
O projekcie: Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! W Scalo czeka na Ciebie - praca w modelu hybrydowym: 1 dzień w tygodniu w biurze w Warszawie, - stawka do 135 PLN/h w oparciu o współpracę B2B. Co dla Ciebie mamy? - Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt - Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych - Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób - Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort - Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci - Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Brzmi interesująco? Aplikuj – czekamy na Twoje CV! Wymagania: Ta oferta jest dla Ciebie, jeśli: - masz co najmniej 4 lata doświadczenia jako Data Engineer GCP w obszarze procesów integracji danych, - znasz dobrze narzędzia ETL na GCP (Apache AirFlow, DataFlow, DataProc), - biegle posługujesz się bazami danych GCP (BigQuery, BigTable, Scylla Cloud) i potrafisz je projektować oraz optymalizować, - potrafisz pracować z kolejkami danych: Kafka, GCP Pub/Sub, - masz co najmniej 3 lata doświadczenia jako Developer ETL w środowiskach on‑prem, - biegle korzystasz z narzędzi ETL on‑prem: Informatica Power Center i NIFI, - masz ekspercką znajomość baz Oracle, PostgreSQL oraz ScyllaDB, - bardzo dobrze znasz narzędzie harmonogramujące Automate Now, - potrafisz wystawiać usługi REST API, - masz co najmniej 4 lata doświadczenia jako programista Python (data integration & analysis) oraz PySpark, - dobrze znasz język Rust w kontekście tworzenia narzędzi do wydajnego ładowania danych, - potrafisz przejąć odpowiedzialność za obszary wymagające wysokiej dostępności i wydajności, - masz podstawową wiedzę w zakresie programowania mikroserwisów w Javie, - mile widziana jest znajomość Groovy, - dobrze czujesz się w systemach Linux na poziomie zaawansowanego użytkownika, - masz doświadczenie w pracy z dużymi wolumenami danych (~100 TB), - posiadasz rozwinięte umiejętności analityczne i szybko przyswajasz wiedzę, - działasz samodzielnie, kreatywnie i terminowo, - mile widziana jest znajomość GIT, Grafany i Apache JMeter. Codzienne zadania: - udział w projekcie z obszaru integracji oraz przetwarzania danych w środowiskach chmurowych i on‑prem, - realizacja zadań związanych z budową i rozwojem procesów integracyjnych w GCP oraz on‑prem, - praca z narzędziami ETL w środowisku GCP: Apache AirFlow, DataFlow, DataProc, - wykorzystanie baz danych GCP: BigQuery, BigTable oraz Scylla Cloud, - praca z kolejkami danych: Kafka, GCP Pub/Sub, - projektowanie, budowa i tuning baz danych w środowiskach on‑prem (Oracle, PostgreSQL, ScyllaDB), - korzystanie z narzędzi ETL na on‑prem na poziomie zaawansowanym: Informatica Power Center, NIFI, - praca z narzędziem harmonogramującym Automate Now (Infinity Data), - tworzenie i wystawianie usług REST API, - rozwój narzędzi i frameworków w Pythonie oraz PySpark, - tworzenie narzędzi wspomagających wydajne ładowanie danych w języku Rust, - odpowiedzialność za obszar wystawiania danych pod usługi działające w wysokim reżimie wydajnościowym (24h), - praca w środowisku dużych wolumenów danych (~100 TB),
Data Engineer (with Snowflake/Databricks)
Sollers Consulting
⚲ Białystok, Gdańsk, Kraków, Lublin, Łódź, Poznań, Szczecin, Warszawa, Wrocław
Wymagania
- Azure
- AWS
- SQL
- Python
Nasze wymagania: At least 3 years of experience in data engineering. Experience with ETL/ELT processes and building data processing pipelines. Experience working with various data sources (RDBMS, CDC, APIs, data connectors, structured, semi-structured and unstructured files). Experience with various data transformation and processing tools (e.g. Apache Airflow, Apache Nifi, Kafka, Fivetran etc.) Knowledge of data modelling concepts. Proficiency in SQL and good knowledge of at least one programming language (Python, Java, Scala, R). Good command of English language, at least B2/C1 level. Effective communication skills and the ability to work well in a team. Availability to work full time. Ability to work in the European Union. Mile widziane: Previous working experience in Insurance industry. Practical experience with Snowflake or Databricks. Practical experience with DWH data modeling. Familiarity with one or more Cloud data stacks (AWS, Azure, GCP). Experience in pipeline orchestration tools (e.g. Airflow). Familiarity with containerization, CI/CD, version control. Fluency in French or German. O projekcie: Versatility is the keyword when it comes to what we do in IT. Data Competency is one of our initiatives to support digital transformation of financial sector, enabling our customers to become truly data-driven companies. Our mission is to ensure capabilities to address financial sector data-related needs. As a Data Engineer, you will be responsible for building and optimizing our clients’ data pipelines and data flows. You will work on various data initiatives and ensure optimal data delivery. You are the ideal candidate if you have experience in data warehousing and data wrangling. If you enjoy building data systems from scratch and modifying existing ones, you will have the opportunity to do so at Sollers. Zakres obowiązków: Build scalable data processing pipelines. Identify potential improvements and enhancements for current data processing solutions. Advise on the utilization of appropriate tools and technologies. Research new tools and solutions and advise on their use. Recommend potential enhancements to the existing data architecture. Monitor performance and optimize data processing flows. Collaborate with Business Analysts, Subject Matter Experts, and Tech Leads to ensure thorough consideration of business requirements in both the design and subsequent development phases. Address crucial aspects such as data privacy, security, regulatory compliance, data integrity, and availability. Work directly with our clients as an active member of an agile project team. Oferujemy: Flexible working hours and a hybrid home office model (2-3 times per week in the office) as work-life balance is crucial at Sollers. A chance to be promoted twice a year and a clearly defined career path with salary forecast. Opportunities for growth with a training budget that you can use for courses and conferences. We also provide access to an online training platform and co-fund language classes. An internal coach to guide you through the onboarding, further training and career opportunities, plus a budget to be used for your lunches together. A chance to #domore for the planet and the community as part of Sollers Change Makers – our volunteering program. Lots of teambuilding activities, trips, hobby groups and cultural events to create a company powered by teamwork. Probably all the benefits you can think of!
Data Engineer (Spark)
Addepto
⚲ Białystok, Gdańsk, Katowice, Kraków, Grzegórzki, Poznań, Warszawa, Śródmieście, Wrocław, Stare Miasto
15 120–21 000 zł netto (+ VAT) / mies.
Wymagania
- Python
- SQL
- Spark
- Airflow
- Cloudera
- Kubernetes
- Kafka
- NiFi
- Trino
- Hudi
- Java
- Scala
- Docker
- Databricks
- Iceberg
- AWS
Nasze wymagania: At least 3 years of commercial experience implementing, developing, or maintaining Big Data systems, data governance and data management processes. Strong programming skills in Python (or Java/Scala): writing a clean code, OOP design. Hands-on with Big Data technologies like Spark, Cloudera, Kafka, Data Platform, Airflow, NiFi, Docker, and Iceberg,. Excellent understanding of dimensional data and data modeling techniques. Experience implementing and deploying solutions in cloud environments. Consulting experience with excellent communication and client management skills, including prior experience directly interacting with clients as a consultant. Ability to work independently and take ownership of project deliverables. Fluent English (at least C1 level). Bachelor’s degree in technical or mathematical studies. Mile widziane: Experience with an MLOps framework such as Kubeflow or MLFlow. Familiarity with Databricks and/or dbt. O projekcie: As a Data Engineer, you will have the exciting opportunity to work with a team of technology experts on challenging projects across various industries, leveraging cutting-edge technologies. Here are some of the projects we are seeking talented individuals to join: • Development and maintenance of a large platform for processing automotive data. A significant amount of data is processed in both streaming and batch modes. The technology stack includes Spark, Cloudera, Airflow, Iceberg, Python, and AWS. • Design and development of a universal data platform for global aerospace companies. This Azure and Databricks powered initiative combines diverse enterprise and public data sources. The data platform is at the early stages of the development, covering design of architecture and processes as well as giving freedom for technology selection. • Centralized reporting platform for a growing US telecommunications company. This project involves implementing BigQuery and Looker as the central platform for data reporting. It focuses on centralizing data, integrating various CRMs, and building executive reporting solutions to support decision-making and business growth. Zakres obowiązków: Develop and maintain a high-performance data processing platform for automotive data, ensuring scalability and reliability. Design and implement data pipelines that process large volumes of data in both streaming and batch modes. Optimize data workflows to ensure efficient data ingestion, processing, and storage using technologies such as Spark, Cloudera, and Airflow. Work with data lake technologies (e.g., Iceberg) to manage structured and unstructured data efficiently. Collaborate with cross-functional teams to understand data requirements and ensure seamless integration of data sources. Monitor and troubleshoot the platform, ensuring high availability, performance, and accuracy of data processing. Leverage cloud services (AWS) for infrastructure management and scaling of processing workloads. Write and maintain high-quality Python (or Java/Scala) code for data processing tasks and automation. Oferujemy: Work in a supportive team of passionate enthusiasts of AI & Big Data. Engage with top-tier global enterprises and cutting-edge startups on international projects. Enjoy flexible work arrangements, allowing you to work remotely or from modern offices and coworking spaces. Accelerate your professional growth through career paths, knowledge-sharing initiatives, language classes, and sponsored training or conferences, including a partnership with Databricks, which offers industry-leading training materials and certifications. Choose from various employment options: B2B, employment contracts, or contracts of mandate. Make use of 20 fully paid days off available for B2B contractors and individuals under contracts of mandate. Participate in team-building events and utilize the integration budget. Celebrate work anniversaries, birthdays, and milestones. Access medical and sports packages, eye care, and well-being support services, including psychotherapy and coaching. Get full work equipment for optimal productivity, including a laptop and other necessary devices. With our backing, you can boost your personal brand by speaking at conferences, writing for our blog, or participating in meetups. Experience a smooth onboarding with a dedicated buddy, and start your journey in our friendly, supportive, and autonomous culture.
Data Engineer (Platforma Exposure) K/M
BCF Software Sp. z o.o.
⚲ Opole, Warszawa, Wrocław
130–140 zł netto (+ VAT) / godz.
Wymagania
- Python
- PySpark
- Data bricks
- Delta Lake
- SQL
- Bronze / Silver / Gold
- Azure Data Factory
- Azure DevOps
- Git
- CI/CD
Nasze wymagania: Bardzo dobra znajomość Python oraz PySpark Doświadczenie z Databricks i Delta Lake Praca z dużymi repozytoriami kodu (nie tylko notebooki) Bardzo dobra znajomość SQL (analiza złożonej logiki) Doświadczenie w programowaniu obiektowym (OOP) Znajomość zasad clean code i utrzymywalności kodu Doświadczenie w pracy w środowiskach enterprise Umiejętność dokładnej analizy istniejącego kodu (linia po linii) Silne podstawy modelowania danych (transakcyjne i analityczne) Doświadczenie w przebudowie modeli danych podczas migracji Znajomość architektury warstwowej (Bronze / Silver / Gold) Bardzo dobra znajomość języka angielskiego Mile widziane: Azure Data Factory (orkiestracja) Azure DevOps, Git, CI/CD Power BI lub narzędzia analityczne Wiedza z zakresu DevOps / infrastruktury O projekcie: Obecnie poszukujemy Data Engineera. Projekt realizowany jest dla Munich Re i dotyczy dużej transformacji środowiska danych – migracji z systemów opartych o SQL Server do platformy Databricks / Delta Lake. Zakres obejmuje migrację 3500–4000 baz danych (ok. 2 TB) oraz replikację danych do Databricks w różnych strukturach i schematach, przy docelowych wolumenach sięgających petabajtów danych. Projekt koncentruje się na inżynierii danych klasy enterprise oraz developmentcie, a nie na analityce czy raportowaniu. Zakres obowiązków: Analiza i zrozumienie złożonej logiki biznesowej zapisanej w procedurach SQL (stored procedures) Przepisanie i przeprojektowanie tej logiki do Python / PySpark w środowisku Databricks Tworzenie produkcyjnego kodu transformacji danych (moduły, pakiety, komponenty wielokrotnego użytku) Stosowanie dobrych praktyk inżynierii oprogramowania (clean code, OOP, refaktoryzacja) Projektowanie i rozwój modeli danych w architekturze Medallion (Bronze / Silver / Gold) Praca na bardzo dużych wolumenach danych oraz w środowiskach przetwarzania równoległego Udział w code review oraz dyskusjach technicznych Oferujemy: Praca w firmie, która otrzymała nagrodę Great Place to Work Award i Diamentowy Certyfikat Forbesa. Pakiet benefitów (karta multisport, prywatna opieka medyczna, ubezpieczenie grupowe) Udział w projekcie dla międzynarodowego klienta Stabilną współpracę w profesjonalnym środowisku Środowisko pracy ludzi otwartych na dzielenie się i wymianę wiedzą IT.
Data Engineer
Devire
⚲ Warszawa
18 480 - 23 520 PLN (B2B)
Wymagania
- Data
- SQL
- Python
- Data warehouse
- ETL/ELT
- Data modelling
- Azure
- AWS
- OVH
- Databricks
- Azure Data Factory
- Lakehouse architecture (nice to have)
- Cloudera on-premnise (nice to have)
- Agile/Scrum (nice to have)
- Data governance (nice to have)
- Data Quality (nice to have)
O projekcie: Devire Outsourcing IT to forma współpracy dedykowana dla specjalistów z branży IT, oparta na zasadach własnej działalności gospodarczej - B2B, realizująca projekty dla Klientów prowadzących innowacyjne i nowoczesne projekty. Dla naszego Klienta z branży ubezpieczeniowej poszukujemy kandydatów/kandydatek na stanowisko: Data Engineer Kluczowe informacje: - Praca hybrydowa (wizyty w warszawskim biurze dwa razy w miesiącu) - Wynagrodzenie: 110-140 PLN + VAT/h B2B za pośrednictwem Devire - Model: praca hybrydowa z Warszawy (wizyty w biurze dwa razy w miesiącu) - Długofalowa współpraca Wymagania: - min 4 letnie doświadczenie w roli Data Engineer / Data Developer - bardzo dobra znajomość SQL oraz języka programowania Python - doświadczenie w pracy z hurtowniami danych / platformami danych - znajomość zagadnień ETL/ELT, modelowania danych - praktyczne doświadczenie w środowisku chmurowym (Azure / AWS / OVH) - doskonała znajomość środowiska Databricks w chmurze Azure - doskonała znajomość Azure Data Factory - umiejętność pracy zespołowej i komunikacji z biznesem - inżynierskie podejście do jakości, wydajności i bezpieczeństwa danych Mile widziane - znajomość architektury Lakehouse (architektura medalionowa) - doświadczenie z migracji ze środowiska on-premise do Databricks - znajomość środowiska Cloudera on-premnise - doświadczenie w pracy w Agile / Scrum - podstawowa znajomość zagadnień Data Governance / Data Quality Codzienne zadania: - projektowanie, budowa i utrzymanie pipeline’ów danych (ETL / ELT) - integracja danych z różnych źródeł (systemy transakcyjne, API, pliki, hurtownie) - rozwój i optymalizacja hurtowni danych / lakehouse/ data lake - dbanie o jakość, spójność i dostępność danych - współpraca z Tribem odpowiedzialnym za dane worganizacji - automatyzacja procesów przetwarzania danych - udział w projektowaniu architektury danych i standardów inżynierskich
Data Engineer
CD PROJEKT RED
⚲ Warszawa
13 000 - 17 820 PLN (PERMANENT)
Wymagania
- Python
- SQL
- REST API
- Oracle
- PostgreSQL
- MS SQL
- Git
- BigQuery (nice to have)
- Snowflake (nice to have)
- Docker (nice to have)
- Kubernetes (nice to have)
- Java (nice to have)
- Bash (nice to have)
- PowerShell (nice to have)
O projekcie: As a Data Engineer you will help build and operate CDPR’s modern cloud-based Data Platform. This is a hands on engineering role with real ownership over pipelines, integrations and data workflows used across the studio. Wymagania: - 5+ years in Data Engineering or Big Data in a production environment. - Experience building and orchestrating data pipelines in a cloud environment using Airflow. - Strong programming in Python. - Very good SQL and experience with PostgreSQL, MS SQL or Oracle. - Understanding of data modeling and dimensional design. - Practical experience building pipelines in a cloud environment. - Experience working with workflow orchestration tools. - Experience building integrations using REST APIs. - Familiarity with Git based workflows (GitLab CI/CD). Nice to have - Experience with BigQuery/Snowflake. - Hands on experience in dbt (data build tool). - Basic Docker/Kubernetes knowledge. - Java or scripting experience (Bash/PowerShell). - Experience with Terraform or other infrastructure-as-code tools. Codzienne zadania: - Build and maintain ETL/ELT pipelines. - Develop scalable data pipelines in Airflow and develop data models in modern data warehouses like BigQuery or Snowflake. - Design and evolve data processing workflows in our GCP environment. - Create and maintain data layers for integrations and analytics and reporting. - Ensure data quality through monitoring, validation and automated exception handling. - Build system integrations using REST APIs and Python based services. - Troubleshoot pipeline performance, stability and orchestration issues.
Data Engineer
Scalo Sp. z o.o.
⚲ Warszawa
120–140 zł netto (+ VAT) / godz.
Wymagania
- JSON
- PARQUET
- ORC
- AVRO
- SQL
Nasze wymagania: masz minimum 3 lata doświadczenia na stanowisku Big Data Developer, posiadasz wiedzę z zakresu Big Data, Hurtowni Danych i Zarządzania Danymi, masz minimum 2-3 lata doświadczenia w programowaniu procesów Spark w Pythonie (lub Scali), pracowałeś(-aś) z różnymi formatami danych: JSON, PARQUET, ORC, AVRO, rozumiesz typy baz danych i scenariusze ich użycia (np. Hive, Kudu, HBase), znasz SQL, masz doświadczenie w integracji danych z wielu źródeł. Mile widziane: posiadasz praktyczną znajomość procesów i narzędzi Agile (Jira, Confluence, Kanban, Scrum), stosujesz dobre praktyki przetwarzania dużych zbiorów danych, w tym standardy kodowania, dokumentowania, testowania i wdrażania, znasz platformę Kubeflow i masz praktyczne doświadczenie w automatyzacji CI/CD. O projekcie: W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom. Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie. Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Zakres obowiązków: uczestnictwo w projekcie dot. branży bankowej, projektowanie architektury i wdrażanie nowoczesnych systemów przetwarzania danych w obszarze Big Data, dbanie o wysoką jakość procesu rozwojowo-wdrożeniowego, dbanie o wysoką jakość dokumentacji technicznej, poszukiwanie nowych rozwiązań oraz ich implementację (R&D), współpraca z innymi zespołami w celu wsparcia developmentu, praca w modelu hybrydowym: 2 razy w miesiącu w biurze w Warszawie, stawka do 140 zł/h przy B2B w zależności od doświadczenia. Oferujemy: stabilną współpracę i różnorodne projekty (Software, Embedded, Data, Cloud Services), możliwość rozwoju kompetencji jako Ambasador Scalo - doskonal skille techniczne i presalesowe w społeczności naszych ekspertów, wpływaj na rozwój organizacji, wspieraj innych, przestrzeń do budowania marki osobistej - twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako prelegent na wydarzeniach (np. ProMeet), prywatną opiekę medyczną - Luxmed, kafeteryjny system benefitów - Motivizer, dostęp do karty Multisport, program poleceń pracowniczych z nagrodami, integracje i wydarzenia firmowe.
Data Engineer
NATEK POLAND
⚲ Warszawa
Wymagania
- Python
- Flask
- SQL
- PostgreSQL
- AWS
- SQLAlchemy
Nasze wymagania: Minimum 4 lata doświadczenia na stanowisku Data Engineer. Doświadczenie w pracy z Python (Flask) oraz w tworzeniu REST API. Bardzo dobra znajomość SQL i doświadczenie w pracy z relacyjnymi bazami danych (preferowana PostgreSQL). Umiejętność budowania i utrzymania pipeline’ów danych. Doświadczenie w pracy w środowisku cloudowym (AWS). Znajomość narzędzi kontroli wersji oraz pracy z repozytoriami kodu. Wcześniejsza praca w metodykach Agile. Zaawansowana znajomość języka angielskiego. Szybka dostępność – maksymalnie 1 miesiąc okresu wypowiedzenia. Mile widziane: Doświadczenie w branży biofarmaceutycznej lub w środowiskach regulowanych. O projekcie: Dołącz do NATEK jako Data Engineer i weź udział w projekcie z obszaru badań klinicznych dla globalnej organizacji biofarmaceutycznej. Czas trwania projektu: 6 miesięcy (z możliwością przedłużenia) Zakres obowiązków: Projektowanie, rozwój i utrzymanie pipeline’ów danych oraz procesów przetwarzania i integracji danych z różnych źródeł. Tworzenie rozwiązań umożliwiających udostępnianie danych oraz integrację pomiędzy systemami. Zapewnienie jakości, spójności i dostępności danych w tworzonych rozwiązaniach. Udział w projektowaniu i rozwijaniu architektury danych. Praca w metodykach zwinnych, udział w przeglądach kodu oraz rozwijaniu dobrych praktyk w zakresie rozwoju oprogramowania. Oferujemy: Długofalowa współpraca oparta o nasze wartości: edukacja, partnerstwo i odpowiedzialność, Praca w projektach dedykowanych dla największych marek na świecie z sektora finansowego i telekomunikacyjnego, Możliwość wymiany doświadczeń w międzynarodowych środowisku i rozwoju w projektach realizowanych w Polsce, lub innych krajach: Słowacja, Czechy, Bułgaria, Praca w nowoczesnym środowisku z innowacyjnymi technologiami, Elastyczne godziny pracy, Prywatną opiekę medyczną, Karta Multisport lub My Cafeteria, Ubezpieczenie na życie, NATEK loyalty Club, Możliwość dołączenia do społeczności odpowiedzialnej społecznie i uczestniczenia w inicjatywach firmowych, Dla kontraktorów - uprawnienie do 23 dodatkowych dni świadczenia usług w roku, Dodatkowy płatny dzień wolny na wolontariat dla pracowników na etacie.
Data Architect (m/k)
TEAM UP RECRUITMENT SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Katowice
Wymagania
- Data architecture
- cloud computing
- ETL/ELT
- AI
- AWS
- Snowflake Data Cloud
- Redshift
- Databricks
Nasze wymagania: Strong hands-on experience building modern cloud-native data platforms (AWS preferred). Expertise in lakehouse or warehouse architectures (e.g. Snowflake, Redshift, Databricks) and modern table formats. Experience with ELT/ETL tooling, orchestration frameworks, and streaming data. Solid understanding of MLOps and AI data architectures. Strong SQL and Python skills; comfortable with DevOps and everything-as-code practices. Proven ability to design scalable, modular architectures supporting real-time workflows and automation. Experience standardising data across heterogeneous systems and event-driven environments. Strong communication skills with the ability to influence technical and non-technical stakeholders. Hands-on builder with strong ownership. Automation-first, code-first approach. Comfortable designing data platforms for AI-native and real-time products. Not a BI or dashboard-focused role. O projekcie: We are seeking a hands-on Data Architect to define and build a next-generation data and AI platform that enables real-time, automated digital journeys across customers and partners. This role owns the end-to-end data architecture, from ingestion and lakehouse design to governance, quality, and AI enablement. This is an engineering-led architecture role, focused on building scalable, cloud-native data foundations rather than BI or reporting solutions. Location: Katowice (1 day per week in the office, 4 days remote) Zakres obowiązków: Define and evolve the end-to-end data platform architecture, including ingestion, lakehouse/warehouse, transformation, orchestration, governance, observability, and AI enablement. Establish a unified, standardised data model supporting operational, customer, and supplier workflows. Lead architectural decisions around storage, table formats, batch and streaming patterns. Design and implement scalable ELT/ETL pipelines across enterprise systems, network telemetry, and external partners. Define standards for raw, refined, and curated data layers, ensuring data quality, lineage, and reprocessability. Introduce CDC, schema evolution, and automated ingestion patterns. Architect the data foundations for AI and ML, including feature stores, model lifecycle, and ML observability. Enable AI-driven use cases such as pricing intelligence, prediction, automation triggers, and real-time insights. Support semantic and conversational data access for intelligent workflows. Design scalable data governance and metadata architectures, including catalogues, lineage, and ownership. Implement automated data quality checks and observability embedded in pipelines. Act as the technical authority for data architecture decisions across teams. Guide data engineers, ML engineers, and analysts through standards and best practices. Partner with platform, product, and operations teams to make data a first-class capability. Oferujemy: International, collaborative work environment. Exposure to large-scale cloud, data, and AI platforms. Strong learning and development support. Competitive compensation and benefits. Hybrid work.
Data Analyst - Data Governance Analyst (Snowflake/Purview)
SQUARE ONE RESOURCES sp. z o.o.
⚲ Warszawa
Wymagania
- Snowflake
- Microsoft Purview
- Redis
- Databricks
- Microsoft Power BI
Nasze wymagania: Minimum 5 years of experience working in data analytics, data governance or data platform environments Strong experience with Snowflake Hands-on experience with Microsoft Purview (data catalog / lineage / metadata management) Experience with data modeling and metadata management concepts Experience working with business glossary and data governance frameworks Understanding of data quality processes and monitoring mechanisms Experience collaborating with business stakeholders and domain experts Strong analytical and problem-solving skills Good communication skills and ability to work in distributed teams Mile widziane: Experience with Power BI Experience working with Redis or caching architectures Experience with metadata automation or data lineage implementation Experience with Databricks environments O projekcie: We are looking for an experienced Data Analyst / Data Governance Specialist to support a project focused on improving data governance, metadata management and data quality processes within an enterprise data environment. The role will involve working with modern data platforms such as Snowflake and Microsoft Purview, helping to improve metadata management, data lineage visibility and data quality monitoring across business domains. This is a remote contract role with a duration of approximately 16 weeks (0.5 FTE). Zakres obowiązków: Support implementation and configuration of Microsoft Purview for data catalog, data lineage and metadata management Perform gap analysis and design solutions for metadata, data catalog and governance processes Co-create and structure a business glossary to ensure consistent KPI definitions across the organization Work with business stakeholders and SMEs to define and document key business terms and calculation logic Support automated metadata collection and improve integration with existing systems Redesign and refine the conceptual data model for corporate data structures Improve data quality frameworks and support implementation of mechanisms for monitoring data quality metrics Contribute to improving dashboard transparency by introducing data quality scoring in Power BI Support architecture improvements to enhance system responsiveness and data access performance
Data Analyst
B2B.NET S.A.
⚲ Gdańsk
16 800–23 000 zł netto (+ VAT) / mies.
Wymagania
- SQL
- Python
- R
- Java
- Scala
- Big Data
- Microsoft Power BI
Nasze wymagania: Proven experience in data management, data quality, or a related role, preferably within the financial services industry Experience with advanced SQL, Python, R, Java and Scala, Big Data Familiar with data taxonomy and capable to build small data models Experience with Power BI to produce reports Excellent stakeholder management as you will be working closely with multiple business areas and key business leads across IT, Architecture, Financial Crime, Compliance, Legal - and the Business in order to implement changes Experience within financial crime (AML/CTF, KYC, Transaction Monitoring and Sanctions) Professional, organised, and structured approach Produce work to a high-quality standard and strive to find the solution that is best for the bank Prepared for fast-paced projects with changing priorities Excellent analytical and problem-solving skills, strong attention to detail and a commitment to data accuracy Ability to communicate effectively with both technical and non-technical audiences Mile widziane: Experience with data governance frameworks and methodologies Experience with data migration and integration projects O projekcie: Working on multiple tasks supporting a large programme in Financial Crime Prevention Zakres obowiązków: Data profiling Data design Data mapping Complex data analysis Oferujemy: Opportunity to work closely with multiple business areas and key business leads across IT, Architecture, Financial Crime, Compliance, Legal - and the business
DWH Developer (k/m)
Energa Informatyka i Technologie Sp. z o.o.
⚲ Gdańsk, Oliwa
Wymagania
- PL/SQL
- Oracle Data Base
- Oracle Data Integrator
- Oracle Business Intelligence
- Azure DevOps
- GIT
Nasze wymagania: Bardzo dobra znajomość relacyjnych baz danych Oracle oraz znajomość PL/SQL Doświadczenie w projektowaniu procesów ETL/ELT (ODI, Apache Airflow) Doświadczenie w pracy z narzędziami klasy BI (Oracle APEX, OAS) Praktyczna znajomość systemów kontroli wersji, GIT Znajomość architektury hurtowni danych i najlepszych praktyk w zakresie projektowania Wykształcenie wyższe Umiejętność rozwiązywania problemów i analitycznego myślenia Umiejętność współpracy w zespole oraz klientem zewnętrznym Samodzielność w działaniu i podejmowaniu decyzji Skuteczność w działaniu Odpowiedzialność biznesowa Nastawienie na ciągły rozwój oraz czerpanie z różnych perspektyw Kreowanie innowacji Mile widziane: Znajomość języków programowania wspierających integrację danych np.: Python Znajomość GIT / liquibase Znajomość branży energetycznej Znajomość języka angielskiego pozwalająca na pracę z dokumentacją techniczną i komunikację ze wsparciem technicznym Oracle Zakres obowiązków: Tworzenie i rozwój hurtowni danych (DWH) z wykorzystaniem Oracle i PL/SQL Projektowanie, implementacja i optymalizacja procesów ETL/ELT Tworzenie raportów i dashboardów w Oracle OAS/APEX/BI Tworzenie i aktualizacja dokumentacji technicznej Dbanie o jakość kodu i zarządzenie kodem źródłowym w GIT i narzędzi CI/CD w Azure DevOps Optymalizowanie wydajności procesów, zapytań i procedur PL/SQL Wsparcie oraz uczestnictwo w projektach informatycznych Oferujemy: Atrakcyjne wynagrodzenie i stabilne zatrudnienie Współpracę z doświadczonymi ekspertami Uczestnictwo w dużych, nowatorskich projektach Możliwość wdrażania własnych pomysłów i rozwiązań Partnerską atmosferę pracy Dostęp do nowoczesnych narzędzi i metod pracy
DB Admin
Mindbox Sp. z o.o.
⚲ Kraków, Warszawa
27 300 - 29 400 PLN (B2B)
Wymagania
- Linux
- RHEL
- Oracle
- Performance tuning
- Shell (nice to have)
- IBM (nice to have)
- Gateway (nice to have)
- BMC (nice to have)
- Control-M (nice to have)
- Batch file (nice to have)
O projekcie: At Mindbox we connect top IT talents with technology projects for leading enterprises across Europe. Are you passionate about managing mission-critical systems and ensuring seamless database operations? We are looking for an experienced Database Administrator to support Linux-based platforms within our Enterprise Infrastructure team. Sounds like your kind of challenge? What you get in return - Flexible cooperation model – choose the form that suits you best (B2B, employment contract, etc.), - Hybrid work setup –6 days per month in the office, - Collaborative team culture – work alongside experienced professionals eager to share knowledge, - Continuous development – access to training platforms and growth opportunities, - Comprehensive benefits – including Interpolska Health Care, Multisport card, Warta Insurance, and more, - High quality equipment – laptop and essential software provided. Wymagania: - 5+ years as a DBA in production environments - Strong Linux (RHEL) knowledge - Hands-on experience with Oracle - Proven ability to support mission-critical systems - Strong troubleshooting skills under pressure - Experience with: - Backup/recovery - Replication / High Availability - Performance tuning - Log analysis Nice to Have - Shell scripting / basic automation - Familiarity with: - IBM Sterling File Gateway - IBM Connect:Direct - BMC Control-M - Experience in financial services or regulated environments - Exposure to batch/file transfer platforms Joining this project you’ll become part of Mindbox – a tech-driven company where consulting, engineering, and talent meet to build meaningful digital solutions. We’ll back you up every step of the way, accelerate your development, and ensure your skills make a difference. Codzienne zadania: - Install, configure, and maintain Oracle databases - Manage patches and upgrades at the database layer - Perform backup, restore, and recovery validation - Troubleshoot and tune performance - Handle capacity management - Analyze and resolve database-related incidents - Contribute to root cause analysis (RCA) - Perform log analysis (DB + Linux level) - Stabilize systems after changes/releases - Engage directly during major incident bridges - Collaborate with Linux admins and application teams - Troubleshoot interactions between database, application (Control-M / SFG), and OS layers - Validate database health - Execute weekend production changes - Perform database changes during maintenance windows - Conduct pre/post-change validation - Provide risk assessment input for DB-related changes - Participate in 24/7 on-call rota - Respond to out-of-hours incidents - Support weekend production activities