Oferty pracy
Filtry
Junior Data Engineer Geospatial - e-Xperience Program Associate
Allegro
⚲ Warszawa
Nasze wymagania: Can write SQL queries and want to gain more experience working with geospatial databases and technology (like PostgreSQL + PostGIS) Program in Python and are comfortable using basic development tools Would like to gain experience working with large datasets and comprehending database design and data structures Are eager to learn about geospatial technologies from Esri and develop skills in this area Enjoy creating appealing and informative digital map visualizations O projekcie: Start your career with Allegro e-Xperience 2026 - a talent program running from 1 July to 31 December 2026. During the program, you’ll gain hands-on experience, work on real projects and learn from teams shaping one of the largest e-commerce platforms in the region. After the initial period, candidates may be considered for future permanent opportunities at Allegro, depending on business needs and performance. You can find full details about the recruitment process and timeline here. Ready to take your first professional step? Apply now and shape the future of e-commerce with us! For this role, we’re looking for 1 Associate. Zakres obowiązków: You will assist in transforming Allegro's rich data resources, along with external data, into innovative Big Geodata products You will implement data pipelines and automated workflows using SQL/Python required for Data and AI tools and processes You will work with Esri ArcGIS environment web services and applications helping us embrace the world of spatial technologies and geospatial data You will monitor and enhance the quality and integrity of data You will be responsible for creating metadata aggregation processes, integrated with Allegro's Data and AI platform to support tools and processes in the areas of: Data Quality, Data Lineage and Data Governance Oferujemy: Flexible working hours in the hybrid model (4/1) - working hours start between 7:00 a.m. and 10:00 a.m. The opportunity to learn, work on exciting challenges, collaborate with amazing people and have an unforgettable adventure Mentorship and support from your buddy throughout your entire program Additionally, you will be part of a supportive, inclusive culture that fosters personal growth, career development, and the building of meaningful connections with colleagues A wide selection of fringe benefits in a cafeteria plan - you choose what you like (e.g. medical, sports or lunch packages, insurance, purchase vouchers) The necessary tools for work Working in a team you can always count on - we have on board top-class specialists and experts to learn from Hackathons/Open days, workshops, guilds, meetups and internal knowledge sharing Internal learning platform (including training courses on work organization, means of communication, motivation to work and various technologies and subject-matter issues)
Inżynier danych / Inżynierka danych
B2B.NET S.A.
⚲ Warszawa
20 680–23 520 zł netto (+ VAT) / mies.
Wymagania
- Kafka
- ETL
- GCP
- Python
- CI/CD
- Neo4j
- Apache Spark
- Apache Airflow
- AutomateNow
- Rust
Nasze wymagania: Praktyczne doświadczenie w pracy z bazą grafową Neo4j Dobra znajomość koncepcji teorii grafów Doświadczenie w modelowaniu grafów oraz optymalizacji wydajności zapytań Znajomość środowiska chmurowego Google Cloud Platform (GCP) Znajomość zagadnień związanych z budową pipeline’ów zasilających ETL/ELT Doświadczenie w pracy z architekturą sterowaną zdarzeniami (Kafka, Pub/Sub) Znajomość rozwiązań Big Data wykorzystujących możliwości GenAI Znajomość Google BigQuery Znajomość języka Python Znajomość narzędzi CI/CD Mile widziane: Apache Spark – preferowane środowisko GCP Dataproc Apache Beam – preferowane środowisko GCP Dataflow AutomateNow Apache Airflow Rust Zakres obowiązków: Projektowanie, budowa oraz rozwój rozwiązań opartych o bazy grafowe Neo4j Modelowanie grafów danych zgodnie z wymaganiami biznesowymi oraz optymalizacja ich wydajności Tworzenie i utrzymanie zapytań grafowych oraz analiza zależności danych Projektowanie i implementacja pipeline’ów ETL/ELT zasilających rozwiązania grafowe Integracja danych z różnych źródeł w środowisku chmurowym GCP Tworzenie rozwiązań w architekturze sterowanej zdarzeniami z wykorzystaniem Kafka i Pub/Sub
Data Solutions Business Analyst – Data Analytics & Cloud Integration
ITDS Polska Sp. z o.o.
⚲ Kraków
16 800–23 520 zł / mies. (zal. od umowy)
Wymagania
- Google Cloud Platform
- Hadoop
Nasze wymagania: Minimum of 3 years of experience in Business Analysis, Data Analytics, or Data Platform roles. Strong understanding of ESG data and the data lifecycle in general. Proven experience delivering technically focused analysis for change initiatives involving multiple organizations. Solid knowledge of cloud platforms, particularly Google Cloud, Hadoop, or related big data tools. Hands-on experience with data integration solutions and third-party data sources. Excellent communication skills to engage both technical and non-technical audiences. Experience working within Agile delivery teams. Fluent in English, with excellent communication skills. Mile widziane: Certifications related to Data Analytics, Cloud Technologies, or Agile methodologies. O projekcie: As a Data Solutions Business Analyst – Data Analytics & Cloud Integration, you will be working for our client, an international leader in innovative data management and analytics. You will lead initiatives to enhance data ingestion, data quality, and integration with platforms like Google Cloud and Hadoop, enabling smarter business decisions and driving digital transformation. This role offers an exciting opportunity to shape data-driven strategies in a dynamic environment. Unleash the future of data — drive transformative insights through scalable cloud solutions. Krakow-based opportunity with hybrid work model. Zakres obowiązków: Elicit requirements using interviews, workshops, and process analysis to translate complex business needs into effective data solutions. Collaborate with stakeholders to define project scope, objectives, and deliverables aligned with strategic goals. Work closely with data engineers, project teams, and business users to ensure clear communication, documentation, and successful project execution. Analyze, manipulate, and document data, creating technical specifications and data dictionaries for seamless implementation. Support project delivery with testing, organizational tasks, and requirement traceability, ensuring high quality standards. Use Agile methodologies to foster collaborative and flexible project execution across cross-functional teams. Maintain data governance standards, ensuring data definitions, lineage, and quality controls are integrated into project solutions. Produce comprehensive documentation including business requirements, source-to-target mappings, process flows, and user guides. Oferujemy: Stable and long-term cooperation with very good conditions Enhance your skills and develop your expertise in the financial industry Work on the most strategic projects available in the market Define your career roadmap and develop yourself in the best and fastest possible way by delivering strategic projects for different clients of ITDS over several years Participate in Social Events, training, and work in an international environment Access to attractive Medical Package Access to Multisport Program Access to Pluralsight Flexible hours
Data Quality Engineer (m/k/n)
UPVANTA SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Wrocław, Fabryczna
Wymagania
- Snowflake
- SQL
- dbt
- Apache Airflow
- Python
- GitLab
- AWS
Nasze wymagania: Doświadczenie w pracy z hurtowniami danych w środowisku cloud Bardzo dobra znajomość: Snowflake, SQL, dbt, Apache Airflow, Python, GitLab oraz procesów CI/CD Podstawowa znajomość platformy AWS (S3, IAM) Umiejętność analizy wymagań biznesowych i projektowania procesów przetwarzania danych Doświadczenie w pracy zespołowej w metodykach zwinnych (Scrum) Umiejętność komunikacji w języku polskim oraz angielskim w środowisku międzynarodowym Mile widziane: Znajomość zagadnień z obszaru billingu, księgowości lub finansów Doświadczenie w migracji hurtowni danych ze środowiska on-premise do Snowflake O projekcie: Projekt dotyczy kontroli procesu naliczeń i billingu dla abonentów poprzez analizę i przetwarzanie danych w środowisku chmurowym. Jego celem jest monitorowanie przebiegu procesu naliczeń, prezentacja statystyk dla poszczególnych etapów oraz identyfikowanie ewentualnych nieprawidłowości. Rola obejmuje projektowanie i rozwój procesów przetwarzania danych wspierających analizę i kontrolę kluczowych procesów biznesowych. Zakres obowiązków: Zbieranie oraz analiza wymagań biznesowych od interesariuszy Projektowanie i implementacja procesów przetwarzania danych wspierających kontrolę procesu naliczeń i billingu dla abonentów Tworzenie rozwiązań umożliwiających prezentację statystyk dla poszczególnych etapów procesu naliczeń Identyfikowanie i wykrywanie nieprawidłowości w działaniu procesów naliczeniowych Rozwój i utrzymanie procesów ETL/ELT w środowisku chmurowym Współpraca w zespole pracującym w metodyce Scrum Współtworzenie i promowanie dobrych praktyk związanych z jakością danych („data quality by design”) Wdrażanie podejścia opartego na testowaniu danych i zapewnianiu ich spójności Współpraca z zespołami lokalnymi i międzynarodowymi Oferujemy: Stawka: 1000 - 1250 B2B MD netto + VAT Tryb pracy: 100% zdalny Okres współpracy: długoterminowy (minimum 1 rok) Godziny pracy: poniedziałek – czwartek: 8 godzin 30 minut i piątek: 6 godzin
Data Protection & Compliance Specialist (m/k/n)
UPVANTA SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Wrocław, Fabryczna
Nasze wymagania: - Bardzo dobra, praktyczna znajomość Microsoft 365 Modern Workplace - Doświadczenie w bezpośredniej współpracy z klientem - Głęboka wiedza w co najmniej jednym z poniższych obszarów: 🔑 Identity & Access Management - Azure AD / Entra ID - Protokoły uwierzytelniania - Zarządzanie dostępem uprzywilejowanym 🛡 Security & Compliance - Microsoft Purview - Ochrona informacji - Zarządzanie zgodnością i governance 🚨 Threat Protection & Monitoring - Bezpieczeństwo endpointów - Zarządzanie zagrożeniami - Operacje bezpieczeństwa (Security Operations) 🔄 Migration Services - Migracja danych i usług do Microsoft 365 📂 SharePoint Online - Zarządzanie, konfiguracja i dostosowywanie środowisk SharePoint Online 💻 Endpoint Management - Zarządzanie cyklem życia urządzeń - Konfiguracja i zabezpieczanie urządzeń sieciowych O projekcie: Stawka: 800-1100 PLN B2B netto MD Zakres obowiązków: Projektowanie, rozwój i wdrażanie rozwiązań z zakresu tożsamości oraz bezpieczeństwa opartych o technologie Microsoft w środowiskach hybrydowych i chmurowych Definiowanie architektury, planów wdrożeniowych oraz specyfikacji technicznych dla: Active Directory Domain Services (AD DS) Entra ID (Azure AD) Tożsamości hybrydowej Microsoft Information Protection (MIP) Data Loss Prevention (DLP) Implementacja i konfiguracja rozwiązań Microsoft 365 Modern Workplace Współpraca z klientami w zakresie analizy potrzeb, doradztwa technicznego oraz wdrożeń Ścisła współpraca z zespołami inżynieryjnymi, bezpieczeństwa, compliance oraz architektury Zapewnienie zgodnych z regulacjami i w pełni zintegrowanych rozwiązań ochrony danych w ekosystemie Microsoft 365 Udział w projektach migracyjnych (migracja danych i usług do Microsoft 365) Wsparcie w zakresie monitorowania zagrożeń oraz podnoszenia poziomu bezpieczeństwa środowisk IT
Data Engineer / Inżynier Analityki Danych
FarmaProm Spółka z ograniczoną odpowiedzialnością
⚲ Poznań, Grunwald
Wymagania
- SQL
- Git
- Python
- BigQuery
Nasze wymagania: Minimum 2-lata doświadczenia na stanowisku, które wymagało projektowania i/lub budowania potoków przetwarzania danych Praktyczna znajomość SQL (dowolny dialekt) Dobra znajomość koncepcji i praktyk z zakresu modelowania danych Znajomość koncepcji hurtowni danych (Data Warehousing) Doświadczenie w pracy z systemem kontroli wersji Git Samodzielność, umiejętność logicznego i analitycznego myślenia Komunikatywność i dobra organizacja czasu pracy Mile widziane: Doświadczenie w wykorzystywaniu narzędzi AI do rozwiązywania problemów z obszaru inżynierii danych, wspierania analiz i optymalizacji procesów Doświadczenie w integracji API (REST / SOAP) lub w pracy z danymi półustrukturyzowanymi Doświadczenie w przetwarzaniu danych wrażliwych (w sposób zgodny z GDPR/RODO) Znajomość zagadnień związanych z konteneryzacją Znajomość paradygmatów Data Observability i / lub Data Mesh Znajomość branży farmaceutycznej O projekcie: Masz doświadczenie w modelowaniu danych, a perspektywa zastąpienia istniejących systemów nowoczesnymi rozwiązaniami brzmi dla Ciebie jak ciekawe wyzwanie inżynierskie? Dołącz do FarmaProm i zaprojektuj nasz ekosystem od nowa. Twoja rola będzie dwuetapowa. Najpierw poznasz i przejmiesz odpowiedzialność za kluczowe, istniejące procesy, zapewniając ich bieżące utrzymanie. Na dalszym etapie, wykorzystując zdobytą w ten sposób wiedzę, zaprojektujesz i wdrożysz nową generację rozwiązań w oparciu o środowisko Google Cloud Platform. Jeśli potrafisz przełożyć wymagania biznesowe na konkretne modele danych, a przy tym jesteś dociekliwy i lubisz się uczyć, to aplikuj! Zakres obowiązków: Odpowiedzialność za stack technologiczny i ciągłość procesów ETL/ELT opartych m.in. na MS SQL Server oraz skryptach batch Analiza i dokumentacja istniejących rozwiązań, w tym zrozumienie logiki biznesowej zapisanej w obecnych procesach i zapytaniach SQL, aby przygotować je do procesu modernizacji Projektowanie i wdrażanie nowoczesnej, chmurowej architektury danych, która docelowo zastąpi obecne rozwiązania Identyfikacja procesów manualnych (np. ręczne przetwarzanie danych z plików CSV, formularze papierowe itd.) i ich automatyzacja Tworzenie mechanizmów walidacji oraz integracji z rejestrami zewnętrznymi (np. GUS, CEIDG) w celu podniesienia jakości bazy lekarzy i instytucji Przygotowywanie i udostępnianie zestawów danych dla kluczowych klientów oraz obsługa techniczna procesów zasilających systemy CRM Oferujemy: Udział w rozbudowanym projekcie IT skierowanym do klientów branży farmaceutycznej w Polsce Realny wpływ na organizację i jej klientów poprzez rozwój jednego źródła danych zasilającego różne produkty i usługi FarmaProm Opcję pracy hybrydowej po okresie wdrożeniowym Wsparcie lidera przy wdrożeniu do zespołu Środowisko utalentowanych ludzi, od których można się wiele nauczyć
Data Engineer (Microsoft Fabric)
Mindbox Sp. z o.o.
⚲ Warszawa
20 000–24 000 zł netto (+ VAT) / mies.
Wymagania
- Microsoft Fabric
- Microsoft Power BI
- Lakehouse
- Synapse
- SQL
- Python
- PySpark
- Pandas
- Git
- Microsoft Azure
Nasze wymagania: 3–5+ years of experience as a Data Engineer in enterprise environments Strong knowledge of the Microsoft Fabric ecosystem: Data Factory, Lakehouse, Synapse, Power BI Proficiency in SQL and Python (PySpark / Pandas) Hands-on experience with data modeling and ETL/ELT design Understanding of cloud platforms (Azure preferred) Familiarity with DevOps/Git CI/CD for data projects Strong communication skills and ability to work in international teams O projekcie: We are looking for an experienced Data Engineer to join our team and work on data integration, modeling, and reporting solutions using the Microsoft Fabric ecosystem. You will design and develop ETL/ELT processes, build and optimize pipelines, and support reporting projects in Power BI. This role offers the opportunity to work in a collaborative environment with modern cloud technologies and best practices in data engineering. Sounds like your kind of challenge? Zakres obowiązków: Design and develop ETL/ELT processes using Microsoft Fabric Work with Lakehouse (Delta/Parquet, OneLake) and Synapse/Data Warehouse Build and optimize pipelines in Data Factory (orchestration, scheduling) Support Power BI reporting projects (dataset optimization, basic DAX is a plus) Apply data modeling best practices and ensure high-quality data solutions Collaborate with distributed and cross-functional teams in an international environment Note: Detailed project information will be shared during the recruitment process. Oferujemy: Flexible cooperation model – choose the form that suits you best (B2B, employment contract, etc.) Hybrid work setup – remote days available depending on the client’s arrangements Collaborative team culture – work alongside experienced professionals eager to share knowledge Continuous development – access to training platforms and growth opportunities Comprehensive benefits – including Interpolska Health Care, Multisport card, Warta Insurance, and more High quality equipment – laptop and essential software provided
Data Engineer (GCP & AWS)
SQUARE ONE RESOURCES sp. z o.o.
⚲ Warszawa, Mokotów
120–170 zł netto (+ VAT) / godz.
Wymagania
- AWS
- Google Cloud Platform
- Python
- DBT
- ETL
- Terraform
Nasze wymagania: Doświadczenie z GCP i AWS (BigQuery, Pub/Sub, Dataflow, S3, Glue, Redshift). Znajomość Oracle SQL, PL/SQL. Programowanie w Pythonie, Javie, lub Scali. Doświadczenie z Terraform i DBT. Doświadczenie z systemami strumieniowymi (Jenkins, GitLab) i Kubernetes. Praca w Agile (Scrum, Kanban, Jira). Mile widziane: Doświadczenie w środowiskach finansowych O projekcie: Dla naszego klienta, międzynarodowej firmy doradczej działającej w obszarze finansów i technologii, poszukujemy doświadczonego Data Engineera do projektu w sektorze finansowym. Projekt ma na celu wsparcie klienta w zakresie zarządzania danymi, optymalizacji procesów oraz implementacji rozwiązań w środowisku chmurowym (GCP i AWS). Lokalizacja: Kraków (Hybrydowo, raz na kwartał obecność w biurze przez tydzień) Zakres obowiązków: Projektowanie potoków danych w GCP i AWS. Integracja danych między chmurą a on-prem Oracle. Optymalizacja wydajności systemów danych. Automatyzacja procesów (Terraform, CI/CD, Docker/Kubernetes). Współpraca w Agile/Scrum z zespołami analitycznymi i transakcyjnymi. Oferujemy: Zatrudnienie na B2B Długoterminowa współpraca Start ASAP
Data Engineer (ETL, Azure)
Capgemini Polska
⚲ Gdańsk, Katowice, Kraków, Lublin, Opole, Poznań, Warszawa, Wrocław
Wymagania
- Python
- SQL
- AWS
- Microsoft Azure
- CI/CD
- Azure Databrick
- Data Lake
- Data Factory
- Glue
- Synapse
- Snowflake
- AWS Redshift
Nasze wymagania: 3-6 years of experience in data engineering (ETL, integration, modeling). Strong knowledge of AWS or Azure, or both services (Azure Databrick, Data Lake, Data Factory, Glue, Synapse, Snowflake, AWS Redshift). Proficiency in Python and SQL. Familiarity with CI/CD tools and basic DevOps concepts. Understanding of data integration and data quality principles. English at B2 level or higher. Healthcare or fintech/pharma project experience is a plus. O projekcie: Join Capgemini and help shape the future of healthcare data. As a Data Engineer, you’ll design and optimize cloud-based data solutions that power critical insights and improve patient outcomes. Your work will directly contribute to projects that make a real difference. Join Our Growing Data Engineering Teams in Warsaw! Capgemini is expanding its database-focused teams located in this office. We are looking for talented Data Engineers to join us in shaping innovative solutions for our clients. If you are passionate about data, cloud technologies, and building scalable systems, we have exciting opportunities for you! As part of our team, you will work on cutting-edge projects, collaborate with experts, and contribute to delivering high-quality data solutions in a dynamic and supportive environment. Ready to take the next step in your career? Apply now and become part of our growing data engineering community in Warsaw! Zakres obowiązków: Design, implement, and maintain data processing solutions in AWS and Azure environments. Build and optimize ETL pipelines and data integration workflows. Develop and maintain data pipelines using Azure Data Factory, Synapse, and Databricks. Ensure data quality, security, and compliance standards across all solutions. Collaborate with analysts, business stakeholders, and cross-functional teams to deliver reliable data solutions. Support data architecture improvements and cloud migration projects. Oferujemy: Practical benefits: private medical care with Medicover with additional packages (e.g., dental, senior care, oncology) available on preferential terms, life insurance and 40+ options on our NAIS benefit platform, including Netflix, Spotify or Sports card. Access to over 70 training tracks with certification opportunities (e.g., GenAI, Excel, Business Analysis, Project Management) on our NEXT platform. Dive into a world of knowledge with free access to Education First languages platform, TED Talks and Udemy Business materials and trainings. Enjoy hybrid working model that fits your life - after completing onboarding, connect work from a modern office with ergonomic work from home, thanks to home office package (including laptop, monitor, and chair). Ask your recruiter about the details.
Data Engineer
DCV Technologies
⚲ Kraków
Wymagania
- SQL
- Python
- Scala
- Microsoft Azure
- Microsoft Power BI
Nasze wymagania: Education •Bachelor’s or Master’s degree in Information Technology or related field • (Computer Science, Mathematics, etc.) •Focus on data analysis preferred Experience •Ideally 5+ years as Data Engineer in Big Data •8–10 years total experience Core Technical Skills •Strong experience in executing complex data analysis •Running complex SQL queries •Programming languages: •Python •Scala •Spark •SQL •Big Data technologies: •Azure Cloud •Databricks •Power BI (or equivalent) Methodology & Soft Skills •Agile methodologies & delivery experience •Strong analytical & data management skills •Strong problem-solving ability •Stakeholder partnership skills •Strong communication skills •Business-context understanding for data •Flexible & resilient team player •Fluent English Competencies •Digital: Microsoft Azure •Digital: Python •Digital: Microsoft Power BI •Digital: Databricks •Agile Way of Working Zakres obowiązków: We are looking for an experienced Data Engineer to support Big Data initiatives, complex data analysis, and stakeholder-driven data solutions. The role requires strong SQL expertise, Azure exposure, and the ability to work in Agile delivery environments. Oferujemy: •Location: Krakow (3 days onsite per week)
Credit Risk Modeling Python Developer
U.S.Bank | Elavon
⚲ Warszawa, Mokotów
Wymagania
- Python
- SQL
- SAS
- Git
- Azure
- AWS
- Airflow
- Bash
Nasze wymagania: 3+ years of experience in software development, data analytics, or related roles, preferably in financial services, banking, and/or credit risk. Bachelor’s Degree or higher in a quantitative/technical field such as statistics, mathematics, computer science, data science, or engineering. Strong proficiency in Python and experience building production-grade applications. Solid understanding of SQL and relational databases. Strong problem-solving skills and ability to work in cross-functional teams. Mile widziane: Experience with SAS. Experience with quantitative model development and/or validation. Familiarity with software engineering principles, including design patterns, testing, CI/CD, and version control (Git). Experience with cloud-based tools and infrastructure (Azure or AWS). Familiarity with automation and orchestration tools (Airflow, Bash scripting). Understanding performance optimization for large-scale data processing. Zakres obowiązków: Develop and maintain Python-based components for the credit risk model lifecycle. Re-engineering a model production engine from SAS to Python, ensuring accuracy and consistency. Key areas of impact will include model implementation, production and monitoring as well as dashboards and reporting. Collaborate with quantitative model developers to implement model logic and integrate it into production systems. Optimize code for efficiency, scalability, and compliance with internal standards. Design and implement automated workflows for data processing, testing, and deployment. Ensure robust version control, documentation, and adherence to software development best practices. Work closely with infrastructure and risk teams to support smooth implementation and delivery. Oferujemy: Clearly defined salary ranges aligned with industry benchmarks and internal equity standards. Performance-based incentives for eligible employees (as defined by relevant plan rules), awarded through transparent, objective criteria that recognize both individual and company performance. Inclusive equitable benefits that are accessible to all employees and focused around our 3 main pillars of financial wellbeing, health & wellness). Continuous development opportunities including training, education support, and career progression pathways based on inclusive and transparent criteria. Employee recognition programs that celebrate achievements and milestones for all.
Credit Risk Data Scientist
U.S.Bank | Elavon
⚲ Warszawa, Mokotów
Wymagania
- Power BI
- SQL
- Python
- Power Apps
- Power Automate
Nasze wymagania: Bachelor’s degree in an appropriate field (Mathematics, Computer Science, Economics, Statistics, Business) or equivalent work experience More than four years of applicable experience Demonstrated ability to design and develop interactive Power BI dashboards that effectively visualize and communicate data Proven proficiency in writing and optimizing SQL queries for data extraction, transformation, and analysis Strong analytical thinking, problem-solving and decision-making skills Ability to collaborate and communicate effectively across teams, which includes risk managers, technology and data management teams Strong verbal and written communication skills Mile widziane: Knowledge of credit risk management concepts in retail or wholesale lending Experience using Power Automate flows and building Power Apps Experience building complex dashboards and storytelling with data using BI platforms Experience using Python or equivalent programming language Experience in process re-engineering O projekcie: In this role, you will support and help to redesign and transform various wholesale and retail credit risk data and reporting processes to support risk managers, model developers and business lines. You will work with internal customers to ensure their data and reporting needs are met with accuracy, efficiency, and timeliness. Responsibilities will be split between standardized reporting deliverables and project work to enhance data, reporting capabilities, and process improvement. This will include creating and maintaining Power BI dashboards, automating and simplifying recurring processes using Power Automate/Apps, and conducting data research projects by aggregating, integrating, or reassembling information from a variety of data sources and systems by writing database queries in SQL, Python, or other database query languages. You will partner with risk managers, line of business, and data teams to create, implement, maintain, and review the bank’s wholesale credit reports. Zakres obowiązków: Design, develop and automate the reporting processes using Microsoft Power Platform to support credit risk management Develop and maintain an effective relationship with credit portfolio risk managers to design and support credit risk reports across wholesale and retail loan portfolios Design and develop ETL processes to extract, cleanse, and reconcile credit risk data Run weekly, month-end, and quarterly data and reporting processes, ensuring timely and accurate delivery of reports Collaborate with development and implementation teams to ensure alignment of data and execution logic Automate workflows for data capture, testing, documentation, and visualization Create comprehensive documentation and playbooks to promote process consistency and knowledge sharing Explore and apply machine learning (ML) and artificial intelligence (AI) techniques to enhance process efficiency Communicate insights and recommendations to risk managers to support strategic decision-making Oferujemy: Clearly defined salary ranges aligned with industry benchmarks and internal equity standards. Performance-based incentives for eligible employees (as defined by relevant plan rules), awarded through transparent, objective criteria that recognize both individual and company performance. Inclusive equitable benefits that are accessible to all employees and focused around our 3 main pillars of financial wellbeing, health & wellness). Continuous development opportunities including training, education support, and career progression pathways based on inclusive and transparent criteria. Employee recognition programs that celebrate achievements and milestones for all.
Big Data Engineer | branża ubezpieczeniowa
Edge One Solutions Sp. z o.o.
⚲ Warszawa
Wymagania
- SQL
- Git
- BigQuery
- Redshift
- Apache Spark
- Hadoop
- Kafka
- Python
- Scala
- Java
- AWS
- Microsoft Azure
- Google Cloud Platform
- Airflow
- Docker
- Kubernetes
- Snowflake Data Cloud
Nasze wymagania: Wykształcenie wyższe (informatyka, zarządzanie projektami lub kierunki pokrewne) Min. 3 lata doświadczenia w obszarze Big Data / Data Engineering Bardzo dobra znajomość SQL Doświadczenie w pracy z technologiami Big Data (np. Apache Spark, Hadoop, Kafka) Znajomość jednego z języków programowania: Python / Scala / Java Doświadczenie z chmurą (AWS / Azure / GCP) Znajomość narzędzi orkiestracji (np. Airflow) Umiejętność pracy z systemami kontroli wersji (Git) Znajomość dobrych praktyk projektowania architektury danych Mile widziane: Doświadczenie z narzędziami DataOps / CI/CD Znajomość narzędzi do konteneryzacji (Docker, Kubernetes) Praca w środowisku real-time analytics Doświadczenie z Snowflake / BigQuery / Redshift Znajomość zagadnień związanych z Machine Learning O projekcie: Nasz klient to lider rynku ubezpieczeniowego, ale również organizacja inwestująca w transformację cyfrową, rozwój analityki danych i AI. Pracując w tym środowisku, zyskasz możliwość: pracy nad realnymi wyzwaniami biznesowymi w skali milionów klientów, dostępu do nowoczesnych narzędzi i dużych zbiorów danych, współpracy z doświadczonymi ekspertami z obszaru data science, aktuariatu i IT, realnego wpływu na procesy decyzyjne. Tryb pracy Praca hybrydowa (1 dzień w tygodniu praca z biura Klienta w Warszawie) Zakres obowiązków: Projektowanie i rozwój skalowalnych pipeline’ów przetwarzania danych (batch i streaming) Budowa oraz utrzymanie architektury Data Lake / Data Warehouse Integracja danych z różnych źródeł (API, bazy danych, systemy zewnętrzne) Optymalizacja wydajności procesów przetwarzania danych Współpraca z zespołem Data Science, BI oraz DevOps Dbanie o jakość, spójność i bezpieczeństwo danych Automatyzacja procesów ETL/ELT Oferujemy: Zyskujesz indywidualne wsparcie Service Delivery Managera, który pomoże Ci zaplanować ścieżkę kariery i zadba o Twój komfort i satysfakcję z pracy w projekcie Szkolenia, certyfikaty i konferencje - dofinansowujemy lub w pełni pokrywamy koszty rozwoju kompetencji technicznych SmartChange – umożliwiamy zmianę projektu i dobieramy kolejny zgodnie z Twoimi preferencjami Dbamy o Twój work-life balance, dlatego poza pracą oferujemy wyjścia integracyjne, aktywności sportowe i inspirujące webinary #edge1talks, które rozwijają i łączą ludzi Aktywność fizyczna – wspieramy sportowe inicjatywy i wynajem sal treningowych Pakiet zdrowotny – prywatna opieka, karta sportowa, ubezpieczenie i wsparcie psychologiczne (HearMe) Elastyczne benefity – sam decydujesz, na co przeznaczasz punkty w naszym systemie benefitowym Bezpłatne lekcje języka angielskiego – dopasowane do Twojego poziomu, idealne do pracy w międzynarodowym środowisku
Analityk biznesowo-systemowy
Nexio Management Sp. z o.o.
⚲ Warszawa, Mokotów
Wymagania
- BPMN
- UML
- Enterprise Architect
- SQL
- REST API
- SOA
- ESB
- Bazy danych
Nasze wymagania: wykształcenie wyższe – Informatyka/matematyka lub pokrewne minimum 3-letnie doświadczenie w pracy na stanowisku Analityka Biznesowego i/lub Analityka Systemowego, ew. w obszarze wsparcia aplikacyjnego IT, praktyczne doświadczenie w identyfikacji i zarządzaniu wymaganiami użytkowników i tworzeniu specyfikacji systemowych, znajomość zasad zarządzania projektami, znajomość procesu wytwarzania oprogramowania, znajomość relacyjnych baz danych: Oracle, Postgress, MSSQL, znajomość notacji UML i BPMN znajomość narzędzia Enterprise Architect, Mile widziane: doświadczenie zawodowe w sektorze finansowo – ubezpieczeniowym, znajomość architektury SOA, doświadczenie lub wiedza dotycząca rozwiązań wykorzystujących ESB, O projekcie: Dla naszego klienta, firmy z branży ubezpieczeniowej, poszukujemy osób do roli Analityka Biznesowo-Systemowego w ramach projektu rozwojowo-utrzymaniowego, systemu ubezpieczeniowego, wykorzystującego między innymi Big Data oraz AI Praca hybrydowa w wymiarze 1 dzień z biura w tygodniu Zakres obowiązków: Udział w przekrojowych projektach realizowanych przy udziale Departamentu IT Prowadzenie prac analitycznych z klientem wewnętrznym Współpraca z firmami zewnętrznymi w trakcie realizacji projektu Tworzenie specyfikacji wymagań biznesowych. Weryfikacja potrzeb biznesowych pod kątem możliwości implementacji w systemie Wypracowywanie nowych rozwiązań we współpracy z klientem biznesowym. Projektowanie rozwiązań technicznych w zakresie komponentów systemów oraz integracji we współpracy z Architektami Współpraca z programistami Zapewnienie jakości wytwarzanych produktów poprzez opracowanie założeń do testów i odbioru oprogramowania oraz wsparcie testów akceptacyjnych. Wsparcie przy organizacji i prowadzeniu testów. Oferujemy: Stabilność zatrudnienia – długofalowe projekty, współpraca z wiodącymi firmami, możliwość rozwoju w różnych obszarach branży IT. Elastyczne formy współpracy – umowa B2B, umowa o pracę lub zlecenie. Benefity: Medicover (rozszerzony o stomatologię), FitProfit, lekcje języka angielskiego. Treningi na siłowni F45 - zlokalizowanej w naszym biurze. Wspólnie ćwiczymy pod okiem profesjonalnych trenerów. Wewnętrzny program poleceń. Możliwość finansowania certyfikatów IT. W zależności od projektu pracujemy w trybie hybrydowym, zdalnym lub stacjonarnym. Wydarzenia okolicznościowe oraz wyjazdy integracyjne - budujemy zgrany zespól również poza biurem. Lubimy pomagać - wspieramy akcje charytatywne, takie jak Szlachetna Paczka, a w ramach #PomagamyNexio angażujemy się tam, gdzie naprawdę możemy coś zmienić.
Web Scraping Specialist
DevsData LLC
⚲ Warszawa, Ochota
6 000–12 500 zł netto (+ VAT) / mies.
Wymagania
- Python
- JavaScript
- HTML
- CSS
- AWS
- Microsoft Azure
- Google Cloud Platform
- MongoDB
Nasze wymagania: Independently capable of collecting data from sophisticated and dynamic web interfaces, with a proven track record shown through previous work samples. Strong programming skills in Python and JavaScript, with extensive experience using common data extraction toolkits and browser automation frameworks. Understanding of concurrent execution models (async/threading) and strategies for scalable, distributed data collection. Solid foundation in core web technologies: HTML structure, CSS selectors, client-side JavaScript, and DOM manipulation. Hands-on experience with schema-flexible databases (e.g., MongoDB) for designing optimal data storage and ensuring consistency. Experience applying ML techniques for tasks like data normalization, classification, or forecasting. Familiarity with major cloud platforms (AWS, GCP, Azure) for deploying and orchestrating large-scale data collection tasks. A demonstrated contribution to community-driven projects in the domains of data acquisition or processing is a plus. O projekcie: We’re looking for a Web Scraping Specialist to join a focused team. Your role will involve leading data-gathering initiatives, refining collection methodologies, and analyzing results. The ideal candidate will help us advance our mission to reshape how publicly available online information is accessed and utilized. Contract signed through EOR Zakres obowiązków: Script Development: Build, debug, and enhance reliable code to systematically collect data from the web. Complex Navigation: Solve technical challenges like pagination and AJAX/JavaScript-driven content loading during data retrieval. Data Processing: Clean, validate, and structure raw data into usable formats. Storage & Management: Implement and optimize database solutions for storing large volumes of collected data. System Maintenance: Monitor automated processes, perform root-cause analysis on failures, and ensure pipeline health. Oferujemy: Company-provided work equipment Fully paid sick leave Complimentary lunches Annual salary review 75% reimbursement for professional education Free weekly English classes
Team Leader IT – Database
SB SOFTWARE sp. z o.o.
⚲ Szczecin
Nasze wymagania: minimum 2 lata doświadczenia w zarządzaniu zespołem w środowisku B2B doświadczenie w projektowaniu i skalowaniu złożonych systemów danych bardzo dobra znajomość systemu PostgreSQL znajomość zagadnień High Availability znajomość systemów Linux doświadczenie projektowe związane z hurtowniami danych i procesami ETL dobra organizacja pracy i odpowiedzialność za powierzone zadania umiejętność budowania partnerskich relacji z zespołem i interesariuszami umiejętność pracy w dynamicznym środowisku i szybkiego reagowania na zmiany pro-aktywność oraz umiejętność udzielania konstruktywnego feedbacku bardzo dobra znajomość języka polskiego oraz języka angielskiego (min. B2) dyspozycyjność - wykonywanie zadań w siedzibie firmy (Szczecin) Mile widziane: doświadczenie zawodowe na stanowisku Programisty SQL lub w roli zbliżonej technicznie znajomość CI/CD oraz DWH doświadczenie w strojeniach i optymalizacji zapytań SQL umiejętność pracy z systemem kontroli wersji GIT doświadczenie w programowaniu w językach skryptowych w środowisku Linux O projekcie: Do naszego zespołu poszukujemy doświadczonej osoby, która połączy kompetencje techniczne z umiejętnościami liderskimi. Jeśli chcesz rozwijać zespół specjalistów bazodanowych, dbać o jakość procesów i mieć realny wpływ na kierunek rozwoju środowisk danych – aplikuj!. Zakres obowiązków: zarządzanie zespołem Database oraz zapewnienie ciągłości i bezpieczeństwa danych w środowiskach produkcyjnych odpowiedzialność za dostępność, wydajność i niezawodność platform bazodanowych budowanie dojrzałej współpracy pomiędzy zespołami developerskimi administratorskimi i biznesem w obszarze baz danych udzielanie regularnej informacji zwrotnej, ocena wyników i dbanie o rozwój kompetencji w zespole tworzenie i aktualizacja planów projektowych priorytetyzacja, monitorowanie i optymalizacja procesów bazodanowych i planowanie sprintów współtworzenie roadmapy technologicznej w obszarze baz danych nadzór nad standardami jakości i bezpieczeństwa danych Oferujemy: współpracę w modelu B2B ze zgranym i ambitnym zespołem (łącznie ponad 60 osób), w rozwijającej się branży w międzynarodowym środowisku realizację ciekawych zadań i ciągłość projektów możliwość wykorzystania i rozwijania swojego potencjału partnerskie podejście do współpracy mentoring na etapie wdrożenia nowoczesne biuro w centrum Szczecina swobodną atmosferę bez korporacyjnych standardów program rekomendacji pracowników work-life balance brak dress code'u spotkania integracyjne
TPM Master Data & Financial Integration Lead (f/m/x)
Sii Sp. z o.o.
⚲ Białystok, Centrum, Bydgoszcz, Gdańsk, Oliwa, Katowice, Kraków, Podgórze, Lublin, Łódź, Śródmieście, Piła, Poznań, Wilda, Rzeszów, Szczecin, Toruń, Warszawa, Mokotów, Wrocław, Fabryczna
Wymagania
- SAP MDM (Master Data Management)
- SAP Analytics Cloud
- SAP FI
- SAP
- SAP HANA
Nasze wymagania: At least 4 years of experience in Master Data Management and data governance within enterprise environments Practical knowledge of financial integration and data flows in TPM or related systems Understanding of TPM-relevant master data domains (customers, products, hierarchies) Experience in data migration, validation, and reconciliation activities Ability to collaborate effectively with business and IT teams Fluency in both: English and Polish Mile widziane: Experience in CPG/FMCG or trade promotion environments O projekcie: For a long-term international project, we are looking for an experienced specialist to lead Master Data Governance and Financial Integration streams within a TPM landscape. The role focuses on ensuring data consistency, financial alignment, and Go-Live readiness across TPM-relevant domains, working closely with both business and IT stakeholders. Zakres obowiązków: Definition and implementation of master data governance for TPM solutions Assurance of data consistency and integrity across key TPM data domains Alignment of data models and financial flows with business and IT stakeholders Support of data migration, validation, and reconciliation processes Leadership of testing activities and Go-Live readiness for MDM and FI streams Documentation of master data processes, rules, and control mechanisms Oferujemy: Great Place to Work since 2015 - it’s thanks to feedback from our workers that we get this special title and constantly implement new ideas Employment stability - revenue of PLN 2.1BN, no debts, since 2006 on the market We share the profit with Workers - over PLN 76M has already been allocated for this aim since 2022 Attractive benefits package - private healthcare, benefits cafeteria platform, car discounts and more Comfortable workplace – class A offices or remote work Dozens of fascinating projects for prestigious brands from all over the world – you can change them thanks to Job Changer application PLN 1 000 000 per year for your ideas - with this amount, we support the passions and voluntary actions of our workers Investment in your growth – meetups, webinars, training platform and technology blog – you choose Fantastic atmosphere created by all Sii Power People
Summer Internships – Engineering / Data
HSBC Technology Poland
⚲ Kraków
4 000 - 4 000 PLN (ZLECENIE)
Wymagania
- Engineering
- Data
- Cybersecurity
- Business analysis
O projekcie: About the project At HSBC, technology is at the core of our commitment to building a seamless, intuitive banking experience for customers worldwide, helping to drive innovation and operational excellence. As the financial world evolves, we use cutting-edge technologies to boost efficiency, simplify processes, and strengthen risk management, keeping us ahead in a changing landscape. Our internships in Engineering and Data will be your gateway to a dynamic and rewarding career, with plenty of support, a focus on your wellbeing and a variety of opportunities for learning, designed to set you up for a thriving future. Whatever your background, we’ll help you elevate and grow the skills you need to succeed in the role you choose. What we offer - Paid internship - Full time contract of practice - Hybrid working mode - Flexible working hours - Corporate parties & events - Secured place on our Graduate Programme the following year Join the next generation of tech talent at HSBC. After a submitted application, you can expect a virtual online assessment – checking your career preferences, a technical test (for engineering and data pathways), and an online interview. Wymagania: Our requirements - A penultimate-year student from any academic background, passionate about a career in technology, proficient in English and legally permitted to work in Poland. - Intellectually curious, constantly looking for new ways to hone your skills. - Eager to contribute and take responsibility for your work and outcomes. - A natural collaborator, who’s always happy to speak up, enjoys building relationships and sharing ideas. - Communicative and resilient, taking changes in your stride and quickly adapting to new situations. - A problem-solver, who likes to think innovatively and loves getting stuck into a challenge. - Eager to understand how the different parts of our business come together. - Comfortable working at speed and adapting to changing situations. - Excited by the prospects of making things faster, easier and more efficient. Codzienne zadania: - Our Engineering team is leading the bank’s digital transformation, ensuring that our global operations run on secure, efficient, and cutting-edge technology. By maintaining and optimising our technological infrastructure, the team helps drive HSBC’s continued innovation, enhancing both our internal systems and the services we provide to millions of customers worldwide. - Our Data team plays a pivotal role in helping us unlock the full potential of our data. By transforming vast amounts of information into meaningful insights, the team enables us to better understand our customers, so we can design innovative digital banking services tailored to their needs. This data-driven approach ensures that HSBC remains at the forefront of modern banking.
Specjalista / Specjalistka ds. analiz
Lotnicze Pogotowie Ratunkowe
⚲ Warszawa, Wola
Wymagania
- SQL
- Oracle
- PostgreSQL
Nasze wymagania: wyższe wykształcenie, min. 3 lata na podobnym stanowisku, doświadczenie w pracy z relacyjnymi bazami danych np. Oracle, PostgreSQL, umiejętność tworzenia zapytań SQL i programowania w PL/SQL, doświadczenie w analizie, przetwarzaniu i modelowaniu danych, znajomość języka angielskiego na poziomie umożliwiającym czytanie dokumentacji technicznej, umiejętność analitycznego myślenia, pracy zespołowej oraz samodzielnego rozwiązywania problemów. Mile widziane: szkolenia/kursy z obszaru baz danych, doświadczenie w pracy w projektach typu hurtownia danych, tworzenie i rozwój aplikacji w środowisku Oracle Apex. Zakres obowiązków: rozwój i utrzymanie modułu raportowego Systemu Wspomagania Dowodzenia Państwowego Ratownictwa Medycznego, tworzenie złożonych zapytań SQL i ich optymalizacja, obsługa zgłoszeń użytkowników w zakresie udostępniania danych, udostępnianie danych w trybie dostępu do informacji publicznej, tworzenie dokumentacji technicznej oraz dokumentacji dla użytkowników, współpraca z innymi działami / zespołami. Oferujemy: stabilne warunki zatrudnienia – umowę o pracę wymiar czasu pracy – pełen etat praca stacjonarna w wymiarze 7 godzin 35 minut miłą atmosferę pracy w profesjonalnym zespole pakiet benefitów (m. in. dofinansowanie do działalności sportowej, wczasów, bony świąteczne)
Siebel IT Operations Specialist
Capgemini Polska
⚲ Gdańsk, Poznań, Wrocław
Wymagania
- SQL
- Oracle
- Linux
Nasze wymagania: Experience with Siebel CRM (Operations/Administration/Support). Good SQL and database environment knowledge (Oracle preferred). Ability to work with logs and monitoring tools. Knowledge of ITIL processes (Incident/Problem/Change). Teamwork and communication skills. Mile widziane: Knowledge of Linux/Unix; Experience with CI/CD; Knowledge of SOA/OSB. O projekcie: The Capgemini Digital Customer Experience (DCX) helps global brands as well as public organizations to understand and implement the right mix of business focused digital capabilities and innovations following “Customer-First” approach to address both organization and customer needs. Projects include maintaining the CRM ecosystem and its integrations with back‑office systems. Tasks cover environment stabilization, development and optimization of operational processes, automation of monitoring and deployments. You will collaborate with development, integration and business teams. In our daily work we cultivate good communication and culture of feedback. Following the motto ”Get the future you want”, we offer a variety of learning and personal development opportunities. Zakres obowiązków: Monitoring and maintaining Siebel CRM environments. Incident analysis, diagnosing and resolving issues. Handling Change Management processes and supporting deployments. Supporting business users and project teams. Working with SQL, logs and monitoring tools. Collaboration on integrations (SOA/ESB). Creating operational and technical documentation. Oferujemy: Practical benefits: permanent employment contract from the first day; hybrid, flexible working model; equipment package for home office; private medical care with Medicover; life insurance; Capgemini Helpline; NAIS benefit platform. Access to 70+ training tracks with certification opportunities; platform with free access to Pluralsight, TED Talks, Coursera, Udemy Business and SAP Learning HUB. Community Hub that will allow you to choose from over 20 professional communities that gather people interested in, among others: Salesforce, Java, Cloud, IoT, Agile, AI.
Senior PostgreSQL Architect - Database Reliability Engineer
SQUARE ONE RESOURCES sp. z o.o.
⚲ Poznań, Wilda
160–185 zł netto (+ VAT) / godz.
Wymagania
- PostgreSQL
- Google Cloud Platform
- Azure DevOps
- Azure Cosmos DB
Nasze wymagania: Deep knowledge of PostgreSQL internals: MVCC, WAL, Autovacuum under load, Query Planner. Experience with large-scale databases (2TB+): partitioning, bloat management, zero-downtime operations. Multi-cloud and hybrid environment experience: Azure Database for PostgreSQL, Google Cloud SQL, Linux-based PostgreSQL instances. Software engineering approaches: infrastructure as code, automation via custom tools and scripts. Pragmatic technology mindset: selecting stable, proven solutions and making decisions based on technical and economic justification. O projekcie: We are looking for an engineer capable of designing and maintaining large-scale data systems (2TB+) while ensuring stability and cost efficiency. If your ideal system runs reliably because it was well-architected from the start, this role is for you. Our environment is hybrid (On-premise, Azure, GCP). This is not an incident-response administrator role — we are seeking an architect who will take ownership of the full data ecosystem, implement a Database-as-Code approach, and demonstrate that query optimization is the most effective way to reduce cloud costs (FinOps). Remote-first work with weekly presence in Poznań office (Thursday). Engagement planned at least until the end of 2026, with possible extension. Planned start: April 1, 2026. Zakres obowiązków: Build a central “Single Point of Truth” for database monitoring across the organization (Prometheus / Grafana / pganalyze). Transition from infrastructure-level monitoring to in-depth query analysis. Identify performance issues before they impact end-users. Audit key database instances for resource usage. Optimize costs through: configuration tuning, index design, query optimization, SQL refactoring. Support safe downsizing of cloud infrastructure (SKU Optimization). Design high-availability architectures for distributed systems (microservices). Standardize failover mechanisms. Automate backup and recovery procedures (PITR, pgBackRest). Build an environment with predictable, repeatable operational behavior. Automate the database lifecycle using Terraform and Ansible. Define architectural standards and patterns for development teams: schema design, security policies, backup and maintenance standards.
Senior Oracle APEX Developer – API and Web Applications
ITDS Polska Sp. z o.o.
⚲ Warszawa
16 800–22 050 zł / mies. (zal. od umowy)
Wymagania
- Oracle
- JavaScript
- PL/SQL
- HTML
- CSS
Nasze wymagania: Minimum of 5 years of experience in Oracle database development and APEX application design. Strong knowledge of JavaScript, PL/SQL, HTML/CSS, and Oracle technologies. Fluent in both Polish and English, with excellent communication skills. Proven ability to work independently in a remote environment. Mile widziane: Experience with REST API development and integration. Knowledge of Apex Office Print plugin. Certifications in Oracle APEX or related technologies. O projekcie: As a Senior Oracle APEX Developer, you will be working for our client, a leader in innovative web application development for sales network management. You will help build and optimize a dynamic platform that streamlines intermediary sales processes, utilizing cutting-edge Oracle and API technologies to empower business growth and operational excellence. This role offers a unique chance to drive impactful digital transformation from anywhere in Europe. Unleash the Power of Data – Shape the Future of Digital Commerce! Warsaw-based opportunity with remote work model (up to 5 days per week). Only candidates with an existing legal right to work in the European Union will be considered for this role. Zakres obowiązków: Design, develop, and maintain web applications using Oracle APEX for sales network settlements. Integrate REST API services, external databases, and third-party plugins to deliver seamless user experiences. Recreate and optimize forms, reports, and functionalities migrating from legacy thick clients. Implement email alerts, print modules, two-factor authentication, and advanced reporting features. Collaborate with cross-functional teams to translate business requirements into scalable technical solutions. Ensure high-quality, efficient, and secure code following best practices. Troubleshoot, debug, and resolve technical issues impacting application performance. Document technical specifications and participate in code reviews to ensure maintainability. Oferujemy: Stable and long-term cooperation with very good conditions Enhance your skills and develop your expertise in the financial industry Work on the most strategic projects available in the market Define your career roadmap and develop yourself in the best and fastest possible way by delivering strategic projects for different clients of ITDS over several years Participate in Social Events, training, and work in an international environment Access to attractive Medical Package Access to Multisport Program Access to Pluralsight Flexible hours
Senior ODI Developer with SQL (f/m/x)
Sii Sp. z o.o.
⚲ Warszawa, Mokotów
Wymagania
- SQL
- BI
- ETL
- ODI
- Oracle Applications
- PL/SQL
- Java
- Oracle Cloud
Nasze wymagania: Minimum 5 years of experience with Oracle / SQL development, ETL, and ODI Proficiency with Oracle architecture and tools (WebLogic, SOA Suite, PL/SQL) Strong knowledge of scripting, queries, and database best practices Experience with BI and interface design, and development Bachelor’s or Master’s degree in IT or related field Fluent English Residing in Poland required Mile widziane: Knowledge of OutSystems and Java Experience with Oracle Cloud or AWS RDS for Oracle O projekcie: In this role you will enhance and expand the client’s custom CRM/ERP applications within the main leasing platform. In this role, you will design, develop, and optimize ETL processes using Oracle ODI, ensuring scalable, maintainable, and secure solutions. You will be part of an agile squad collaborating across geographies to deliver high-quality results. This role requires working from the client’s office 2 days a week. Zakres obowiązków: Designing and developing ETL solutions with Oracle ODI Supporting CRM/ERP platform development and maintenance Implementing secure, scalable, and testable software solutions Clarifying requirements and conducting pre-project studies Optimizing existing code and improving maintainability Creating and executing test strategies, supporting deployments Maintaining documentation and ensuring compliance with best practices Oferujemy: Great Place to Work since 2015 - it’s thanks to feedback from our workers that we get this special title and constantly implement new ideas Employment stability - revenue of PLN 2.1BN, no debts, since 2006 on the market We share the profit with Workers - over PLN 76M has already been allocated for this aim since 2022 Attractive benefits package - private healthcare, benefits cafeteria platform, car discounts and more Comfortable workplace – class A offices or remote work Dozens of fascinating projects for prestigious brands from all over the world – you can change them thanks to Job Changer application PLN 1 000 000 per year for your ideas - with this amount, we support the passions and voluntary actions of our workers Investment in your growth – meetups, webinars, training platform and technology blog – you choose Fantastic atmosphere created by all Sii Power People
Senior Kafka Engineer
Mindbox Sp. z o.o.
⚲ Kraków
24 000–30 000 zł netto (+ VAT) / mies.
Wymagania
- Kafka
- Apache Kafka
- Confluent Kafka
- GitHub
- Jira
- Confluence
- Jenkins
- Ansible
- Puppet
- DataDog
- NewRelic
- Prometheus
- Grafana
Nasze wymagania: Strong understanding of Kafka architecture and experience with cluster maintenance and security. Hands-on experience with Apache Kafka and Confluent Kafka. Familiarity with Infrastructure as Code and automation-first principles. Experience with DevOps tools: GitHub, JIRA, Confluence, Jenkins. Knowledge of automation tools: Ansible, Puppet, or similar. Experience with observability tools: DataDog, NewRelic, Prometheus, Grafana. Strong problem-solving, analytical, and communication skills. O projekcie: Are you passionate about building and maintaining high-performance messaging platforms? We are looking for a Senior Kafka Platform Engineer to manage and ensure the operational excellence of Kafka clusters running in a Kubernetes environment. Sounds like your kind of challenge? Hybrid working model - 6 days per month from the Kraków office. Zakres obowiązków: Provide expertise in Kafka brokers, zookeepers, Kafka Connect, schema registry, KSQL, Rest Proxy, and Kafka Control Center. Manage and optimize Kafka Connect using schema registry in high-volume environments. Administer and operate the Kafka platform, including provisioning, Kerberos and SSL configurations, and access control. Work with various Kafka connectors (MQ, ElasticSearch, JDBC, File Stream, JMS) and custom connectors using Kafka APIs. Create topics, set up redundancy clusters, deploy monitoring tools, and configure alerts for producers, consumers, and consumer groups. Conduct root cause analysis of production incidents and implement proactive measures to enhance system reliability. Automate routine tasks using scripts or automation tools; perform benchmarking, performance analysis, and tuning. Note: Detailed project information will be shared during the recruitment process. Oferujemy: Flexible cooperation model – choose the form that suits you best (B2B, employment contract, etc.) Hybrid work setup – remote days available depending on the client’s arrangements Collaborative team culture – work alongside experienced professionals eager to share knowledge Continuous development – access to training platforms and growth opportunities Comprehensive benefits – including Interpolska Health Care, Multisport card, Warta Insurance, and more High quality equipment – laptop and essential software provided
Senior IT Operations Engineer
B2B.NET S.A.
⚲ Gdańsk, Gdynia, Warszawa
Wymagania
- Data Stage
- Oracle
- SQL
Nasze wymagania: Bardzo dobra znajomość Oracle Database oraz SQL (w tym stored procedures) Doświadczenie w pracy z procesami i narzędziami ETL (mile widziane IBM DataStage lub podobne) Praktyczna wiedza z zakresu automatyzacji procesów operacyjnych (np. Jenkins, Docker, Kubernetes) Doświadczenie w monitoringu, diagnostyce oraz rozwiązywaniu problemów aplikacyjnych Znajomość zagadnień wysokiej dostępności (HA) oraz integracji danych między systemami Umiejętność pracy w złożonym środowisku technologicznym Proaktywne podejście do usprawnień i automatyzacji Odpowiedzialność za działania operacyjne end-to-end Umiejętność skutecznej współpracy z zespołami technicznymi i biznesowymi O projekcie: Do zespołu odpowiedzialnego za utrzymanie i rozwój krytycznego systemu przetwarzania danych poszukujemy osoby na stanowisko IT Operations Senior. Rola koncentruje się na zapewnieniu stabilności, niezawodności i automatyzacji procesów operacyjnych, w szczególności w obszarze ETL oraz integracji danych pomiędzy systemami. Stanowisko zakłada ścisłą współpracę z zespołami developerskimi w modelu DevOps oraz realny wpływ na optymalizację środowiska produkcyjnego. Zakres obowiązków: Zapewnienie operacyjnego wsparcia dla aplikacji przetwarzającej i udostępniającej dane do wielu systemów Utrzymanie, analiza i optymalizacja procesów ETL Projektowanie, implementacja oraz rozwój automatyzacji procesów operacyjnych (skrypty, harmonogramy, monitoring) Monitorowanie środowiska, analiza incydentów oraz eliminowanie przyczyn źródłowych problemów Optymalizacja rozwiązań bazodanowych i integracyjnych Współpraca z zespołami developerskimi w zakresie wdrożeń i usprawnień (CI/CD, DevOps) Dbanie o wysoką dostępność, stabilność oraz wydajność systemu
Senior Developer (Data / Machine Learning)
B2B.NET S.A.
⚲ Warszawa
Wymagania
- Python
- Apache Spark
Nasze wymagania: minimum 5 lat doświadczenia w rozwoju oprogramowania lub inżynierii danych doświadczenie w pracy w zespołach developerskich doświadczenie w projektowaniu i wdrażaniu systemów produkcyjnych oraz rozwiązań analitycznych doświadczenie w projektach związanych z uczeniem maszynowym lub systemami rekomendacyjnymi znajomość zagadnień związanych z wydajnością, skalowalnością i dostępnością systemów dobra znajomość języka Python w kontekście przetwarzania danych i automatyzacji procesów doświadczenie z narzędziami do przetwarzania danych w czasie rzeczywistym (np. Kafka, Flink, Spark Streaming lub podobne) doświadczenie z narzędziami orkiestracji przepływów danych (np. Apache Airflow, Argo Workflows) znajomość frameworka Apache Spark znajomość baz danych NoSQL (np. Redis, FoundationDB, MongoDB) lub analitycznych baz kolumnowych (np. ClickHouse) znajomość wzorców architektonicznych i projektowania skalowalnych systemów O projekcie: Poszukujemy osoby na stanowisko Senior Developer do udziału w projekcie badawczo-rozwojowym związanym z analizą dużych zbiorów danych, budową modeli predykcyjnych oraz optymalizacją procesów przetwarzania danych. Osoba na tym stanowisku będzie współpracować z zespołem technicznym przy projektowaniu, rozwoju i optymalizacji rozwiązań wykorzystujących nowoczesne technologie przetwarzania danych oraz algorytmy uczenia maszynowego. Zakres obowiązków: rozwój i utrzymanie kodu w systemach analizy danych oraz modelach predykcyjnych tworzenie, testowanie i debugowanie kodu oraz optymalizacja istniejących rozwiązań utrzymanie repozytoriów kodu, przegląd istniejących rozwiązań i identyfikacja obszarów wymagających usprawnień współpraca z zespołem developerskim przy projektowaniu i rozwijaniu nowych funkcjonalności tworzenie i rozwijanie prototypów aplikacji wspierających analizę danych i procesy predykcyjne udział w rozwoju algorytmów analitycznych oraz automatyzacji procesów przetwarzania danych diagnozowanie i rozwiązywanie problemów pojawiających się w trakcie rozwoju systemów współpraca z zespołem projektowym przy analizie danych oraz interpretacji wyników modeli
Senior Data Scientist – Marketing Experimentation & Incrementality
SQUARE ONE RESOURCES sp. z o.o.
⚲ Warszawa, Mokotów
160–190 zł netto (+ VAT) / godz.
Wymagania
- Python
- synthetic control
Nasze wymagania: Minimum 5 lat doświadczenia w Data Science, w tym w eksperymentach i wnioskowaniu przyczynowo-skutkowym. Znajomość metod: synthetic control, geo experiments, RCT, power analysis. Biegłość w Pythonie. Umiejętność przekładania pytań biznesowych na odpowiednie metody testowe. Dobre zdolności komunikacyjne i współpracy w zespole. O projekcie: Poszukujemy Senior Data Scientist, który dołączy do projektu skoncentrowanego na planowaniu, realizacji i analizie eksperymentów marketingowych oraz testów efektywności (incrementality). Projekt wymaga zaawansowanej wiedzy metodologicznej w celu wsparcia strategicznych decyzji marketingowych. Zakres obowiązków: Projektowanie, prowadzenie i analiza testów marketingowych i incrementality. Stosowanie zaawansowanych metod: synthetic control, geo experiments, RCT, power analysis. Tworzenie narzędzi analitycznych w Pythonie (notebooks, skrypty, biblioteki). Dokumentowanie playbooków testowych dla różnych scenariuszy biznesowych. Ustanawianie standardów i procesów eksperymentów marketingowych. Wsparcie zespołu Data Science w kwestiach metodologicznych. Oferujemy: Praca 100% zdalna Zatrudnienie na B2B
Senior Data Scientist [Growth]
NTIATIVE sp. z o.o.
⚲ Warszawa
Wymagania
- Python
- R
- SQL
Nasze wymagania: Proven experience in data science, preferably within growth or marketing analytics Strong proficiency in statistical analysis, machine learning, and data modelling Expertise in Python, R, SQL, and relevant data science tools Ability to work collaboratively with cross-functional teams and communicate insights clearly Experience in A/B testing and experimental design Strong problem-solving skills and a results-oriented mindset Bachelor’s or Master’s degree in a quantitative field such as Computer Science, Statistics, Mathematics, or related disciplines O projekcie: The company is a leading provider in the meal kit delivery industry, dedicated to making home cooking accessible, enjoyable, and convenient for customers worldwide. With a strong focus on innovation and sustainability, the organisation aims to revolutionise the way people approach food by delivering fresh, high-quality ingredients paired with easy-to-follow recipes. Its mission centres on empowering individuals and families to eat healthier and reduce food waste, while maintaining a commitment to environmental responsibility and excellent customer service. The company values creativity, collaboration, and continuous improvement, fostering a dynamic workplace culture that encourages growth and innovation. Zakres obowiązków: The Senior Data Scientist will play a pivotal role in driving customer acquisition, retention, and overall business growth through advanced data analytics and machine learning techniques. This position involves working closely with cross-functional teams including marketing, product, and engineering to develop data-driven strategies that optimise growth initiatives. The successful candidate will analyse large datasets to uncover insights, build predictive models, and test hypotheses to enhance user engagement and conversion rates. Oferujemy: B2B cooperation 25 days of paid vacation Hybrid work model – 3 days per week in the office/ Warsaw
Senior Data Scientist
PKO Bank Polski SA
⚲ Warszawa, Wola
Wymagania
- Python
- Google Cloud Platform
- Linux
- Bash
- Git
Nasze wymagania: masz wiedzę i doświadczenie w machine learning i przetwarzaniu danych, posiadasz wykształcenie wyższe, jesteś osobą samodzielną, dobrze zorganizowaną, proaktywną i kreatywną, chcesz się dalej rozwijać i podnosić swoje kwalifikacje. Zakres obowiązków: budujesz modele NLP - deep learning/transformery/large language models za pomocą PyTorch, tworzysz modele ML/AI [problemy klasyfikacyjne/regresyjne/analizy przestrzenne GEO /sieci społeczne] - od prototypowania do produkcji, zajmujesz się utrzymaniem, monitorowaniem oraz ewaluacją modeli ML w czasie [fabryka modeli], przeprowadzasz detekcję zdarzeń o dużej mocy predykcyjnej, budujesz kompleksowe przepływy danych i ML [AirFlow], optymalizujesz działanie silnika decyzyjnego sterującego dystrybucją leadów kampanijnych, uczestniczysz w innowacyjnych projektach, np. hiperpersonalizacji (m.in. z użyciem GenAI). Oferujemy: abonament Coursery, DataCamp, zgrany zespół! Mistrzowie ligi w piłkarzyki.
Senior Data Platform Engineer
Motife Sp. z o.o.
⚲ Warszawa, Wola
22 500–26 000 zł brutto / mies.
Wymagania
- PostgreSQL
- MySQL
- DynamoDB
- Python
- AWS
Nasze wymagania: 5+ years of professional software engineering experience building production backend systems. Strong experience with relational databases such as PostgreSQL or MySQL, including schema design, indexing, and query optimization. Experience working with NoSQL datastores such as DynamoDB, Redis, Elasticsearch, or Memcache. Solid understanding of distributed systems fundamentals, including latency, replication, consistency models, and scaling strategies. Experience building and operating services in cloud environments (preferably AWS). Experience designing systems where data performance, reliability, and modelling are critical. Exposure to data pipelines, event-driven architectures, or systems interacting with streaming or batch processing frameworks. Ability to work cross-functionally with service teams to improve system design and data access patterns. Strong problem-solving skills with a focus on performance, scalability, and reliability. Clear communication skills and a collaborative engineering approach. O projekcie: We are hiring on behalf of our client, a global innovator in fitness and wellness technology. Their mission is to empower people to live fit, strong, long, and happy lives by delivering integrated experiences to millions of members anytime, anywhere. We are looking for a Senior Data Platform Engineer to join the Datastores team. This team is responsible for building and operating the core data persistence layer used by application services across the organization. In this role, you will design and improve the systems that store, access, and scale critical data across distributed services. It is a hands-on engineering position where you will work at the intersection of backend engineering, platform reliability, and cloud-native data infrastructure. Your work will directly influence the scalability, performance, and reliability of the company’s global data ecosystem. Key takeaways: Stack: Python, PostgreSQL, MySQL, DynamoDB, Redis, Elasticsearch, AWS, Terraform Zakres obowiązków: Design, build, and operate backend systems that rely on scalable and highly available data persistence layers. Contribute to architectural decisions around distributed data systems, multi-region persistence, and global scalability. Improve the reliability and performance of production datastores used by critical services. Partner with service teams to improve database schema design, query performance, and data modelling. Optimize data access patterns and indexing strategies for relational and NoSQL databases. Support teams in designing systems that scale efficiently under high load. Build and maintain self-service tooling that enables engineers to provision and manage databases and caching layers. Contribute to infrastructure automation using tools such as Terraform and internal developer platforms. Improve observability and operational insight into datastore performance and reliability. Implement monitoring, metrics, and tracing strategies to improve visibility into production data systems. Develop autoscaling and performance optimization strategies for critical data infrastructure. Support operational excellence by reducing manual processes and improving system resilience. Oferujemy: 100% paid medical care Multisport Creative tax (KUP) Home office allowance MacBook Pro
Senior Data Engineer with AWS and GCP
SQUARE ONE RESOURCES sp. z o.o.
⚲ Warszawa
130–170 zł netto (+ VAT) / godz.
Wymagania
- Google Cloud Platform
- AWS
- PL/SQL
- Python
- Java
- Scala
- Jenkins
- GitLab
- Kubernetes
- Terraform
- BigQuery
- Dataflow
- S3
- Glue
- Redshift
- Oracle
- SQL
- Apache Airflow
- DBT
Nasze wymagania: Strong experience with cloud data services on both Google Cloud Platform (GCP) and Amazon Web Services (AWS) e.g. BigQuery, Pub/Sub, Dataflow, S3, Glue, Redshift Expertise in Oracle SQL, PL/SQL, and working with complex stored procedures and large datasets Proficiency in programming languages such as Python, Java, or Scala Experience with streaming and messaging systems (e.g. Jenkins, GitLab), and container orchestration (Kubernetes) Deep understanding of data modelling, data warehousing, and ETL/ELT design patterns Familiarity with Agile development practices (Scrum, Kanban, Jira) Exposure to financial markets, trading systems, or related high-performance environments Mile widziane: Knowledge of regulatory reporting, market data, or trade surveillance systems Experience with Apache Airflow, DBT, or similar orchestration tools Understanding of data security practices and compliance frameworks O projekcie: START DATE: 16/03 An international consulting firm that helps companies of all sizes have a better impact on the world. Company capabilities focus on supporting the private and public sectors with their people, processes, and digital technology challenges. You will be part of a team designing and implementing data pipelines across multi-cloud environments for an international consulting firm. The role includes transforming workflows between cloud data services and Oracle databases, optimizing performance and collaborating with teams using Agile/Scrum methodologies. Zakres obowiązków: Design and implement scalable and secure data pipelines across multi-cloud (GCP & AWS) environments Develop integration and transformation workflows between cloud data services and on-prem Oracle databases Work closely with trading, risk, and analytics teams to understand data requirements and deliver real-time and batch data solutions Optimise and monitor performance of data systems to support latency-sensitive trading applications Collaborate with cross-functional teams using Agile/Scrum methodologies to deliver business-critical data projects, provide technical assistance to the team Ensure robust data governance, lineage, and compliance (including MiFID II, FCA, and other regulatory standards) Automate data workflows using Terraform, CI/CD pipelines, and containerisation tools (Docker/Kubernetes)
Senior Data Engineer - Global Data Products
HelloFresh
⚲ Warszawa
Wymagania
- Python
- SQL
- Apache Spark
Nasze wymagania: Extensive experience of engineering fundamentals and able to design, implement and deliver maintainable and high-quality code Track record of delivering scalable, production-ready solutions Mastery of SQL and query optimization techniques Strong problem-solving acumen Proficiency in Python stack Exceptional technical background and a demonstrated clear impact on achieving business goals Strong written and verbal communication skills, ability to build effective communication structures in a fast-growing engineering organization Extensive experience with Apache Spark or equivalent Mile widziane: Demonstrated ability to use Generative AI tools (Copilot, Gemini, etc.) to accelerate data engineering tasks like scripting, query optimization, and documentation. A continuous-learning mindset with an active interest in how AI is reshaping modern data stacks and architectures. Zakres obowiązków: Build and maintain complex and scalable ETL pipelines Work closely with the data producers and software developers Collaborate closely with different stakeholders such as Marketing, Product Analytics, etc. Drive data quality and governance Work together with our cross-organizational data engineering chapter to adapt the latest tools and techniques to the needs of HelloFresh. Oferujemy: Global collaboration at scale: Collaborate with experienced engineers and product partners across HelloTech’s international teams, in a culture of active knowledge sharing. Technology with real-world impact: Build and operate modern systems at global scale, supporting 6+ millions of customers and complex supply chain operations. Technical/Product/Design leadership: Drive best practices and influence architecture/design, quality, and ways of working in an autonomous, product-led setup. End-to-end development/delivery: Drive decisions from problem definition to production, improving systems and enabling long-term scalability. Access to workspace at Warsaw Centre Point: The hub offers modern facilities including showers, breakout zones, outdoor space, cycle parking, and refreshments (coffee, soft drinks, and fruit).
Senior Data Engineer (Python & Databricks)
Cyclad
⚲ Warszawa
140–160 zł netto (+ VAT) / godz.
Wymagania
- Python
- PySpark
- SQL
- Databricks
- Delta Lake
- Azure Data Factory
- Azure DevOps
- Git
- Microsoft Power BI
Nasze wymagania: Very strong Python and PySpark skills; proven experience with Databricks and Delta Lake Experience working in large, shared codebases (beyond notebooks) Strong SQL skills, especially reading and understanding complex logic Solid object-oriented programming experience, clean code principles Strong data modelling background (transactional and analytical) Experience in redesigning models during platform migrations Familiarity with layered data architectures (Bronze / Silver / Gold) Very good English skills Mile widziane: Azure Data Factory (orchestration) Azure DevOps, Git, CI/CD pipelines Power BI or analytics tooling Infrastructure / DevOps knowledge (not mandatory) O projekcie: In Cyclad we work with top international IT companies in order to boost their potential in delivering outstanding, cutting-edge technologies that shape the world of the future. We are seeking an experienced Senior Data Engineer with Python and Databricks. This role supports a large-scale transformation from SQL Server–based systems to a Databricks / Delta Lake platform. The focus is on enterprise-grade data engineering and software development, not analytics or reporting. The project is SQL2Databricks migration, it involves 3500-4000 SQL DBs (2TB), replicating data in different shapes/ schemas to Databricks. Type of project: IT Services Office location: Poland Work model: Remote from Poland Budget: 140 - 160 PLN net/ h - b2b Project length: till the end of 2026, possible to extend it Only candidates with citizenship in the European Union and residence in Poland Start date: ASAP Zakres obowiązków: Support a large-scale transformation from SQL Server–based systems to a Databricks / Delta Lake platform Transform complex, business-critical SQL logic (stored procedures) into clean, maintainable, and scalable Python / PySpark code Redesign and implement this logic in Python / PySpark within Databricks Contribute to a large, long-running data engineering codebase used by multiple teams Develop production-grade transformation code (packages, modules, reusable components) Design and evolve data models within a Medallion Architecture (Bronze / Silver / Gold) across multiple data layers Ensure software engineering quality, reusability, and long-term maintainability Apply software engineering best practices (clean code, OOP, modularization, refactoring) Work with very large data volumes and highly parallel, event-driven transformations Actively participate in code reviews and technical design discussions Support orchestration workflows (e.g., Azure Data Factory) Oferujemy: Remote working model Full-time job agreement based on b2b and employment contract Private medical care with dental care (covering 70% of costs) + rehabilitation package. Family package option possible Multisport card (also for an accompanying person) Life insurance
Senior Data Engineer
B2B.NET S.A.
⚲ Gdańsk, Gdynia, Warszawa
Wymagania
- Scala
- big data
- spark
- Kafka
- AWS
- Snowflake Data Cloud
Nasze wymagania: Scala Spark Big Data Ecosystem (Hadoop stack: YARN, EMR, Sqoop, Hive, etc.) Kafka – podstawowy exp Impala Mile widziane: AWS Snowflake O projekcie: Projekt realizowany jest w obszarze Group Financial Crime Prevention i skupia się na budowie nowoczesnej platformy danych wspierającej wykrywanie przestępstw finansowych. Zespół odpowiada za rozwój pipeline’ów Big Data oraz aplikacji streamingowych, które integrują dane z wielu źródeł – zarówno wewnętrznych systemów, jak i zewnętrznych dostawców danych. Zakres obowiązków: Projektowanie i rozwój rozproszonych pipeline’ów Big Data przetwarzających duże wolumeny danych (structured & unstructured). Tworzenie aplikacji streamingowych integrujących dane z wielu źródeł. Wykorzystanie Apache Spark i Scala do transformacji, wzbogacania i przetwarzania danych. Budowa pipeline’ów danych wykorzystywanych w analityce, wizualizacji danych oraz systemach AML. Integracja systemów opartych o Kafka i Hadoop ecosystem. Współpraca z zespołami DevOps w zakresie CI/CD oraz deploymentu pipeline’ów danych. Udział w procesie Continuous Delivery oraz pracy w metodykach Agile. Zapewnienie wysokiej jakości kodu oraz skalowalności rozwiązań.
Senior Data Engineer
SQUARE ONE RESOURCES sp. z o.o.
⚲ Warszawa
130–160 zł netto (+ VAT) / godz.
Wymagania
- AWS
- Snowflake
- DBT
- Witboost
- Dreamio
- Microsoft Azure
Nasze wymagania: Minimum 5+ years of experience in Data Engineering Experience across multiple large-scale assignments of varying complexity Proven hands-on delivery of pipelines and data products using: AWS, Azure, Snowflake, dbt, Witboost, Dreamio Strong expertise in dbt and modern ELT/ETL practices Experience with CI/CD pipelines and automated testing in data environments Experience working within Data Mesh setups Practical application of DataOps principles in production Strong understanding of: Data governance, Data contracts, Data modeling patterns, Reusable standards / golden paths Mile widziane: Experience acting as a technical or delivery lead in cross-functional teams Experience enabling domain teams and supporting ownership transition Strong stakeholder communication skills in distributed environments O projekcie: We are currently looking for Senior Data Engineers to join our Swedish customer within the automotive industry. Zakres obowiązków: Build, maintain, and optimize ETL/ELT processes in AWS, Azure, and Snowflake environments. Implement transformations and workflows using dbt and other relevant tools. Ensure data is accessible, accurate, and consistent across the organization. Monitor pipeline performance and respond quickly to production issues. Automate data testing and deployment processes. Maintain high code quality and DevOps standards for the data team.
Senior Data Engineer
ZS.com
⚲ Warszawa
Wymagania
- Hadoop
- Apache Kafka
- RabbitMQ
- AWS
- Microsoft Azure
- Google Cloud Platform
- MongoDB
- Cassandra
- SQL
- Python
- Java
- Scala
Nasze wymagania: A relevant Bachelors or higher-education degree in Computer Science, Data Science, or related fields. Minimum 3+ relevant industry experience with big data - Hive, Spark, Hadoop, queueing system like Apache Kafka/Rabbit MQ/AWS Kinesis. Hands-on experience in building metadata driven, reusable design patterns for data pipeline, orchestration, ingestion patterns (batch, real time). Experience in designing and implementation solutions on distributed computing and cloud services platforms (but not limited to) - AWS, Azure, GCP. Hands on experience building CI/CD pipelines and awareness of practices for application monitoring. Proficiency in programming languages such as Python, Java, or Scala. Experience with big data technologies (e.g., Hadoop, Spark, Kafka). Familiarity with cloud-based systems (e.g., AWS, Azure). Knowledge of data integration and ETL tools (e.g., Talend, Informatica, Apache NiFi). Good Expertise on Data Ingestion, Data Storage, Orchestration, Data Fabric, Error logging and Auditing, Job Monitoring, data management on Cloud preferably Azure or AWS. Good knowledge of Azure Databricks and/or AWS EMR. Good understanding of Data warehousing concepts and best practices. Strong in at least one of the Programming languages - Python or Java, Scala, etc. and Programming basics - Data Structures. Strong communications skills. Zakres obowiązków: Design and build robust data models that align with business requirements. Create scalable data architectures that accommodate growth and evolving data needs. Develop and maintain data pipelines that facilitate seamless data flow from various sources to data warehouses or storage systems. Optimize ETL (Extract, Transform, Load) processes for efficiency and reliability. Implement and manage data storage solutions, including relational databases (e.g., SQL, PostgreSQL) and non-relational databases (e.g., MongoDB, Cassandra). Set up and maintain data lakes for large-scale data storage. Debug code issues / bugs using stack traces, logs, monitoring tools, and other resources. Ensure data consistency and accuracy through validation and cleansing techniques. Collaborate with cross-functional teams to address data-related issues. Design and implement technical features leveraging best practices for technology stack being used. Write production-ready code that is easily testable, understood by other developers and accounts for edge cases and errors. Ensure highest quality of deliverables by following architecture/design guidelines, coding best practices, periodic design/code reviews and performing code/script reviews of senior engineers in the team. Write unit tests as well as higher level tests to handle expected edge cases and errors gracefully, as well as happy paths. Stay updated on industry trends and best practices in data engineering. Provide guidance on data engineering tools, technologies, and methodologies. Implement complex features with limited guidance from the engineering lead. For example: service or application-wide change. Research & evaluate the latest technologies through rapid learning, conducting proof-of-concepts and creating prototype solutions. Work closely with clients to understand their data engineering requirements Design and implement best-in-class data engineering solutions tailored to client projects. Break down large features into estimable tasks, leads estimation and can align with clients. Mentor junior Data Engineers, fostering their growth and skill development. Collaborate with other technical teams to integrate data solutions seamlessly. Participate in scrum calls and agile ceremonies, and effectively communicate work progress, issues, and dependencies. Collaborate with client facing teams to understand solution context and contribute in technical requirement gathering and analysis. Work with technical architects on the team to validate design and implementation approach. Oferujemy: Perks & Benefits: ZS offers a comprehensive total rewards package including health and well-being, financial planning, annual leave, personal growth and professional development. Our robust skills development programs, multiple career progression options and internal mobility paths and collaborative culture empowers you to thrive as an individual and global team member. We are committed to giving our employees a flexible and connected way of working. All employees are expected to work from the office at least once per week. For those based outside of Warsaw, attendance will be required on specific days or for team events, which are anticipated to take place approximately two days per month. The magic of ZS culture and innovation thrives in both planned and spontaneous face-to-face connections. Travel: Travel is a requirement at ZS for client facing ZSers; business needs of your project and client are the priority. While some projects may be local, all client-facing ZSers should be prepared to travel as needed. Travel provides opportunities to strengthen client relationships, gain diverse experiences, and enhance professional growth by working in different environments and cultures.
Senior Data / ML Engineer
B2B.NET S.A.
⚲ Gdańsk, Warszawa
120–160 zł netto (+ VAT) / godz.
Wymagania
- Python
- Apache Spark
- AWS
- SQL
- Hadoop
Nasze wymagania: Min. 5 lat doświadczenia w Pythonie i Apache Spark AWS ML SQL (Spark/Hive SQL) Hadoop (big data) O projekcie: Projekt dotyczy rozwoju platformy danych i machine learning w dużej organizacji, gdzie budowane są skalowalne rozwiązania analityczne oparte na technologii Spark, Python oraz usługach chmurowych AWS. Zespół pracuje nad rozwojem pipeline’ów danych oraz wdrażaniem modeli ML wykorzystywanych w wielu obszarach biznesowych. Zakres obowiązków: Zarządzanie pełnym cyklem życia modeli ML – od developmentu po deployment i monitoring Wdrażanie praktyk MLOps (CI/CD, testowanie modeli, monitoring, automatyzacja pipeline’ów) Budowa i utrzymanie pipeline’ów danych w Python i Apache Spark Przetwarzanie dużych wolumenów danych (structured i unstructured) w trybie batch i near real-time Rozwój rozproszonych pipeline’ów big data o wysokiej wydajności i skalowalności Wykorzystanie Spark do transformacji i wzbogacania danych na potrzeby analityki i wizualizacji Współpraca z data scientistami, DevOps oraz zespołami IT Współpraca z analitykami i biznesem przy tworzeniu modeli analitycznych Rozwój i optymalizacja praktyk oraz bibliotek MLOps Exploracja i rozwój rozwiązań AI/ML w środowisku chmurowym
Senior Cloud Engineer
ZS.com
⚲ Warszawa
Wymagania
- AWS
- Microsoft Azure
- Google Cloud Platform
- Terraform
- Python
- PowerShell
- JavaScript
- Azure DevOps
- Jenkins
- GitHub
- Ansible
- Kubernetes
- Docker
- Bash
Nasze wymagania: A relevant Bachelors or higher-education degree in Computer Science, Data Science, or related fields. 3 to 5+ years of hands-on experience in cloud engineering, infrastructure, or related roles. Preferred certifications in cloud platforms (e.g., AWS, Azure, GCP). Deep understanding of the Azure platform, services, and features, including Azure Compute, Storage, and Networking. Proficiency in programming languages such as Python, JavaScript, or PowerShell for automation and scripting. Expertise in cloud security, including configuring security protocols, managing security services, and ensuring compliance. Familiarity with DevOps practices and tools (e.g., Azure DevOps, GitHub, Jenkins) for CI/CD and infrastructure as code. Strong understanding of networking principles and protocols, and experience in designing cloud networking solutions. Proficiency in at least one major cloud platform (AWS, Azure, or Google Cloud). Familiarity with containerization (Docker, Kubernetes) and serverless computing. Strong scripting skills (Python, PowerShell, Bash) for automation and orchestration. Knowledge of DevOps practices and tools. Ability to travel to other client offices or locations as needed. Strong communications skills. Zakres obowiązków: Collaborate with cross-functional teams to architect cloud solutions that align with technical and business requirements. Evaluate and select appropriate cloud services (e.g., AWS, Azure, Google Cloud) based on technical and cost considerations. Design resilient, scalable, and cost-effective cloud architectures and infrastructure. Work closely with other engineers to design, implement, and deploy cloud-based products and services. Planning for future capacity needs based on growth projections and usage patterns, and scaling cloud resources accordingly. Cost and Performance optimization of cloud resources Collaborate with offshore teams to configure and deploy cloud solutions. Deploy and configure cloud infrastructure components, including virtual machines, containers, databases, and other cloud services. Implement infrastructure as code (IaC) using tools like Terraform, CloudFormation, or ARM templates. Monitor and optimize cloud resources for performance, security, and cost efficiency. Lead cloud migration projects, ensuring a seamless transition from on-premises to cloud environments. Refactor legacy applications for cloud-native deployment. Implement DevOps practices for continuous integration and continuous delivery (CI/CD). Lead Implementation of robust security controls, including identity and access management (IAM), encryption, and network security. Ensure compliance with industry standards (e.g., GDPR, HIPAA) and best practices. Conduct security assessments and vulnerability scans. Develop and maintain automation scripts (e.g., Python, PowerShell) for provisioning and managing cloud resources. Orchestrate workflows using tools like Kubernetes, Jenkins, or Ansible. Provide technical guidance and support to project teams during solution implementation. Collaborate with other technical teams to integrate cloud solutions seamlessly. Participate in agile ceremonies, effectively communicate work progress, issues, and dependencies. Mentor junior Cloud Engineers, fostering their growth and skill development. Oferujemy: Perks & Benefits: ZS offers a comprehensive total rewards package including health and well-being, financial planning, annual leave, personal growth and professional development. Our robust skills development programs, multiple career progression options and internal mobility paths and collaborative culture empowers you to thrive as an individual and global team member. We are committed to giving our employees a flexible and connected way of working. All employees are expected to work from the office at least once per week. For those based outside of Warsaw, attendance will be required on specific days or for team events, which are anticipated to take place approximately two days per month. The magic of ZS culture and innovation thrives in both planned and spontaneous face-to-face connections. Travel: Travel is a requirement at ZS for client facing ZSers; business needs of your project and client are the priority. While some projects may be local, all client-facing ZSers should be prepared to travel as needed. Travel provides opportunities to strengthen client relationships, gain diverse experiences, and enhance professional growth by working in different environments and cultures.
Senior AI Engineer (AI/ML)
Mindbox Sp. z o.o.
⚲ Kraków
28 000–34 000 zł netto (+ VAT) / mies.
Wymagania
- Python
- PostgreSQL
- Redis
- Pub/Sub
- Kubernetes
- Jenkins
- Azure DevOps
- Java
- Microsoft Azure
- Google Cloud Platform
Nasze wymagania: Proven Experience: Senior engineering role with a track record of leading technical projects and mentoring others.Languages: Strong expertise in Python and the ML/AI ecosystem; Java knowledge is a plus. Databases & Middleware: Experience with relational databases (PostgreSQL), vector databases, KV stores (Redis), Pub/Sub. Architecture: Strong knowledge of microservices, observability, API design, and concurrency models. AI/ML Expertise: Deep understanding of LLM architectures and fine-tuning models. Hands-on experience with RAG, prompt engineering, and agentic architectures. Solid background in machine learning, deep learning, and NLP. Cloud & DevOps: Proficiency with Azure or GCP, containers, Kubernetes, and CI/CD tools (Jenkins, Azure DevOps, GCP Cloud Build). Development Practices: Experience with TDD and BDD. Soft Skills: Excellent communication and leadership skills in English, with the ability to influence technical and business stakeholders. O projekcie: We are looking for a Senior AI Engineer (AI/ML) to join our Corporate & Institutional Banking (CIB) Technology team. This role offers the opportunity to work on flagship AI and ML projects that are transforming the Credit and Lending landscape. You will collaborate with talented engineers and business stakeholders in a fast-paced, innovative, and stable environment to deliver high-impact solutions. Zakres obowiązków: Design and develop scalable, robust AI/ML solutions aligned with platform vision. Lead engineering execution for key AI projects, from technical design to production deployment. Write and maintain high-quality, testable, and reusable code. Mentor and guide engineers, fostering technical excellence and continuous improvement. Champion coding standards and AI best practices for fairness, transparency, and accountability. Drive technical strategy by evaluating and prototyping new technologies (e.g., RAG techniques, LLM optimization, agentic architectures). Collaborate with stakeholders to translate business requirements into technical solutions. Develop and implement advanced AI solutions using Retrieval-Augmented Generation (RAG) and vector databases. Note: Detailed project information will be shared during the recruitment process. Oferujemy: Flexible cooperation model – choose the form that suits you best (B2B, employment contract, etc.) Hybrid work setup – remote days available depending on the client’s arrangements Collaborative team culture – work alongside experienced professionals eager to share knowledge Continuous development – access to training platforms and growth opportunities Comprehensive benefits – including Interpolska Health Care, Multisport card, Warta Insurance, and more High quality equipment – laptop and essential software provided
Programista/Programistka Baz Danych
LUX MED Sp. z o.o.
⚲ Warszawa, Mokotów
Wymagania
- T-SQL
- SQL Server 2019
- SQL Server Integration Services
- SQL Server Reporting Services
- Git/GitHub
- .NET
- C#
Nasze wymagania: Minimum 2-letnie doświadczenie w pracy z bazami danych w technologii MS SQL; Bardzo dobra znajomość silnika MS SQL 2019 lub nowszego; Zaawansowana znajomość języka T-SQL (tworzenie i optymalizacja zapytań, procedur składowanych); Praktyczne doświadczenie w projektowaniu baz danych; Znajomość narzędzi Git/GitHub, Jira oraz Confluence; Samodzielność w realizacji zadań. Mile widziane: Znajomość sektora opieki medycznej. Zakres obowiązków: Rozwój kluczowych aplikacji biznesowych – projektowanie i weryfikacja rozwiązań w oparciu o bazy transakcyjne; Analiza oraz programowanie procedur przetwarzania danych (skrypty T-SQL); Optymalizacja wydajności rozwiązań; Zarządzanie kontami użytkowników oraz profilami uprawnień; Weryfikacja wymagań biznesowych; Współpraca z zespołami składającymi się ze specjalistów o różnych kompetencjach: analityków, testerów oraz programistów backend i frontend; Praca w metodyce Scrum.
Programista Baz Danych Oracle (m/k/n)
UPVANTA SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Wrocław, Fabryczna
Wymagania
- Oracle
- SQL
- PL/SQL
Nasze wymagania: Doświadczenie w programowaniu baz danych Oracle Bardzo dobra znajomość SQL oraz PL/SQL Doświadczenie w tworzeniu i modyfikacji struktur baz danych Umiejętność optymalizacji zapytań i wydajności baz danych Doświadczenie w pracy z dużymi wolumenami danych Znajomość cyklu wytwarzania oprogramowania (SDLC) Mile widziane: Znajomość narzędzi do modelowania danych Doświadczenie w pracy w metodykach Agile / Scrum Doświadczenie w sektorze bankowym lub finansowym O projekcie: Stawka: 900-1100 MD B2B Poszukujemy Programisty Baz Danych Oracle, który dołączy do zespołu rozwijającego i utrzymującego systemy bankowe. Jeśli masz doświadczenie w pracy z SQL oraz PL/SQL, potrafisz optymalizować zapytania i pracować z dużymi wolumenami danych – zapraszamy do aplikowania. Preferujemy kandydatów z Wrocławia i okolic, jednak dopuszczamy pracę zdalną z innych lokalizacji w Polsce przy sporadycznych wizytach w biurze. Zakres obowiązków: Projektowanie, rozwój oraz modyfikacja baz danych w środowisku Oracle Tworzenie i rozwijanie oprogramowania bazodanowego (procedury, funkcje, pakiety PL/SQL) Utrzymanie oraz optymalizacja istniejących struktur baz danych Zarządzanie danymi oraz dbanie o ich spójność i integralność Analiza wymagań biznesowych oraz ich implementacja w rozwiązaniach bazodanowych Optymalizacja zapytań SQL oraz wydajności baz danych Współpraca z analitykami, programistami aplikacyjnymi oraz administratorami baz danych Wsparcie procesów integracji danych pomiędzy systemami bankowymi Oferujemy: Stabilne zatrudnienie przy projektach dla sektora bankowego Możliwość pracy zdalnej z okazjonalnymi wizytami w biurze we Wrocławiu (ok. raz w miesiącu) Udział w rozwoju i utrzymaniu kluczowych systemów przetwarzających duże wolumeny danych Współpracę z doświadczonym zespołem specjalistów IT Realny wpływ na rozwój rozwiązań bazodanowych i architekturę danych Przyjazną atmosferę pracy oraz kulturę współpracy Możliwość rozwoju kompetencji technicznych i udziału w projektach rozwojowych
Palantir Data Engineer
IN4GE sp. z o.o.
⚲ Warszawa
190–250 zł netto (+ VAT) / godz.
Wymagania
- Palantir Foundry
- Python
- JavaScript
- SQL
- PySpark
- TypeScript
- AWS
- Microsoft Azure
Nasze wymagania: Praktyczne doświadczenie z Palantir Foundry – najlepiej w realizacji use case’ów end-to-end (od danych do rozwiązania / aplikacji). Znajomość kluczowych komponentów Foundry: Data Lineage, Data Connection. Pipeline Builder, Code Repositories. Ontology (object types / properties / links). Action types, Functions. Workshop, Quiver / Contour. Bardzo dobre przygotowanie w obszarze data engineering i/lub data science (rozumienie przetwarzania danych, jakości danych oraz pipeline’ów). Umiejętność programowania w: Python (mile widziany PySpark). JavaScript (mile widziany TypeScript). SQL – jako uzupełnienie, nie jedyna technologia. Znajomość środowisk chmurowych: AWS lub Azure. Zrozumienie zagadnień data governance oraz ontology / semantic layer. Bardzo dobre umiejętności komunikacyjne oraz doświadczenie we współpracy z klientem. Mile widziane: Doświadczenie w obszarze Governance & Security w Foundry (Projects & User Groups, Markings). Doświadczenie w industrializacji modeli (ML / optymalizacja) w Foundry: Jupyter / Code Workbook, Modeling Objectives. Znajomość AIP. Świadomość oraz stosowanie dobrych praktyk wytwarzania rozwiązań w Foundry. O projekcie: Dla naszego Klienta poszukujemy doświadczonej osoby w obszarze Palantir Data Engineering do projektu obejmującego projektowanie oraz wdrażanie rozwiązań data engineering w środowisku Palantir Foundry. Projekt zakłada realizację use case’ów end-to-end – od podłączenia źródeł danych, przez budowę pipeline’ów i warstwy semantycznej (ontology), aż po dostarczenie rozwiązań i aplikacji w Foundry, przy bliskiej współpracy z klientem oraz zespołami cross-functional. Zakres obowiązków: Współpraca bezpośrednio z klientem oraz zespołami biznesowymi i technologicznymi w celu zrozumienia potrzeb oraz przełożenia ich na rozwiązania w Palantir Foundry. Projektowanie oraz wdrażanie rozwiązań technicznych (solution design & implementation) – samodzielnie lub jako osoba prowadząca wybrane obszary projektu. Doradztwo w zakresie najlepszych praktyk Foundry oraz budowy workflowów danych (sposobu pobierania, przetwarzania oraz wykorzystania danych). Tworzenie i rozwój data pipelines w Foundry: Podłączanie źródeł danych (Data Connection). Zadania związane z przepływem oraz pochodzeniem danych (Data Lineage). Budowa pipeline’ów w Pipeline Builder oraz rozwój rozwiązań w Code Repositories. Modelowanie oraz utrzymanie Ontology (warstwy semantycznej): Object types (typy obiektów). Properties (atrybuty). Links (relacje / powiązania). Tworzenie akcji oraz operacji na obiektach (Action types, Functions). Wykorzystanie narzędzi Foundry wspierających analitykę oraz development (Workshop, Quiver / Contour – w zależności od zakresu projektu). Udział w tworzeniu oraz wdrażaniu aplikacji i rozwiązań osadzonych w Foundry. Dostosowywanie rozwiązań do innych technologii wykorzystywanych w projekcie (np. cloud, integracje). Współpraca przy zasadach dostępu oraz uporządkowania danych (data governance / security) w Foundry. Oferujemy: Współpracę B2B w ramach projektu. Model 100% zdalny. Projekt w środowisku, gdzie kluczowe są jakość danych, skalowalne pipeline’y oraz przemyślana warstwa semantyczna (ontology). Bliską współpracę z klientem oraz realny wpływ na architekturę i sposób dostarczania rozwiązań w Foundry.
Oracle Apex Developer
Scalo Sp. z o.o.
⚲ Warszawa
90–110 zł netto (+ VAT) / godz.
Wymagania
- Oracle
- PL/SQL
- Orale Apex
- HTML
- CSS
- JavaScript
Nasze wymagania: posiadasz min. 2-3 lata doświadczenia w zakresie programowania baz danych Oracle, znasz PL/SQL, posiadasz znajomość Orale Apex, dobrze znasz HTML/CSS, znasz JavaScript na poziomie podstawowym, posiadasz doświadczenie w Scrumie oraz w rozmowach z biznesem. O projekcie: W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom. Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie. Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Zakres obowiązków: uczestnictwo w projekcie dot. branży bankowej, rozwój funkcjonalności aplikacji webowej wytworzonej w APEX, służącej do obsługi dokumentów klientów, migracja systemu na nowsze wersje, optymalizacja zapytań, integracja z zewnętrznymi bazami danych, przeprowadzanie testów, praca zdalna lub możliwa praca hybrydowa z biura w Warszawie, stawka do 110 zł/h przy B2B w zależności od doświadczenia. Oferujemy: stabilną współpracę i różnorodne projekty (Software, Embedded, Data, Cloud Services), możliwość rozwoju kompetencji jako Ambasador Scalo - doskonal skille techniczne i presalesowe w społeczności naszych ekspertów, wpływaj na rozwój organizacji, wspieraj innych, przestrzeń do budowania marki osobistej - twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako prelegent na wydarzeniach (np. ProMeet), prywatną opiekę medyczną - Luxmed, kafeteryjny system benefitów - Motivizer, dostęp do karty Multisport, program poleceń pracowniczych z nagrodami, integracje i wydarzenia firmowe.
OpenSearch / Elasticsearch Engineer
DevsData LLC
⚲ Warszawa, Ochota
Wymagania
- OpenSearch
- Elasticsearch
- Red Hat Enterprise Linux
- GitLab
- Ansible
- Bash
- OpenSearch Data Prepper
- Kafka
- OpenTelemetry
Nasze wymagania: Deep expertise in OpenSearch/Elasticsearch, including cluster internals, index lifecycle management (ISM), snapshot/restore mechanisms, and multi-node architectures. Demonstrated experience managing and optimizing high-volume data workloads (TBs to PBs). Strong experience with Red Hat Enterprise Linux (RHEL), including proficiency in using command-line tools to investigate, diagnose, and resolve hardware and system-level issues. Experience with CI/CD pipelines and version control, utilizing GitLab and Jenkins to support GitOps workflows. Proficiency in automation tools, including Ansible and Bash scripting. Hands-on experience with authentication and authorization mechanisms, including LDAP, Active Directory integration, RBAC, and TLS certificate management. Proficiency in English (both written and spoken). Mile widziane: Experience with data ingestion tools such as OpenSearch Data Prepper, Kafka, or OpenTelemetry. Familiarity with Elastic Common Schema (ECS). Experience with SIEM and security analytics workloads. Familiarity with SRE best practices, including service level objectives (SLOs) and error budgets. O projekcie: We are looking for a Senior OpenSearch Engineer to take technical co-ownership of a large-scale, multi-petabyte log analytics and search infrastructure. Zakres obowiązków: Manage the installation, configuration, and upgrade of large-scale OpenSearch clusters on bare-metal RHEL servers. Investigate and resolve complex production issues at both the application and OS level,including I/O wait, memory Management, and network latency issues. Optimize JVM performance, indexing buffers, and shard allocation to support high-throughput workloads and petabyte-scale storage without performance degradation. Manage strict resource policies (CPU/Memory/Storage) for multiple teams sharing the platform. Maintain a zero-trust security architecture using LDAP, RBAC, TLS encryption, and audit logging. Define and enforce data retention policies and disaster recovery (DR) strategies for large-scale datasets. Lead the automation and onboarding of new tenants, users, and data streams using Jenkins and GitOps methodologies. Replace manual operations with automated pipelines using Ansible, Bash, and GitLab. Drive modernization efforts by evaluating and implementing community-driven tools to optimize operational efficiency.
Mid-Level Oracle APEX Developer – API Integration & Web Applications
ITDS Polska Sp. z o.o.
⚲ Warszawa
15 960–20 580 zł / mies. (zal. od umowy)
Wymagania
- JavaScript
- PL/SQL
- HTML
- CSS
Nasze wymagania: 3+ years of experience in Oracle database development and APEX application design. Strong knowledge of JavaScript, PL/SQL, HTML/CSS, and Oracle technologies. Fluent in both Polish and English, with excellent communication skills. Proven ability to work independently in a remote environment. Mile widziane: Experience with REST API development and integration. Knowledge of Apex Office Print plugin. Certifications in Oracle APEX or related technologies. O projekcie: As a Mid-Level Oracle APEX Developer, you will be working for our client, a leader in innovative web application development for sales network management. You will help build and optimize a dynamic platform that streamlines intermediary sales processes, utilizing cutting-edge Oracle and API technologies to empower business growth and operational excellence. This is a chance to contribute to transformative projects in a fast-paced, digitally driven environment, opening new horizons for your career development. Unleash the Power of Data – Shape the Future of Digital Commerce! Warszawa-based opportunity with remote work model. Only candidates with an existing legal right to work in the European Union will be considered for this role. Zakres obowiązków: Design, develop, and maintain web applications using Oracle APEX for sales network settlements. Integrate REST API services, external databases, and third-party plugins to deliver seamless user experiences. Recreate and optimize forms, reports, and functionalities migrating from legacy thick clients. Implement email alerts, print modules, two-factor authentication, and advanced reporting features. Collaborate with cross-functional teams to translate business requirements into scalable technical solutions. Ensure high-quality, efficient, and secure code following best practices. Troubleshoot, debug, and resolve technical issues impacting application performance. Document technical specifications and participate in code reviews to ensure maintainability. Oferujemy: Stable and long-term cooperation with very good conditions Enhance your skills and develop your expertise in the financial industry Work on the most strategic projects available in the market Define your career roadmap and develop yourself in the best and fastest possible way by delivering strategic projects for different clients of ITDS over several years Participate in Social Events, training, and work in an international environment Access to attractive Medical Package Access to Multisport Program Access to Pluralsight Flexible hours
Master Data Management Specialist
Solaris Laser S.A.
⚲ Kajetany (pow. pruszkowski)
Wymagania
- SAP
- Jira
Nasze wymagania: Experience of SAP modules like MM (mandatory) and/or PP, SD (desirable) Experience of automation / Efficiency tools like Winshuttle (or something similar) Experience of Data Analytics / Reporting like PowerBi (or something similar) Project Management experience – whether as a Work Package Leader or active role Experience of Product Change Management Ability to use Agile Project Management tools like JIRA Experience and knowledge of Manufacturing and Industrial Processes Experience of Data Transfer projects involving one site to another Fluency in English and Polish Good communication skills to lead and influence Collaborative Proactive Project Mindset Zakres obowiązków: Masterdata Project Management o Work Package Leader in NPI Projects o Sub- Work Package Leader for non- core masterdata functions o Masterdata Lead in Product Change Management Projects o Pilot small masterdata projects either as part of Product Change Management or part Data Maintenance– o Be involved in the Strategic Business Projects when MDM support is required o Drive accountability for data accuracy and delivery on time from all other MI functions Masterdata Maintenance o Support Operational / Production requests for masterdata topics o Maintain Material Master data integrity/quality o Identify systemic gaps in process and propose, implement solutions as part of Continuous Improvement o Work with Domain and Discipline Experts on business process improvements when gaps are found o Be part of the periodic data maintenance reviews – especially if requiring corrections and changes Masterdata Automation / Efficiency o Propose / develop automated solutions to improve both masterdata and overall Team efficiency o Collaborate with MDM developers to provide efficiency solutions for masterdata issues either as part of an NPI or regular masterdata maintenance o Utilise the automation / efficiency solutions delivered
Lead Data Engineer – AI & Cloud Technologies (f/m/x)
Sii Sp. z o.o.
⚲ Białystok, Centrum, Bydgoszcz, Gdańsk, Oliwa, Katowice, Kraków, Podgórze, Lublin, Łódź, Śródmieście, Piła, Poznań, Wilda, Rzeszów, Szczecin, Toruń, Warszawa, Mokotów, Wrocław, Fabryczna
Wymagania
- Python
- SQL
- AI Agents
- AWS
- Microsoft Azure
Nasze wymagania: Degree in Computer Science, AI, Data Science, Software Engineering, or a related discipline, or or a related discipline At least 8 years of experience in Software Engineering, with a minimum of 5 years dedicated to backend development using Python in production environments Demonstrated experience designing, scaling, and maintaining complex data architectures and pipelines Hands-on experience with AI technologies (e.g., AI Agents, RAG, MCP) and ensuring quality in AI-driven systems Practical experience with cloud platforms (AWS or Azure), including AI services, storage solutions, and databases Strong proficiency in English (minimum B2 level); knowledge of German is a plus Fluent Polish required Residing in Poland required O projekcie: We are seeking a Lead Data Engineer to drive the design and delivery of advanced AI and Cloud solutions within the project in the automotive industry. In this role, you will lead the development of scalable data platforms, collaborate closely with engineering and business stakeholders, and act as the primary point of contact for data and system access discussions. If you are ready to take ownership of impactful data initiatives in a dynamic environment, we encourage you to apply! Zakres obowiązków: Identify and resolve issues in data projects to ensure timely delivery and alignment with business objectives Lead, mentor, and support data engineering teams, promoting best practices and effective collaboration Ensure data quality, integrity, and security across all stages of the data lifecycle Collaborate with engineering teams and business units to translate business requirements into scalable technical solutions Design, implement, and maintain reliable cloud infrastructure, ensuring secure and operable solution architectures Develop and maintain monitoring, alerting, and disaster recovery systems to proactively manage performance and continuity Oferujemy: Great Place to Work since 2015 - it’s thanks to feedback from our workers that we get this special title and constantly implement new ideas Employment stability - revenue of PLN 2.1BN, no debts, since 2006 on the market We share the profit with Workers - over PLN 76M has already been allocated for this aim since 2022 Attractive benefits package - private healthcare, benefits cafeteria platform, car discounts and more Comfortable workplace – class A offices or remote work Dozens of fascinating projects for prestigious brands from all over the world – you can change them thanks to Job Changer application PLN 1 000 000 per year for your ideas - with this amount, we support the passions and voluntary actions of our workers Investment in your growth – meetups, webinars, training platform and technology blog – you choose Fantastic atmosphere created by all Sii Power People
Lead Data Engineer
ZS.com
⚲ Warszawa
Wymagania
- SQL
- Python
- AWS
- Microsoft Azure
- Google Cloud Platform
- Hadoop
- Kafka
Nasze wymagania: A relevant Bachelors or higher-education degree in Computer Science, Data Science, or related fields. 5+ years of experience in data engineering, with a proven track record of designing and implementing scalable, high-performance data systems. Proficiency in SQL, Python, or other relevant programming languages. Strong understanding of data warehousing concepts and cloud-based data platforms (e.g., AWS, Azure, GCP). Expertise in designing and implementing ETL processes, data modeling, and database management. Familiarity with big data technologies (e.g., Hadoop, Spark, Kafka) and data integration tools. Excellent problem-solving, critical thinking, and analytical skills. Excellent communication, collaboration, and leadership skills. Significant experience in leading small teams of Data Engineers and fostering their professional growth. Demonstrated ability to collaborate with cross-functional teams and communicate technical solutions effectively. Zakres obowiązków: Oversee the design and implementation of robust, scalable, and reliable data systems, ensuring high performance and alignment with business goals. Collaborate with cross-functional teams to understand data requirements and translate them into effective data architecture and engineering solutions. Develop and manage software processes that facilitate seamless data movement between data warehouses, data lakes, and other internal systems. Design and optimize ETL (Extract, Transform, Load) pipelines to prepare high-quality data for various stakeholders. Design and build Data Ingestion frameworks, data quality frameworks and an integrated audit system. Implement data quality assurance processes to identify and resolve data inconsistencies and issues. Establish data governance practices to maintain data accuracy, integrity, and security. Analyze data to derive meaningful insights that support data-driven decision-making. Communicate findings and recommendations to stakeholders effectively. Serve as a technical authority in data engineering, staying updated on industry trends and best practices. Provide guidance and mentorship to junior Data Engineers, fostering their professional development. Facilitate knowledge sharing, collaboration, and continuous improvement within the team. Oferujemy: Perks & Benefits: ZS offers a comprehensive total rewards package including health and well-being, financial planning, annual leave, personal growth and professional development. Our robust skills development programs, multiple career progression options and internal mobility paths and collaborative culture empowers you to thrive as an individual and global team member. We are committed to giving our employees a flexible and connected way of working. All employees are expected to work from the office at least once per week. For those based outside of Warsaw, attendance will be required on specific days or for team events, which are anticipated to take place approximately two days per month. The magic of ZS culture and innovation thrives in both planned and spontaneous face-to-face connections. Travel: Travel is a requirement at ZS for client facing ZSers; business needs of your project and client are the priority. While some projects may be local, all client-facing ZSers should be prepared to travel as needed. Travel provides opportunities to strengthen client relationships, gain diverse experiences, and enhance professional growth by working in different environments and cultures.
Lead Cloud Engineer
ZS.com
⚲ Warszawa
Wymagania
- AWS
- Microsoft Azure
- Google Cloud Platform
- OpenShift
- Java
- .NET
- C++
- Python
- PowerShell
- SQL
Nasze wymagania: A relevant Bachelors or higher-education degree in Computer Science, Data Science, or related fields. 5+ years of experience in cloud engineering or a related technical role. Preferred certifications in cloud platforms (e.g., AWS, Azure, GCP). In-depth knowledge of container technologies (e.g., AKS, EKS, OpenShift) and DevOps/DevSecOps practices. Proficiency in software development methods (Java, .NET) and scripting languages (C#, Python, PowerShell). Strong skills in SQL, Python, and other relevant programming languages. Thorough understanding of data warehousing concepts and cloud-based data solutions. Excellent problem-solving, critical thinking, and analytical skills. Excellent communication, collaboration, and leadership skills. Proven leadership experience, preferably leading small teams of cloud engineers. Hands-on experience in designing, implementing, and managing cloud-based solutions and infrastructure. Zakres obowiązków: Leading business requirement gathering, collaboration with cross-functional teams to identify and design optimal cloud-based solutions and creating design documents specifying network architecture, security architecture and infra components design. Define and document best practices for cloud infrastructure deployment, maintenance, and optimization. Customize and integrate emerging cloud technologies to enhance security, efficiency, and scalability. Develop and maintain cloud services (e.g., AWS, Azure) in accordance with security standards and best practices. Proactively communicate changes and adoptions of new cloud technologies to stakeholders. Work with the team to evaluate business needs and ,priorities and address data systems and management requirements. Lead development of cloud infra setup and cloud migration using Python, SQL, Spark, and cloud-native services (AWS, Azure, GCP). Building blueprints for cloud migration and infra setup which acts as single source of information for implementation. Facilitate the migration of on-premises data to the cloud and manage cloud-based data conversions. Adopt an analytical, data-driven approach to drive a deep understanding of the business and its evolving needs. Provide guidance and mentorship to junior Cloud Engineers, helping them build their cloud competencies. Foster a culture of continuous learning, innovation, and knowledge sharing within the team. Write comprehensive solution design documents to guide the team's implementation efforts. Providing Thought Leadership Manage cloud environments in alignment with company security guidelines and best practices. Ensure high application performance, availability, and scalability through proactive monitoring and optimization. Maintain high standards for code quality, security, and thoughtful design. Design cloud architecture for high availability, security, scalability, and performance. Remediate any availability, regulatory, or performance-related operational issues. Develop and implement technical solutions related to cloud applications, including data processing, statistical modeling, and advanced analytics. Participate in the entire software development lifecycle for cloud-based solutions. Leverage your expertise to build connectors that seamlessly integrate cloud services and automate workflows. Oferujemy: Perks & Benefits: ZS offers a comprehensive total rewards package including health and well-being, financial planning, annual leave, personal growth and professional development. Our robust skills development programs, multiple career progression options and internal mobility paths and collaborative culture empowers you to thrive as an individual and global team member. We are committed to giving our employees a flexible and connected way of working. All employees are expected to work from the office at least once per week. For those based outside of Warsaw, attendance will be required on specific days or for team events, which are anticipated to take place approximately two days per month. The magic of ZS culture and innovation thrives in both planned and spontaneous face-to-face connections. Travel: Travel is a requirement at ZS for client facing ZSers; business needs of your project and client are the priority. While some projects may be local, all client-facing ZSers should be prepared to travel as needed. Travel provides opportunities to strengthen client relationships, gain diverse experiences, and enhance professional growth by working in different environments and cultures.
Junior Oracle APEX Developer – Web Application Solutions
ITDS Polska Sp. z o.o.
⚲ Warszawa
13 650–17 640 zł / mies. (zal. od umowy)
Wymagania
- JavaScript
- PL/SQL
- HTML
- CSS
- Oracle
- Oracle SQL
Nasze wymagania: At least 1 year of experience in software development, preferably with web applications Basic knowledge of JavaScript, PL/SQL, HTML/CSS, Oracle technology, and Oracle SQL Fluency in English and Polish, with excellent communication skills Familiarity with REST API and Oracle APEX is a plus Mile widziane: Experience with Oracle Office Print plugin Knowledge of email automation and external database integrations Certifications or additional training in Oracle or web development O projekcie: As a Junior Oracle APEX Developer, you will be working for our client, a forward-thinking company specializing in developing web application functionalities for sales network settlements and intermediary management. You will help shape and optimize a dynamic Oracle APEX-based platform, facilitating seamless data handling, reporting, and automation to drive business success and operational efficiency. Empower innovation — transform sales network management with cutting-edge web solutions! Warsaw-based opportunity with remote work model (up to 5 days per week). Only candidates with an existing legal right to work in the European Union will be considered for this role. Zakres obowiązków: Collaborate in the development of web application features using Oracle APEX, REST API, and Oracle databases Recreate and optimize forms and functionalities from legacy systems according to business needs Integrate external databases and implement email alerts, print modules, and two-factor authentication Utilize JavaScript, PL/SQL, HTML/CSS, and Oracle SQL to enhance application performance Participate in migrating functionalities from thick client front-ends to modern web interfaces Ensure code quality and best practices compliance within an agile development environment Support testing, debugging, and deploying new features and updates Oferujemy: Stable and long-term cooperation with very good conditions Enhance your skills and develop your expertise in the financial industry Work on the most strategic projects available in the market Define your career roadmap and develop yourself in the best and fastest possible way by delivering strategic projects for different clients of ITDS over several years Participate in Social Events, training, and work in an international environment Access to attractive Medical Package Access to Multisport Program Access to Pluralsight Flexible hours