Oferty pracy
Filtry
Senior Data Platform Engineer (Fintech)
RITS Professional Services
⚲ Warszawa
45 - 65 USD/h netto (B2B)
Wymagania
- AWS
- Airflow
- Spark
- GCP
- Terraform
- Kubernetes
- Kafka
- SQL
- Python
📍 Work mode: 100% Remote in NYC time zone (at least 5/6 hours of overlap with NYC) 🕒 Contract type: B2B💼 Experience level: Senior💰 Rate: 40-65 $ net + VAT / hour⏳ Start date: ideally ASAP 📆 Project length: Long-term cooperation About the role:We are looking for a Data Platform Engineer to help build and operate the core infrastructure that powers our data ecosystem. This role focuses on building tools, services and frameworks for data engineers and data scientists, rather than developing individual ETL pipelines. You will work on the platform layer of the data stack, designing and maintaining distributed systems, data processing frameworks and the infrastructure that enables large-scale data processing.Job responsibilities: • Build and run data platform using such technologies as public cloud infrastructure (AWS and GCP), Kafka, Spark, databases and containers • Develop data platform based on open source software and Cloud services • Build and run ETL tools and frameworks to onboard data into the platform, define schema, build DAG processing pipelines and monitor data quality. • Help develop machine learning development framework and pipelines • Manage and run mission crucial production services. Skills: • Experience as Data Platform Engineering or SRE • Strong software engineering experience and working with Python. • Experience building ETL and stream processing tools and frameworks using Kafka, Spark, Flink, Airflow/Prefect, etc. • Strong experience working with SQL and databases/engines such as MySQL, PostgreSQL, SQL Server, Snowflake, Redshift, Presto, etc. • Experience with using AWS/GCP (S3/GCS, EC2/GCE, IAM, etc.), Kubernetes and Linux in production. • Strong proclivity for automation and DevOps practices • Experience with managing increasing data volume, velocity and variety Agile, self-starter and is focused on getting things done. • Strong communicator Nice to have: • Familiarity with data science stack: e.g. Jupyter, Pandas, Scikit-learn, Dask, Pytorch, MLFlow, Kubeflow, etc. • Financial Services experience
Senior Data Engineer
Scalo
⚲ Warszawa, Łódź
23 520 - 25 200 PLN (B2B)
Wymagania
- ETL
- ELT
- Oracle
- PostgreSQL
- Google BigQuery
- Informatica PowerCenter
- Kafka
- PUB
- Linux
- Python
- Apache Airflow (nice to have)
- Rust (nice to have)
- Apache Spark (nice to have)
O projekcie: Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Co dla Ciebie mamy: - Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt - Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych - Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób - Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort - Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci - Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Wymagania: Ta oferta jest dla Ciebie, jeśli: - posiadasz doświadczenie w projektowaniu i budowie nowoczesnych hurtowni danych, - masz doświadczenie w budowie pipeline’ów ETL/ELT, - bardzo dobrze znasz relacyjne bazy danych Oracle oraz PostgreSQL (projektowanie, budowa i tuning baz danych), - znasz Google BigQuery, - posiadasz doświadczenie z Informatica PowerCenter, - znasz technologie wykorzystywane w architekturze event-driven (np. Kafka, Pub/Sub), - pracujesz swobodnie w środowisku Linux, - pracujesz w Pythonie, - mile widziane doświadczenie z Apache Airflow, Rust, Apache Spark. Codzienne zadania: - uczestnictwo w projekcie związanym z budową i rozwojem platformy danych (Data Lake / Data Warehouse) z wykorzystaniem technologii takich jak Oracle, PostgreSQL, Google BigQuery, Informatica PowerCenter, Kafka, Pub/Sub, Python oraz narzędzi chmurowych GCP, - praca w zespole data / data platform odpowiedzialnym za rozwój i utrzymanie procesów zasilania danych oraz architektury przetwarzania danych, - zadania obejmujące m.in.: projektowanie i rozwój pipeline’ów ETL/ELT, budowę i rozwój hurtowni danych oraz Data Lake, analizę danych, modelowanie logiczne i fizyczne, optymalizację zapytań SQL, tworzenie procesów przetwarzania danych on-line i off-line, wsparcie testów oraz wdrożeń, a także rozwiązywanie incydentów i problemów produkcyjnych, - praca w modelu hybrydowym: 1 raz w tygodniu praca z biura w Warszawie, - stawka do 150 zł/h przy B2B w zależności od doświadczenia.
SQL Developer (PostgreSQL)
MERITUS SPÓŁKA AKCYJNA
⚲ Warszawa
10 000 - 14 000 PLN netto (B2B)
Wymagania
- IT Support
- PL/SQL
- Analytical Thinking
O nas Meritus S.A. to polska firma technologiczna, twórca innowacyjnego systemu Pinquark WMS. Nasz produkt to zaawansowana platforma, która zarządza ruchem w nowoczesnych magazynach w czasie rzeczywistym. Wykorzystujemy dane z czujników UWB, integrujemy roboty mobilne (AMR) i optymalizujemy logistykę 5.0. Sercem naszego systemu jest baza danych. Jako SQL Developer będziesz odpowiedzialny za to, aby „silnik” Pinquark pracował wydajnie, przetwarzał tysiące operacji magazynowych na sekundę i dostarczał precyzyjne dane analityczne. Twój zakres obowiązków • Rozwój logiki biznesowej: Projektowanie i implementacja złożonych procedur składowanych, funkcji oraz triggerów w PostgreSQL (PL/pgSQL). • Optymalizacja wydajności: Analiza planów zapytań (EXPLAIN ANALYZE), optymalizacja indeksów i dbanie o wysoką wydajność bazy przy dużych obciążeniach. • Modelowanie danych: Projektowanie struktur tabel i relacji dla nowych modułów systemu Pinquark. • Wsparcie wdrożeń: Przygotowywanie skryptów migracyjnych oraz wsparcie zespołu wdrożeniowego w rozwiązywaniu trudnych problemów bazodanowych. • Integracje: Tworzenie widoków i struktur pod integracje z systemami zewnętrznymi (ERP, API, platformy e-commerce). • Raportowanie: Budowanie zaawansowanych zapytań na potrzeby modułów analitycznych i raportów BI dla klientów. Nasze wymagania • SQL Mastery: Bardzo dobra znajomość PostgreSQL (lub pokrewnych jak MS SQL/Oracle z gotowością na przejście na Postgres). • Doświadczenie: Min. 3 lata pracy na stanowisku SQL Developer lub Database Developer. • Performance Tuning: Umiejętność profilowania i optymalizacji zapytań SQL. • Analityka: Umiejętność pracy ze złożonymi modelami danych i rozumienie logiki biznesowej (mile widziane doświadczenie w logistyce/ERP). • Dokładność: Dbanie o spójność danych i czystość kodu SQL. Mile widziane • Znajomość Pythona (wykorzystywanego u nas w procedurach i automatyzacji). • Doświadczenie z technologiami Docker / Kubernetes (w kontekście baz danych). • Znajomość zagadnień związanych z systemami kontroli wersji (Git). • Doświadczenie w pracy z systemami klasy WMS lub wysokiego składowania. To oferujemy • Realny wpływ: Twoje zapytania sterują pracą robotów i magazynów wielkopowierzchniowych. • Nowoczesny stack: Praca w środowisku mieszanym (Linux / PostgreSQL / Docker / UWB). • Stabilność: Praca w firmie o ugruntowanej pozycji, która jest właścicielem produktu (brak „body leasingu”). • Rozwój: Możliwość nauki nowych technologii (np. integracja baz danych z systemami RTLS/UWB). • Atmosfera: Zespół pasjonatów, brak sztywnych struktur korporacyjnych i bezpośrednia współpraca z Architektem Systemu.
PL/SQL Developer
Sollers Consulting Sp. z.o.o
⚲ Warszawa, Szczecin, Białystok, Poznań, Wrocław, Kraków, Gdańsk, Lublin, Łódź
13 350 - 18 200 PLN netto (B2B) | 11 060 - 16 200 PLN brutto (UoP)
Wymagania
- MS SQL Server
- PostgreSQL
- OOP
- PL/SQL
- Oracle
About Sollers Consulting: Sollers Consulting is more than a consultancy and software integrator. As a company founded in 2000, our mission has been to transform the financial & insurance industries by helping them adapt to new technologies. The power of collaboration and the limitless potential of Sollers people are at the root of our success. We strive to be the best at what we do, both in the eyes of our team and our customers. We put people at the heart of every project. Join us and make Sollers be driven by… you! About Software Development at Sollers: Versatility is the keyword when it comes to what we do in IT. Development is just the beginning of a long journey where we get familiar with business, processes, and architecture. But at the end of the day, the result is always the same: a ready-to-use solution used by everyone around us. As a Sollers developer, you’ll have the opportunity to continuously expand your skill set, navigate complex challenges, and contribute to the creation of solutions that empower businesses and individuals alike. About the role. You will: • Implementing and customizing core insurance systems such as TIA, INSIS and others, depending on the project. • Create, modify, and optimize procedures, functions, packages, and triggers in the Oracle database using PL/SQL. • Work with business analysts and other developers to build efficient and stable solutions. • Participate in the analysis of requirements and the design of new solutions. • Support testing and software deployment processes. • Apply Clean Code principles, perform code reviews, and support automated testing/deployment processes. • Be an active member of an agile project team (Scrum/Kanban). You will use: • Oracle PL/SQL • Git, Jenkins and similar • PL/SQL Developer, Oracle SQL Developer • Oracle Database and WebLogic application server About the requirements. You need: • At least two years of commercial experience with PL/SQL. • One year of commercial experience in Object-Oriented Programming, preferably using Java. • Understanding of Object-Oriented Programming (OOP), design patterns, clean code principles, and best practices. • Familiarity with relational databases (e.g., Oracle, MS SQL Server, PostgreSQL). • Fluency in English (B2/C1 level at least). • Effective communication skills and the ability to work in a team. • Availability to work full-time. • Ability to work in the European Union. About the wishes. Nice to haves: • Familiarity with Oracle Forms and/or ADF frameworks • Experience with TIA or INSIS platforms. • Familiarity with Web Services (REST/SOAP) and integration patterns. • Knowledge of unit testing frameworks for the database (e.g., utPLSQL). • A background in Financial Services or the Insurance industry. • Eagerness to stay updated with the latest Oracle features and software engineering trends. About our promises. We can offer: • Flexible working hours and a hybrid home office model (2-3 times per week in the office) as work-life balance is crucial at Sollers. • A chance to be promoted twice a year and a clearly defined career path with salary forecast. • Opportunities for growth with a training budget that you can use for courses and conferences. We also provide access to an online training platform and co-fund language classes. • An internal coach to guide you through the onboarding, further training and career opportunities, plus a budget to be used for your lunches together. • A chance to #domore for the planet and the community as part of Sollers Change Makers – our volunteering program. • Lots of teambuilding activities, trips, hobby groups and cultural events to create a company powered by teamwork. • Probably all the benefits you can think of! * The final salary offer may fall outside the given brackets depending on your education, experience, and location.
Inżynier/ka Danych
Action Gear Brands Sp. z o.o.
⚲ Łódź
10 000 - 18 000 PLN (PERMANENT)
Wymagania
- SQL
- Python
- ETL
- Doświadczenie w e-commerce (nice to have)
- Podstawy modelowania danych pod BI (nice to have)
O projekcie: Jesteśmy Movino & Cariboo – pasjonaci ruchu na kółkach. Projektujemy, produkujemy i sprzedajemy sprzęt sportowy: hulajnogi miejskie i wyczynowe, rolki, rowerki biegowe… prawie wszystko, na czym da się jeździć! Nasze produkty znajdziesz w Internecie, w Decathlonie, a ich reklamy zobaczysz w telewizji. Dużo się u nas dzieje, a teraz możesz stać się częścią naszego zespołu w Łodzi jako Inżynier/ka Danych – Dołącz do Movino & Cariboo! Szukamy osoby, która przejmie utrzymanie oraz dalszy rozwój platformy danych opartej o Azure. Twoim zadaniem będzie dbanie o stabilność i jakość danych, rozwijanie integracji (nowe źródła, zmiany w schematach), porządkowanie danych oraz przygotowanie warstw pod analitykę i Power BI. W dalszej perspektywie rola może objąć także udostępnianie danych przez API /integracje zwrotne (np. reverse ETL). Wymagania: - Bardzo dobra znajomość SQL. - Praktyczna umiejętność integracji danych i automatyzacji zasilania (ETL/ELT) – najlepiej poparta realnymi wdrożeniami. - Python (lub równoważne) do integracji API i transformacji danych; swoboda w pracy z JSON, paginacją, limitami API, ponowieniami i obsługą błędów. - Umiejętność pracy z „nieidealnymi” danymi: brak mapowań, różne formaty, duplikaty, niespójne identyfikatory. - Myślenie produktowo‑inżynieryjne: stabilność, logowanie, obsługa błędów, dokumentacja przepływów. Codzienne zadania: - Przejęcie i utrzymanie środowiska danych (DBT/Airflow/Snowflake): bieżąca obsługa, stabilność, dostępność. - Utrzymanie i rozwój istniejących procesów ETL/ELT: harmonogramy, ponowienia (retry), logowanie, monitoring, obsługa błędów. - Rozbudowa integracji danych z systemów i kanałów sprzedaży (ERP, e-commerce/marketplace) oraz z narzędzi marketingowych. - Czyszczenie i mapowanie „nieidealnych” danych: duplikaty, niespójne identyfikatory, brakujące mapowania, różne formaty. - Przygotowanie warstw danych dla analityków i Power BI: spójne tabele, klucze, słowniki, dokumentacja (nie budujesz dashboardów). - Wdrażanie i utrzymanie jakości danych: walidacje, monitoring odświeżeń, alerty/anomalie. - Optymalizacja kosztów i wydajności: optymalizacja zapytań/transformacji, dobór zasobów, porządkowanie procesów.
Główny Specjalista ds. Baz Danych Oracle i DevOps (k/m/n)
Polskie Sieci Elektroenergetyczne S.A.
⚲ Konstancin-Jeziorna, Klarysew
Wymagania
- Oracle
- SQL
- Unix
- Ansible
- Jira
- Confluence
Nasze wymagania: wykształcenie wyższe minimum 5 lat doświadczenia w podobnym obszarze bardzo dobra znajomość architektury i administracji Oracle Database 12c, 19c praktyczne doświadczenie z Oracle RAC (Real Application Clusters) doświadczenie w pracy z Oracle Data Guard/Active Data Guard doświadczenia w tworzeniu i zarządzaniu backupami oraz odtwarzaniu danych (RMAN) umiejętność optymalizacji zapytań SQL oraz strojenia wydajności baz danych. doświadczenie w pracy z serwerami aplikacyjnymi Oracle WebLogic praktyczna znajomość systemów operacyjnych Linux/Unix (shell scripting) znajomość narzędzi do monitorowania baz danych Oracle (OEM) umiejętność rozwiązywania złożonych problemów (troubleshooting) doświadczenie z narzędziami do automatyzacji (Ansible) doświadczenie w korzystaniu z narzędzi Jira i Confluence samodzielność i odpowiedzialność za powierzone zadania umiejętności komunikacyjne i pracy w zespole Mile widziane: doświadczenie w pracy z innymi bazami danych (np. PostgreSQL, MySQL, IBM DB2) doświadczenie w platformach do konteneryzacji (HashiCorp, OpenShift) doświadczenie w pracy z innymi serwerami aplikacyjnymi (JBoss/Wildfly, Tomcat, IBM WAS) doświadczenie w pracy z Apache Kafka Zakres obowiązków: zarządzanie i administracja bazami danych Oracle w środowiskach produkcyjnych i testowo-rozwojowych (w tym backupy, recovery, monitorowanie, optymalizacja wydajności) instalacja, konfiguracja i utrzymanie instancji Oracle (w tym RAC, Data Guard) instalacja i konfiguracja komponentów aplikacyjnych na bazach danych, serwerach aplikacyjnych oraz na platformach do konteneryzacji tworzenie i implementacja polityk bezpieczeństwa baz danych planowanie i przeprowadzanie aktualizacji oraz migracji baz danych monitorowanie i rozwiązywanie problemów związanych z wydajnością i dostępnością baz danych automatyzacja procesów administracyjnych współpraca z zespołami deweloperskimi, infrastrukturalnymi i ds. architektury udział w projektach wdrożeniowych i rozwojowych rozwiązywanie zgłoszeń serwisowych dotyczących zarządzanej warstwy systemów tworzenie i utrzymywanie dokumentacji technicznej opiniowanie dokumentacji projektowej uczestnictwo w dyżurach (wsparcie 24/7) Oferujemy: pracę w stabilnej organizacji możliwość pracy zdalnej do 40% czasu pierwszy miesiąc praca z biura obligatoryjnie
Google Data Engineer
Ework Group
⚲ Remote
23 520 - 28 560 PLN (B2B)
Wymagania
- Python
- SQL
- Scala
- BigQuery
- Cloud Storage
- Dataflow
- Airflow
- Certyfikat Google Cloud Data Engineer (nice to have)
O projekcie: Jako Google Data Engineer będziesz projektować, budować i utrzymywać skalowalne platformy danych oraz pipeline’y danych w Google Cloud. Będziesz pracować z dużymi zbiorami danych, dbając o ich jakość, niezawodność oraz wydajność w całym cyklu życia danych. Będziesz współpracować z architektami, zespołami analitycznymi oraz interesariuszami biznesowymi, aby dostarczać produkty danych wspierające raportowanie, analitykę oraz zastosowania AI. Wymagania: - Zaawansowana wiedza z zakresu SQL i programowania (Python, Scala). - Doświadczenie w BigQuery, Cloud Storage, Dataflow, Airflow. - Znajomość modelowania danych i systemów rozproszonych. - Certyfikat Google Cloud Data Engineer (mile widziany). Codzienne zadania: - Budowa i optymalizacja pipeline’ów danych (ETL/ELT) w Google Cloud. - Tworzenie data lakes i hurtowni danych z użyciem BigQuery i usług natywnych chmury. - Zapewnienie jakości, bezpieczeństwa i wydajności danych. - Współpraca z architektami i zespołami analitycznymi. - Automatyzacja wdrożeń z użyciem CI/CD i praktyk Infrastructure-as-Code.
Google Cloud Architect / Lead
Ework Group
⚲ Remote
28 560 - 35 280 PLN (B2B)
Wymagania
- Google cloud
- BigQuery
- GKE
- Cloud Storage
- IAM
- Networking
- Certyfikaty Google Cloud Professional
- IaC
- CI/CD
O projekcie: Jako Google Cloud Architect / Lead będziesz odpowiadać za projektowanie i prowadzenie kompleksowych architektur chmurowych oraz danych na Google Cloud Platform. Będziesz ściśle współpracować z klientami, zespołami realizacyjnymi i interesariuszami biznesowymi, aby przekształcać wymagania biznesowe w bezpieczne, skalowalne i efektywne kosztowo rozwiązania. Będziesz definiować standardy architektoniczne, wspierać działania presales i estymacje oraz mentorować inżynierów i architektów. Będziesz również odpowiadać za decyzje techniczne, prowadzić zespoły przez złożone transformacje oraz pełnić rolę zaufanego doradcy w obszarze chmury, danych i AI. Wymagania: - Duże doświadczenie w Google Cloud (BigQuery, GKE, Cloud Storage, IAM, Networking). - Wzorce architektoniczne (platformy danych, rozwiązania cloud-native, AI/ML). - Umiejętności komunikacji z interesariuszami i przywództwa. - Certyfikaty Google Cloud Professional (np. Cloud Architect, Data Engineer). - Doświadczenie w Infrastructure as Code (np. Terraform). - Silne podejście DevOps, integracja CI/CD, governance środowisk. Codzienne zadania: - Projektowanie i nadzór architektur Google Cloud (dane, analityka, AI, platforma). - Prowadzenie decyzji technicznych, przeglądów i komitetów architektonicznych. - Wsparcie presales, estymacji i kształtowanie rozwiązań. - Prowadzenie i mentorowanie inżynierów i starszych członków zespołu. - Zapewnienie bezpieczeństwa, governance i efektywności kosztowej w GCP.
Global Data Services Lead / Kierownik ds. Globalnych Usług Danych
PROVIDENT Polska
⚲ Warszawa, Śródmieście
Wymagania
- AWS
- Snowflake
- Power BI
Nasze wymagania: Bachelor’s degree in IT, Data Management, or a related discipline (or equivalent experience) Certifications or hands-on experience with AWS, Snowflake, and/or Power BI administration Experience working in a global or multi-market environment, and manage multiple priorities in a fast-paced, global environment Strong understanding of cloud platforms, cost management, and usage metrics (AWS, Snowflake) Experience administering Power BI services, including licensing, access, and workspace governance Knowledge of data operations, governance, and documentation best practices Experience using cloud cost monitoring and reporting tools Proven ability to analyse and report on platform usage and cost data Strong organisational, communication, and stakeholder management skills Zakres obowiązków: Own and oversee Global Data Platforms (Power BI, AWS, Snowflake), ensuring secure, reliable, and high-performing services Monitor, analyse, and report cloud usage and costs, driving transparency and cost optimisation Design and implement a global data service chargeback model aligned to IT financial governance Standardise ways of working across global data teams, enabling consistent and efficient operations Lead documentation and knowledge management for Global Data Operations Deliver clear operational reporting and insights to senior stakeholders and local boards Act as a key liaison between Global IT and Data Operations to support effective service delivery Support and coordinate delivery of priority global data initiatives and programmes Oferujemy: Stable employment – 93% of people are employed under an employment contract for an indefinite period. Safety – we have been on the Polish market for 29 years. Friendly work environment – we have received the Top Employer award 13 times in a row. Hybrid work – we usually meet in the office twice a week (Dworzec Gdański metro station). Extra 3 days of paid leave – if you use all your leave in a given calendar year. Private medical care with appointment guarantee service (Medicover). Full implementation under the supervision of a mentor, including a package of professional implementation training. Access to the development platform, including e-learning training, podcasts and webinars. Activities supporting development in the organization, e.g. the "Effective Manager" training series for people holding managerial positions. Business telephone (also for private use). Access to the ProviBenefity cafeteria platform, which is supplied with a monthly amount to be used, or subsidies for your Multisport card - you choose from 5 types of cards. Life insurance (UNUM Życie TUiR S.A.) on preferential terms. Christmas benefits and co-financing for the "Holidays under the pear tree" holiday for you and your children. Psychological support for employees, including: care of a psychologist (including children's), psychotherapist, dietician, coaching.
Database Administrator DB2 - English speaking
Deutsche Telekom TSI Hungary Kft.
⚲ Budapest, Debrecen, Pécs, Szeged
6 751 - 12 957 PLN (PERMANENT)
Wymagania
- IBM Db2
- Storage
- backup & recovery strategies
- Oracle (nice to have)
- PostgreSQL (nice to have)
- MySQL (nice to have)
O projekcie: As Hungary’s most attractive employer in 2025 (according to Randstad’s representative survey), Deutsche Telekom IT Solutions is a subsidiary of the Deutsche Telekom Group. The company provides a wide portfolio of IT and telecommunications services with more than 5300 employees. We have hundreds of large customers, corporations in Germany and in other European countries. DT-ITS recieved the Best in Educational Cooperation award from HIPA in 2019, acknowledged as the the Most Ethical Multinational Company in 2019. The company continuously develops its four sites in Budapest, Debrecen, Pécs and Szeged and is looking for skilled IT professionals to join its team. Join our international team to deliver exceptional service while working directly with German-speaking clients and global stakeholders. * Please be informed that our remote working possibility is only available within Hungary due to European taxation regulation. Wymagania: - Proven hands-on experience in DB2 migrations, version upgrades, and platform transitions.- Strong understanding of DB2 infrastructure components: storage, memory management, logging, HADR, clustering, and replication.- Experience with DB2 fix packs, patches, and OS compatibility considerations.- Cross-platform database expertise in PostgreSQL, MySQL, or Oracle is a plus.- Solid knowledge of backup & recovery strategies.- Strong troubleshooting and root-cause analysis skills for complex DB2 infrastructure issues.- Ability to work in a multi-customer, multi-platform environment with global delivery models. Codzienne zadania: - Provide infrastructure-level support for IBM DB2 environments (LUW). - Plan, design, and execute DB2 migration and upgrade activities across versions and platforms. - Assess and validate compatibility, dependencies, and risks for DB2 upgrade projects. - Collaborate with architecture, application, and system engineering teams to ensure smooth transitions with minimal downtime. - Implement DB2 patches, and security updates in alignment with vendor recommendations and customer standards. - Troubleshoot and resolve complex infrastructure-related DB2 issues in development, test, and production environments. - Support performance tuning, capacity planning, and storage optimization during migrations. - Automate routine DB2 administrative and upgrade tasks using scripting (Shell, Python, Ansible, etc.). - Ensure compliance with enterprise security policies, backup/recovery standards, and audit requirements. - Provide on-call.
Data Analyst
H2B Group
⚲ Gdańsk
16 800 - 20 160 PLN netto (B2B)
Wymagania
- Data analysis
- GCP
- SQL
Kim jest H2B Group? Jesteśmy firmą konsultingową, która pomaga klientom w automatyzacji procesów biznesowych przy pomocy AI, a specjalistom IT rozwijać karierę w modelu B2B. Oferujemy projekty z branż takich jak fintech, medtech, edutech czy automatyka przemysłowa. Dzięki ścisłej współpracy wspieramy rozwój naszych klientów poprzez dostarczanie szybkich i mierzalnych efektów, jednocześnie zapewniając specjalistom IT możliwości rozwoju kariery i zdobywania cennego doświadczenia. Dlaczego warto z nami współpracować? ✨ Elastyczność – Wybierasz projekty dopasowane do swoich umiejętności i zainteresowań, z możliwością zmiany w ramach naszej firmy lub grupy Euvic, której jesteśmy częścią. 💡 Przejrzystość – Masz jasne zasady współpracy i pełną transparentność wynagrodzenia oraz warunków. 🚀 Szybkość działania – Dzięki naszej efektywności szybko znajdziesz lub zmienisz projekt, który idealnie odpowiada Twoim kompetencjom. 🌟 Możliwość rozwoju – Pracujesz przy innowacyjnych projektach, rozwijając kluczowe kompetencje i zdobywając cenne doświadczenie. Do projektu naszego klienta poszukujemy osoby na stanowisko Data Analyst Zakres obowiązków • Analiza dużych wolumenów danych finansowych pochodzących z systemów tradingowych oraz źródeł rynkowych • Tworzenie i rozwój rozwiązań analitycznych opartych o Google Cloud Platform • Pisanie zaawansowanych zapytań SQL w środowiskach cloud data warehouse • Budowanie i rozwijanie warstw transformacji danych oraz przygotowywanie danych do analizy i raportowania • Tworzenie dashboardów i raportów w narzędziach BI • Współpraca z traderami, zespołami risk i compliance oraz innymi interesariuszami biznesowymi • Udział w rozwoju modeli danych oraz usprawnianiu procesów raportowania • Zapewnienie jakości danych (spójność, kompletność, poprawność) • Praca w zespołach Agile nad rozwojem środowiska analitycznego Wymagania • Minimum 3 lata doświadczenia na stanowisku Data Analyst lub podobnym • Bardzo dobra znajomość SQL i doświadczenie w pracy z dużymi zbiorami danych • Doświadczenie w pracy z cloud data environments, w szczególności Google Cloud Platform (GCP) • Praktyczna znajomość BigQuery • Doświadczenie w przygotowywaniu transformacji danych oraz pracy z warstwą analityczną danych • Doświadczenie z narzędziami BI • Umiejętność współpracy z interesariuszami biznesowymi • Doświadczenie w pracy w metodykach Agile Co oferujemy? 💻 Pracę zdalną – elastyczność, która pozwala pracować z każdego zakątka świata! 🚀 Ciekawe projekty – dopasowane do Twoich umiejętności i zainteresowań, z możliwością pracy nad innowacyjnymi rozwiązaniami. 🤝 Umowę B2B bez zapisu o wyłączności – współpracuj z nami na swoich zasadach. 📚 Rozwój zawodowy – praca z najnowszymi technologiami i w zróżnicowanych projektach gwarantuje stały rozwój.
DBA Azure PaaS Services / SQL Server (h/f)
emagine Polska
⚲ La Garenne-Colombes
Wymagania
- Microsoft Azure
- Cloud
- CI/CD
- Database Administration (DBA)
- Powershell
- IT Infrastructure
- Agile
- SQL
- Python
- Microsoft SQL Server
Localisation : La Garenne-Colombes / 50% télétravail Durée : 3 ans Résumé Le rôle principal consiste à renforcer l'équipe DBA pour la conception et l'exploitation de solutions cloud dans un contexte cloud first (Azure/AWS). L'objectif est d'accompagner les développements et projets tout en assurant un environnement de haute disponibilité et une transformation de l'infrastructure informatique. Responsabilités : • Travailler en environnement de haute disponibilité. • Maitriser les failovers SQL clusters sous Windows. • Gérer les demandes des équipes de support et de développement sur les évolutions nécessaires des bases de données. • S’intégrer aux processus agiles des équipes de développement. • Collaborer étroitement avec les équipes infrastructure pour appliquer les normes infra. • Contribuer à la transformation de l'infrastructure informatique vers le cloud. • Définir l'architecture d'infrastructure pour les projets d'entreprise. • Rédiger des documents techniques. • Déployer et configurer des bases de données PaaS. • Automatiser les déploiements de services cloud via Azure DevOps. Compétences : • Architecture MS SQL Server • Gestion de production MSSQL Server • Scripting (Bash, Python, PowerShell) • Connaissance avancée des systèmes Windows • Expérience avec des environnements cloud (AWS RDS, Azure Database) • Maitrise des déploiements en CI/CD via Azure DevOps
Collibra Data Quality Product Owner
emagine Polska
⚲ Warszawa
35 - 50 EUR/h netto (B2B)
Wymagania
- Collibra Data Quality
PROJECT INFORMATION: Industry: manufacturing/automotiveRemote work: 100% Project language: English Business trips: 2 times/year to Sweden Project length: 01/05/2026 to 31/08/2027 Contract length: 6 months contracts + prolongations. Assignment type: B2B Summary: This role focuses on enhancing data quality within the organization by designing and implementing Collibra Data Quality scorecards and enabling internal teams for long-term ownership of the data quality processes.Main Responsibilities:This role involves the design and execution of comprehensive data quality initiatives through the Collibra platform. • Design and Implement Data Quality Scorecards • Design and develop Collibra Data Quality scorecards. • Implement data profiling, business rules, thresholds, and quality metrics. • Ensure scorecards support monitoring and continuous improvement of data quality across domains. • Implemented Collibra DQ scorecards including defined data rules, thresholds, quality metrics, and documentation. • Enable Internal Teams • Facilitate workshops and hands-on sessions for business and technical users. • Guide data owners and data stewards in understanding how scorecards function and how to maintain or extend them. • Support knowledge transfer through documentation, guidelines, and structured handover activities. • Training sessions, documentation, and operational guidelines enabling internal teams to manage and extend scorecards independently. • Act as Product Owner for the Collibra DQ scorecard capability. • Support backlog prioritization and alignment with stakeholders. • Contribute to roadmap planning and value realization for the Data Quality platform.Perform cost estimation and price modelling for development, onboarding, and operational usage. • Backlog management, prioritization support, and documented cost and pricing models related to the DQ capability. • Support selected platform-related tasks such as configuration, access handling, or troubleshooting when needed. • Contribute to platform governance, best practices, and architectural decision support. The consultant will not be responsible for: • Long-term operational ownership of the Collibra platform infrastructure. • Ownership of operational data domains or business data governance decisions. • Development of business dashboards or analytics solutions outside the scope of data quality scorecards. • Required Technical Competence Key Requirements: • Proven experience designing or implementing Collibra Data Quality scorecards. • Strong understanding of data profiling, data quality rules, thresholds, and quality metrics. • Experience working with data governance frameworks and data stewardship processes. • Experience onboarding, training, and enabling business users and technical stakeholders. • Experience acting in a Product Owner role or similar leadership function, including backlog prioritization and stakeholder alignment. • Experience with cost estimation and price modelling related to platform capabilities or services. Personal Competencies • Strong stakeholder communication and facilitation skills • .Ability to translate business requirements into technical data quality controls. • Structured and analytical problem-solving approach. • Proactive mindset with focus on enabling long-term organizational capability. • Ability to operate effectively in cross-functional and distributed teams. Nice to Have: • Knowledge of Collibra Metadata Catalog platform technologies. • Experience working in large and complex enterprise environments. • Experience with Power BI, including building dashboards or visualizing data quality metrics.
(Senior) Data Analytics Consultant (m/f/d) | German speaking
x1F
⚲ Wrocław
20 150 - 22 400 PLN (B2B)
Wymagania
- Power BI
- Tableau
- SAP Analytics Cloud
- Data modelling
- SQL
- Databricks
- Snowflake
- Data warehouse
- Data Lake
- Confluence
- Azure DevOps
- Spark
- Requirements analysis (nice to have)
- Jira (nice to have)
- Data engineering (nice to have)
O projekcie: Your focus at x1F We turn data into impact. Through smart analytics, scalable platforms, and AI that stays understandable and meaningful. Together with our clients, you uncover patterns, activate potential, and enable decisions based on insight rather than gut feeling. What we offer - Community & team culture: Experience events with us that connect and are fun – from relaxed get-togethers to structured team-building sessions. We believe that strong teams grow through shared moments. - Flexible working & balance: Work where and how it suits you: At home, in the office, or on the road at a workation. Our flexible working hours provide you with maximum flexibility while ensuring there's always some overlap with the project's core working hours. - Health & well-being: At x1F, your well-being truly matters. Across our Nearshore locations, we offer a variety of benefits designed to support you – both personally and professionally. Curious about what’s available in your country? Reach out to our recruiter anytime – we’re happy to guide you! - Professional development: We offer German lessons (cost participation) and targeted development programs to support your career growth. Interested? Not sure if you meet every requirement we’re looking for? No worries. Just get in touch – we’ll take a look at it together. No strings attached. Wymagania: Your skills and experience - BI and analytics expertise: Proven experience with leading BI and reporting tools (e.g., Power BI, Tableau, SAP Analytics Cloud) and the ability to design sustainable, scalable BI solutions. - Data modelling and SQL: Expertise in data modelling (star schema, historization) and advanced SQL skills, including complex queries with window functions and CTEs. - Modern data platforms: Hands-on experience with modern data platforms (e.g., Databricks, Snowflake, Microsoft Fabric) and solid understanding of data warehouse and data lake architectures. - Business and domain understanding: Strong business acumen to structure and prioritise requirements; experience in banking, insurance, or large enterprise environments is a plus. - Delivery and collaboration: Proficiency in requirements analysis and project delivery using tools such as Jira, Confluence, and Azure DevOps; experience with CI/CD, Spark, or a background in data engineering/data science is advantageous. - Language and mobility: Fluent German (C1 level or higher) and excellent command of English, combined with a willingness to travel to Germany on a regular basis (approximately every 3–6 months). Your Personality - Analytical: You quickly grasp complex data and business relationships and translate them into clear, actionable solutions. - Structured: You work independently and systematically, with a strong sense of ownership and focus on quality. - Communicative: You communicate clearly and confidently with both technical and non-technical stakeholders in German and English. Codzienne zadania: - Consulting: You provide strategic and architectural consulting to clients in the banking and insurance sector, focusing on data platforms, reporting, and business intelligence. - Requirements analysis: You analyse business requirements, translate them into robust data and reporting concepts, and ensure close alignment between business units and IT. - BI architecture: You design and implement customized BI architectures and reporting solutions on modern data platforms, applying best practices such as star schema, data historization, and CI/CD. - Knowledge transfer: You prepare and present results in an audience-appropriate manner, provide decision-making foundations for stakeholders, and support the establishment of a data-driven decision-making culture. - Data modelling and processes: Your structured approach to data modelling and quick understanding of client processes enable you to consistently evolve business and technical data models into sustainable BI solutions.
[Remote] Data Engineer GCP Airflow BigQuery
DS STREAM
⚲ Warsaw, Katowice, Kraków, Wrocław, Poznań
20 160 - 23 520 PLN (B2B)
Wymagania
- Google Cloud Platform
- ETL
- Airflow
- Python
- SQL
- Spark
- DevOps
- CI/CD
- Kubernetes (nice to have)
- MLOps (nice to have)
- AI (nice to have)
- Scala (nice to have)
- REST API (nice to have)
- Terraform (nice to have)
- VertexAI (nice to have)
O projekcie: Data Engineer We’re looking for an experienced Data Engineer to build, scale, optimize, and maintain reliable data platforms. You’ll work on real-time pipelines, ML infrastructure, attribution data processing, and cloud-native solutions in a high-volume production environment. Tech Stack - GCP - Apache Spark, dbt, BigQuery - Python, SQL, Scala - Apache Airflow - Terraform, GitHub Actions, Docker, Kubernetes - VertexAI Wymagania: Must Have - Over 3 years of experience in Data Engineering and building production-scale data platforms. - Strong programming skills in Python and SQL. - Advanced experience with data modeling, ETL development, and multiple data formats. - Strong knowledge of Google Cloud Platform and cloud-native architecture design. - Expert knowledge of Apache Airflow for workflow orchestration and automation. - Hands-on experience with Apache Spark for batch and high-volume streaming workloads. - Good understanding of CI/CD and DevOps tools such as GitHub Actions or Kubernetes. Nice to Have - Experience with MLOps and ML deployment in production, preferably with Vertex AI. - Practical experience with Terraform for Infrastructure as Code. - Experience building scalable REST APIs for data or ML services. - Strong testing practices, including TDD and unit/integration tests for Spark and Airflow. - Knowledge of Scala for high-performance data processing. Codzienne zadania: - Build and maintain large-scale advertising data pipelines for clicks, impressions, attribution, and event processing. - Improve attribution modeling logic to support better optimization and business decisions. - Ensure high availability, performance, stability, and scalability of real-time data workflows. - Design and support production-grade ML model serving infrastructure. - Develop and manage dbt datasets for model training, experimentation, and Feature Store integration.
Stanowisko Urzędnicze w Oddziale ds. Zarządzania Aplikacjami w Centrum Obsługi Informatycznej UMK
Urząd Miasta Krakowa
⚲ Kraków, Stare Miasto
Wymagania
- SQL
- Oracle
- MySQL
- PostgreSQL
Nasze wymagania: Od kandydatek/kandydatów przystępujących do naboru oczekujemy: Wymagania niezbędne (formalne): a) Spełnienie wymagań z art. 6 ustawy z dnia 21 listopada 2008 roku o pracownikach samorządowych określonych dla stanowisk urzędniczych. b) Obywatelstwo polskie. c) Wykształcenie wyższe. Uwaga: Osoby, które nie spełnią wszystkich wymagań formalnych nie zostaną dopuszczone do udziału w prowadzonym postępowaniu. Wymagania dodatkowe (będące przedmiotem oceny): a) Znajomość języka SQL. b) Bardzo dobra znajomość obsługi standardowych aplikacji: Word, Excel, MS Project, poczty elektronicznej i Internetu oraz wiedza na temat REST, SOAP. c) Znajomość standardów przetwarzania i bezpieczeństwa informacji (w tym znajomość normy PN-ISO/IEC 27001:2007). d) Znajomość Rozporządzenia Rady Ministrów w sprawie Krajowych Ram Interoperacyjności, minimalnych wymagań dla rejestrów publicznych i wymiany informacji w postaci elektronicznej oraz minimalnych wymagań dla systemów teleinformatycznych oraz ustawy z dnia 4 kwietnia 2019 r. o dostępności cyfrowej stron internetowych i aplikacji mobilnych podmiotów publicznych. e) Znajomość języka angielskiego w zakresie umożliwiającym rozumienie dokumentacji technicznej. f) Doświadczenie w zakresie udziału w projektach związanych z wdrażaniem i administrowaniem aplikacjami oraz integracją systemów informatycznych. g) Łatwość nawiązywania kontaktów interpersonalnych, umiejętność pracy w grupie oraz pod presją czasu, komunikatywność, umiejętność analitycznego myślenia. h) Doświadczenie w zakresie przetwarzania danych i w pracy z bazami danych (ORACLE, MySQL, MSSQL, PostgreSQL) a także z uwzględnieniem rozszerzeń przestrzennych do ww. baz danych). i) Wykształcenie: wyższe: Astronomia lub Informatyka lub Nauki Fizyczne lub Matematyka lub Automatyka lub Elektronika i Elektrotechnika lub Informatyka Techniczna lub Telekomunikacja. Uwaga: Wynik postępowania to łączny wynik z testów, rozmów kwalifikacyjnych i ewentualnej analizy dokumentów sprawdzający stopień spełnienia powyższych wymagań. Zakres obowiązków: Do zakresu obowiązków wykonywanych na stanowisku będzie należało: a) Administrowanie techniczne aplikacjami powierzonymi przez kierownika oddziału lub koordynatora w tym: • zarządzanie kontami Użytkowników, • monitoring i optymalizacja działania aplikacji, • udział w planowani, usprawnianie i rozwój aplikacji, • eksploatacja i utrzymanie ciągłości pracy aplikacji, • zarządzanie słownikami, • zarządzanie i realizacja postanowień umów Asysty Technicznej i Konserwacji, • zarządzanie licencjami i dokumentacją techniczną, • opracowywanie analiz danych oraz przygotowywanie raportów i zestawień w oparciu o dane zawarte w aplikacjach, • koordynowanie i nadzór nad realizacją prac zlecanych wykonawcom zewnętrznym, • zarządzanie zgłoszeniami dotyczącymi błędów i awarii, • bieżące wsparcie użytkowników w zakresie prowadzonych aplikacji zgodnie z procesem zarządzania usługami IT (II linia wsparcia), • prowadzenie dziennika zdarzeń dla aplikacji, • wykonywanie instalacji zgodnie z zawartymi umowami z dostawcami zewnętrznymi oraz ustaleniami i instrukcjami wewnątrz Wydziału, • zarządzanie zmianami w aplikacjach oraz koordynacja wdrażania modyfikacji dla tych aplikacji, • analizowanie procesów informacyjnych dla prowadzonych aplikacji, • opracowywanie przepływu danych dla aplikacji, • prowadzenie i aktualizacja dokumentacji związanej z instalacją i wymaganiami technicznymi dla aplikacji, b) Zapewnienie bezpieczeństwa elementom SI GMK w zakresie dotyczącym aplikacji, c) Przygotowywanie, prowadzenie dokumentacji i udział w procedowaniu zamówień publicznych oraz przygotowywanie, negocjowanie i procedowanie umów i zleceń we współpracy z pozostałymi komórkami merytorycznymi Wydziału w zakresie realizowanych zadań, d) Udział w przygotowywaniu specyfikacji istotnych warunków zamówienia oraz udział w komisjach przetargowych, e) Opracowywanie projektów odpowiedzi na interpelacje radnych, wnioski komisji Rady, interwencje poselskie i senatorskie oraz wnioski o udostępnienie informacji publicznej w realizowanych zadań, f) Przekazywanie informacji kierownikowi oddziału lub Koordynatorowi w celu aktualizacji informacji w rejestrach będących w kompetencjach Oddziału zgodnie z zapisami instrukcji postępowania z dokumentacją obowiązującą w Centrum Obsługi Informatycznej, g) Przygotowywanie standardów oraz norm technicznych i jakościowych dla aplikacji, h) Przygotowywanie wymagań technicznych dla nowych aplikacji, i) Współpraca z innymi Użytkownikami systemu informatycznego SI GMK, j) Przygotowywanie i prowadzenie korespondencji związanej z SI GMK, k) Współpraca z Jednostkami Miejskimi i firmami zewnętrznymi w zakresie utrzymania i rozwoju systemu informatycznego, l) Opracowywanie materiałów informacyjnych i sprawozdawczych, m) Wykonywanie innych czynności wchodzących w zakres działania Wydziału zleconych przez Dyrektora, jego zastępców, kierownika oddziału i koordynatora. Oferujemy: a) Stabilne zatrudnienie na podstawie umowy o pracę. b) Możliwość rozwoju zawodowego poprzez odbywanie specjalistycznych szkoleń. c) Zdobycie doświadczenia przy innowacyjnych projektach. d) Ciekawą, odpowiedzialną i pełną wyzwań pracę w przyjaznej atmosferze. e) Dostęp do najnowszych technologii. f) Terminowo wypłacane wynagrodzenie. g) Pracę w świetnie skomunikowanej lokalizacji Krakowa. h) Dofinansowanie do zakupu okularów i soczewek. i) Zakup na preferencyjnych warunkach atrakcyjnego ubezpieczenia na życie, opieki medycznej dla pracownika oraz członka rodziny, karty MultiSport. j) Możliwość członkostwa w Kasie Zapomogowo-Pożyczkowej.
Specjalista lub specjalistka ds. zarządzania danymi (Data Management Specialist /Lead Data Steward)
Diagnostyka S.A.
⚲ Kraków, Czyżyny
Nasze wymagania: Masz kilkuletnie doświadczenie w obszarze data management / data governance / master data / data quality. Masz praktyczną wiedzę o procesach MDM, zarządzaniu słownikami, klasyfikacją danych i standardami jakości. Rozumiesz zagadnienia regulacyjne (RODO, normy jakości, itp.) Zakres obowiązków: Budujesz i utrzymujesz procesy zarządzania danymi (Data Management, Data Quality, Master Data, Data Governance). Monitorujesz jakość danych, identyfikujesz błędy i inicjujesz działania naprawcze. Prowadzisz analizy związane z jakością i spójnością danych oraz przygotowujesz rekomendacje. Współpracujesz z jednostkami biznesowymi oraz zespołami IT w celu zapewnienia spójnego zarządzania danymi w projektach (ERP, LIS, CRM, platforma danych). Odpowiadasz za dokumentacje i rozwój metadanych oraz katalogi danych. Wspierasz i dzielisz się wiedzą z właścicielami danych oraz stewardami danych w poszczególnych obszarach. Koordynujesz pracę analityka wspierającego obszar Data Management. Oferujemy: Realny wpływ na kierunek rozwoju rozwiązań data w całej organizacji. Zatrudnienie na pełen etat w oparciu o umowę o pracę lub kontrakt. Pracę hybrydową (3 dni w biurze przy ul. Prof. M. Życzkowskiego 18). Pakiet benefitów m.in: kartę MultiSport lub Medicover Sport, opiekę medyczną, możliwość grupowego ubezpieczenia, zniżki na badania laboratoryjne dla Ciebie i Twojej rodziny, kursy językowe online, możliwość udziału w rekrutacjach i szkoleniach wewnętrznych.
Senior Data Scientist (Python | Synthetic Control)
1dea
⚲ Warszawa
27 720 - 30 240 PLN (B2B)
Wymagania
- Data science
- Python
- Synthetic Control
- Geo-Splits (nice to have)
- Power Analysis (nice to have)
- DoE (nice to have)
O projekcie: Senior Data Scientist (Python | Synthetic Control) Szukamy doświadczonego Senior Data Scientist, który wyjdzie poza schemat klasycznego modelowania predykcyjnego i obejmie rolę lidera merytorycznego w obszarze zaawansowanego projektowania eksperymentów marketingowych. Jeśli Twoim naturalnym środowiskiem jest styki statystyki, ekonometrii i Python’a, a termin "incrementality" nie ma przed Tobą tajemnic – dołącz do nas. Prosimy o aplikacje CV w języku angielskim. --- Warunki zaangażowania: Obszar: Consulting IT Lokalizacja: 100% zdalnie Start: ASAP, najlepiej od 04/2026 (akceptujemy kandydatury z max 1msc okresem wypowiedzenia) Stawka (ustalana indywidualnie): 165 - 180 PLN netto + VAT / h Zaangażowanie: B2B (outsourcing z 1dea), full-time, długofalowo Proces rekrutacyjny (100% zdalnie): - Krótka rozmowa telefoniczna informacyjno-zapoznawcza z rekruterem 1dea (~10 min) - Weryfikacja techniczno-projektowa z Klientem (~1 - 1,5 h) - (Jeśli OK) Rozmowa zapoznawcza z przedstawicielem projektu u Klienta końcowego (~ 30 min) - Decyzja o podjęciu współpracy Oferujemy - Zatrudnienie na podstawie umowy B2B na czas nieokreślony - Dołączysz do firmy z solidną pozycją na rynku - Firma zapewnia nowoczesny sprzęt, oprogramowanie i konfigurację - Możliwość pracy w elastycznych godzinach - Możliwość pracy zdalnej w 100% - Profesjonalne doradztwo i wsparcie w rozwoju kariery od doświadczonego zespołu specjalistów 1dea - Cenimy sobie koleżeńskość, otwartość, szacunek, wzajemną pomoc i wsparcie w rozwijaniu kompetencji zarówno własnych, jak i kolegów i koleżanek z zespołu - Wspieramy kulturę kreatywności. Każdy członek zespołu ma możliwość proponowania własnych pomysłów i rozwiązań, a jego głos jest zawsze brany pod uwagę Wymagania: Wymagania - Minimum 3 lata komercyjnego doświadczenia w podobnej roli - Ekspertyza metodologiczna: Biegła znajomość Synthetic Control, Geo-splits oraz analizy mocy (Power Analysis) - Wnioskowanie przyczynowe: Doświadczenie w Causal Modeling wykraczające poza standardowe modele predykcyjne - Programowanie w Pythonie: Umiejętność czystej implementacji złożonych metod statystycznych w kodzie - Zaawansowana statystyka: Wiedza z zakresu randomizacji grup testowych i projektowania eksperymentów (DoE) - Podejście Senioralne: Zdolność do mapowania problemów biznesowych na konkretne ramy matematyczne - Angielski: biegle w mowie i piśmie, na poziomie minimum B2 Codzienne zadania: - Projektowanie eksperymentów: Planowanie i ewaluacja testów inkrementalności oraz zaawansowanych testów rynkowych. - Budowa narzędzi (Python): Tworzenie reużywalnych skryptów i notebooków do automatyzacji procesów testowych. - Opracowanie Playbooków: Definiowanie standardów – dobór metod (np. Geo-splits) do konkretnych pytań biznesowych. - Mentoring i edukacja: Transfer specjalistycznej wiedzy metodologicznej do dwóch Data Scientistów w zespole. - Współpraca projektowa: Ścisła praca z zespołem nad wdrażaniem modeli przyczynowych w marketingu.
Power Platform Engineering Lead
Verita HR
⚲ Kraków
27 300 - 30 450 PLN (B2B)
Wymagania
- SQL
- DevOps
- UI/UX
- Cloud knowledge
- Microsoft Azure
- CI/CD
O projekcie: - Stable, long-term projects - Competitive salary with a B2B contract - Hybrid work (2 days per week from the office in Krakow) and flexible working hours - Private healthcare and multisport card Wymagania: - Strong experience as a Power Platform Developer, including Model-Driven Power Apps, Power Automate (min 2/3 years desired) and Power BI (nice to have) - Proficiency in designing and implementing data models - Knowledge on SQL & relational databases allowing independent work on Power BI Reports' building - Experience with DevOps practices and setup – CI/CD, Pipelines, etc. - Experience in designing application UI/UX (with focus on canvas applications) - Familiarity with Agile methodologies and project management principles. - Strong oral and written English communication skills - Cloud knowledge & experience (GCP or AWS) - Knowledge of Microsoft Azure services and integration with Power Platform (desired) - Previous experience in the banking or financial services industry (nice to have) - Knowledge of Jira (Nice to have) - Certifications: Power Platform Developer and/or Azure DevOps Engineer (nice to have Codzienne zadania: - Independently deliver projects, applications and automated workflows using Power Platform tools - Communicate effectively with business stakeholders to gather requirements, design software solutions and report progress - Lead and execute best coding and delivery practices for Power Platform projects; stay updated with the latest trends - Conduct feasibility assessments and proof of concepts - Perform code reviews and coaching sessions for less experienced developers within a team - Support DevOps setup and environment maintenance (CI/CD Pipelines, Environment Administration, etc.) - Document technical specification and user manuals for further reference - Troubleshoot and resolved technical issues related to Power Platform solutions
Dataflow Engineer
Infolet sp. z o.o.
⚲ Kraków
20 160 - 23 520 PLN (B2B)
Wymagania
- Python
- Java
- Google cloud platform
- ETL
- SQL
O projekcie: - Relocation package (4500 PLN total value), paid in three installments (1500 PLN per month) in case your permanent presence in the office is mandatory, and you need to relocate from another city. - Benefits: Extended medical care (over 2000 medical facilities in Poland, 80 in Kraków) for you and your family; Multisport Benefit card; life insurance Wymagania: Must have - 4+ years of experience as a Data Engineer, Dataflow Engineer, or in a similar role working with large-scale data systems - Strong programming skills in Python and Java - Hands-on experience with data pipeline orchestration tools (e.g., Google Dataflow) - Solid experience with Google Cloud Platform, including BigQuery and Dataflow - Strong background in ETL frameworks, real-time data streaming, and data processing - Experience with SQL and NoSQL databases - Knowledge of data governance, data quality, and data security best practices - Strong problem-solving and troubleshooting skills - Fluent English and Polish Nice to have - Experience with additional cloud services or multi-cloud environments - Familiarity with data formats such as JSON, Parquet, or similar - Experience building highly available, low-latency data pipelines - Exposure to on-call or out-of-hours support models - Strong communication skills and experience working with both technical and non-technical stakeholders Codzienne zadania: - Design, build, and maintain efficient data pipelines for collecting, transforming, and storing data - Integrate data from various sources, including cloud platforms (Google Cloud), SQL/NoSQL databases, APIs, and external services. - Optimize and troubleshoot existing pipelines to ensure high performance and reliability. - Implement ETL processes to transform raw data into analytics-ready datasets. - Collaborate with cross-functional teams (data engineering, operations) to understand data requirements and deliver solutions. - Support data applications when required during weekends or non-office hours - Build scalable, automated workflows capable of processing large data volumes with low latency. - Set up monitoring and alerting for data pipelines to minimize downtime - Create and maintain technical documentation for data flows and pipeline configurations
Data Engineer (Java + data science)
Britenet
⚲ Białystok, Kielce, Lublin, Poznań, Warszawa, Łódź, Katowice, Gliwice, Zielona Góra
20 160 - 28 560 PLN (B2B)
Wymagania
- Data science
- Kotlin
- Java
- MongoDB
- SQL
- BigQuery
- Big Data
- Scala
- Apache Airflow
- Google Cloud Platform
- Terraform
- AI
- Python
- Spark
O projekcie: Poszukujemy inżyniera o profilu T-shaped, gdzie głównym filarem jest inżynieria oprogramowania, a kompetencją uzupełniającą jest Data Science. Wymagania: Inżynieria Oprogramowania i Danych (Poziom Mid/Senior): - Języki Backendowe: Biegła znajomość Kotlin lub Java. - Bazy danych i Storage: Doświadczenie w pracy z MongoDB (modelowanie dokumentowe) oraz biegły SQL (w szczególności w kontekście BigQuery). - Big Data & ETL: Dobra znajomość Scala. - Orkiestracja: Praktyczne doświadczenie z Apache Airflow / Google Cloud Composer. - Chmura i Infrastruktura (IaC): Znajomość usług GCP (Google Cloud Platform) oraz umiejętność zarządzania zasobami poprzez Terraform. Data Science & AI (Poziom Junior/Mid): - Analiza Danych: Znajomość ekosystemu Python/Scala w kontekście procesowania danych (Spark). - Platforma ML: Praktyczna znajomość Vertex AI (zarządzanie eksperymentami, wdrażanie endpointów, Feature Store). - Modelowanie: Umiejętność przygotowania zbiorów danych (Feature Engineering) oraz zrozumienie pełnego cyklu życia modeli AI. -Znajomość języków obcych- angielski: Biegłość pozwalająca na swobodną pracę z dokumentacją techniczną, komunikację w międzynarodowym środowisku (B2). -Otwartość na okazjonalne warsztaty w biurze klienta w Warszawie lub w Poznaniu. Welcome Skills - Frontend: Umiejętność tworzenia komponentów w ReactJS. - BI: Umiejętność budowania dashboardów i wizualizacji w Looker Studio.
Data Engineer
Infolet sp. z o.o.
⚲ Kraków
20 160 - 23 520 PLN (B2B)
Wymagania
- Python
- SQL
- GCP
- ETL
O projekcie: - Relocation package (4500 PLN total value), paid in three installments (1500 PLN per month) in case your permanent presence in the office is mandatory, and you need to relocate from another city. - Benefits: Extended medical care (over 2000 medical facilities in Poland, 80 in Kraków) for you and your family; Multisport Benefit card; life insurance Wymagania: Must have - 3+ years of experience in data-related roles, such as Data Engineering, Data Analysis, SQL Development, Data Architecture, Data Management, or Data Modeling - Strong practical and theoretical knowledge of SQL programming and relational databases - Experience with Google Cloud Platform tools (especially BigQuery and Data Studio / Looker Studio) is highly valued - Understanding of ETL processes and data warehousing principles - Experience in preparing business reporting and dashboards - Knowledge of Python is considered an advantage - Proactive mindset with strong problem-solving skills and the ability to work independently on complex tasks - Fluent English and Polish communication skills Codzienne zadania: - Deliver assigned projects end-to-end, including development of performance KPIs, data models, and data pipelines. - Perform data discovery, cleaning, transformation, aggregation, and validation. - Match and link data across multiple datasets - Ensure secure data movement from source systems to target environments - Build complex reporting solutions in Google Cloud and/or Microsoft SQL Server environments using Python, T-SQL, and other technologies - Collaborate with stakeholders and business partners to understand requirements and business logic - Identify opportunities for internal process improvements - Manage risks and potential blockers within the scope of your responsibilities - Document processes by preparing roadmaps, process descriptions, and technical documentation - Drive assigned initiatives by facilitating discussions and monitoring progress
Data & Reporting Senior Developer
Mindbox Sp. z o.o.
⚲ Kraków
23 100 - 25 200 PLN (B2B)
Wymagania
- SQL
- Data analysis
- Data engineering
- Relational database
- Google cloud platform
- ETL
- Python (nice to have)
O projekcie: At Mindbox we connect top IT talents with technology projects for leading enterprises across Europe. We are looking for a Senior Data & Reporting Developer. This role focuses on delivering high-quality data insights, developing data repositories, and providing data assets aligned with enterprise standards. You will work on end-to-end delivery of projects, including data modeling, reporting, and performance KPI development, while collaborating with stakeholders to ensure business requirements are met. Sounds like your kind of challenge? What you get in return - Flexible cooperation model – choose the form that suits you best (B2B, employment contract, etc.) - Hybrid work setup – remote days available depending on the client’s arrangements - 2 days a week from the office in Kraków - Collaborative team culture – work alongside experienced professionals eager to share knowledge - Continuous development – access to training platforms and growth opportunities - Comprehensive benefits – including Interpolska Health Care, Multisport card, Warta Insurance, and more - High quality equipment – laptop and essential software provided Wymagania: - 3+ years of experience in a data-related role (SQL development, data analysis, data engineering, data architecture, or data management) - Advanced knowledge of SQL programming and relational database systems - Experience with Google Cloud Platform (BigQuery, Data Studio) is highly desirable - Understanding of ETL and data warehousing principles - Experience in business reporting and dashboard development - Knowledge of Python is an advantage - Excellent written and verbal communication skills in English - Proactive, goal-oriented mindset with strong problem-solving skills Joining this project you’ll become part of Mindbox – a tech-driven company where consulting, engineering, and talent meet to build meaningful digital solutions. We’ll back you up every step of the way, accelerate your development, and ensure your skills make a difference. Codzienne zadania: - Deliver end-to-end projects, including developing performance KPIs and data models based on multiple data sources - Perform data discovery, cleaning, transformation, metrics calculation, aggregation, and validation - Execute matching and linking across datasets - Ensure secure movement of data from sources to targets - Provide complex reporting solutions within Google Cloud and/or Microsoft SQL Server environments - Utilize Python, T-SQL, and other technologies for data processing and reporting - Collaborate with stakeholders to understand requirements and process logic - Identify internal process improvement opportunities and manage risks in your area - Document processes, create roadmaps, and maintain clear technical documentation - Drive assigned projects, facilitate discussions, and monitor progress
Analityczka / Analityk IT (Zespół Power Platform)
GRUPA PZU
⚲ Warszawa
Wymagania
- Power BI
- SQL
Nasze wymagania: Minimum 3–4 lata doświadczenia w analizie biznesowej lub systemowej Bardzo dobra znajomość ekosystemu Microsoft Power Platform Doświadczenie w projektowaniu procesów, modeli danych oraz UX makiet (np. Miro, Figma) Znajomość narzędzi i technik analizy: BPMN, UML, user stories, acceptance criteria Umiejętność pracy w metodykach zwinnych (Scrum/Kanban) Doświadczenie w pracy z zespołami developerskimi Umiejętność efektywnej komunikacji z interesariuszami biznesowymi i technicznymi Mile widziane: doświadczenie w projektach RPA, znajomość Azure, SQL lub Power BI Zakres obowiązków: Prowadzenie analiz biznesowych i technicznych dla projektów realizowanych na Power Platform (Power Apps, Power Automate, Power BI, Dataverse) Zbieranie, modelowanie i dokumentowanie wymagań w ścisłej współpracy z biznesem Analiza procesów biznesowych i identyfikacja obszarów do automatyzacji Projektowanie rozwiązań w Power Platform (Power Apps, Power Automate, Power BI) Tworzenie dokumentacji analitycznej i technicznej Udział w warsztatach projektowych oraz facylitacja spotkań z interesariuszami Tworzenie koncepcji rozwiązań, makiet, map procesów i modeli danych Przygotowywanie dokumentacji analitycznej, backlogów i user stories, przypadków testowych Wsparcie zespołu deweloperskiego w implementacji i testach tworzonych rozwiązań Wsparcie użytkowników biznesowych w testach akceptacyjnych (UAT) Monitorowanie działania wdrożonych rozwiązań i rekomendowanie usprawnień Doradztwo architektoniczne w zakresie optymalnego wykorzystania Power Platform. Oferujemy: Atrakcyjny model pracy hybrydowej: 1 dzień w tygodniu w biurze Umowa o pracę Pracowniczy Program Emerytalny w wysokości 7% opłacany przez pracodawcę Opieka medyczna w PZU Zdrowie Zniżka pracownicza do 50% na ubezpieczenia (m. in. PZU DOM, PZU AUTO) Platforma benefitowa m.in. karta sportowa, bilety do kin i teatrów, vouchery zakupowe Elastyczna oferta grupowego ubezpieczenie na życie w wielu wariantach Dostęp do bazy szkoleń cyfrowych oraz nowoczesnych platform edukacyjnych Szkolenia i programy rozwojowe dla pracowników i menedżerów Programy i działania wellbeingowe dla pracowników 4 godziny wolnego w dniu urodzin (do odebrania w miesiącu, w którym obchodzisz urodziny) 2 dni w roku na wolontariat pracowniczy (możesz zrealizować autorski projekt wolontariacki lub wziąć udział w akcji zorganizowanej przez Fundację PZU) Możliwość rozwoju pasji sportowych w ramach 18 sekcji PZU Sport Team (od Badmintona - po Żeglarstwo Najbardziej zielone biuro w Warszawie (PZU Park) ze strefami relaksu i siłownią
👉 Senior Data Engineer with Databricks
KMD Poland
⚲ Warszawa, Wrocław, Poznań, Kraków, Gdańsk
160 - 180 PLN/h netto (B2B)
Wymagania
- Git
- MsSQL
- CI/CD
- Docker
- Azure
- Kubernetes
- Databricks
- Python
- Apache Spark
Location: Warsaw (Inflancka 4A) or Remote Work (Poland) B2B Contract, Targeted Salary: 160 - 180 PLN Net/Hour #Python #ApacheSpark #Databricks #MSSQL #Git #CI/CD #Docker #Azure #Kubernetes Are you ready to join our international team as a Senior Data Engineer with Databricks? We shall tell you why you should... What products do we develop? KMD Elements is a cloud-based solution tailored for the energy and utility market. It offers a highly efficient way to handle complex data validation and advanced formula-based settlements on time series. Designed for the international market, KMD Elements automates intricate calculation and billing processes. Key features include an advanced configuration engine, robust automation capabilities, multiple integration options, and a customer-centric interface. More info can be found here How do we work? #Agile #Scrum #Teamwork #CleanCode #CodeReview #E2Eresponsibility #ConstantImprovement 💼Your responsibilities: • Develop and maintain data delivery pipelines for a leading IT solution in the energy market, leveraging Apache Spark, Databricks, Delta Lake, and Python. • Have end-to-end responsibility for the full lifecycle of features you develop. • Design technical solutions for business requirements from the product roadmap. • Ensure optimal performance. • Refactor existing code and enhance system architecture to improve maintainability and scalability. • Design and evolve the test automation strategy, including technology stack and solution architecture. • Prepare reviews, participate in retrospectives, estimate user stories, and refine features ensuring their readiness for development. 💼Ideal candidate: • Has 5+ years of commercial experience in implementing, developing, or maintaining data load systems (ETL/ELT). • Demonstrates strong programming skills in Python, with a deep understanding of data-related challenges. • Has hands-on experience with Apache Spark and Databricks. • Is familiar with MSSQL databases. • Has experience working with distributed systems on a cloud platform. • Has worked on large-scale systems and understands performance optimization. • Is comfortable with Git and CI/CD practices, and can design or implement deployment processes for data pipelines. • Is proactive, solution-oriented, and has a strong can-do attitude. • Communicates fluently in English and Polish, both written and spoken. • Is a team player with excellent collaboration and communication skills. 💼Nice to Have: • Experience with Azure • Experience working with SSIS • Familiarity with Azure PostgreSQL • Knowledge of Docker and Kubernetes • Exposure to Kafka or other message brokers and event-driven architecture • Experience working in Agile/Scrum environments
Senior Data Engineer with Databricks
KMD Poland
⚲ Warsaw
26 880 - 30 240 PLN (B2B)
Wymagania
- Apache Spark
- Databricks
- Python
- User stories
- ETL
- MSSQL
- Cloud platform
- Git
- Azure (nice to have)
- SSIS (nice to have)
- PostgreSQL (nice to have)
- Docker (nice to have)
- Kubernetes (nice to have)
- Kafka (nice to have)
O projekcie: Location: Warsaw (Inflancka 4A) or Remote Work (Poland) B2B Contract, Targeted Salary: 160 - 180 PLN Net/Hour #Python #ApacheSpark #Databricks #MSSQL #Git #CI/CD #Docker #Azure #Kubernetes Are you ready to join our international team as a Senior Data Engineer with Databricks? We shall tell you why you should... What products do we develop? KMD Elements is a cloud-based solution tailored for the energy and utility market. It offers a highly efficient way to handle complex data validation and advanced formula-based settlements on time series. Designed for the international market, KMD Elements automates intricate calculation and billing processes. Key features include an advanced configuration engine, robust automation capabilities, multiple integration options, and a customer-centric interface. More info can be found here How do we work? #Agile #Scrum #Teamwork #CleanCode #CodeReview #E2Eresponsibility #ConstantImprovement Wymagania: Ideal candidate: - Has 5+ years of commercial experience in implementing, developing, or maintaining data load systems (ETL/ELT). - Demonstrates strong programming skills in Python, with a deep understanding of data-related challenges. - Has hands-on experience with Apache Spark and Databricks. - Is familiar with MSSQL databases. - Has experience working with distributed systems on a cloud platform. - Has worked on large-scale systems and understands performance optimization. - Is comfortable with Git and CI/CD practices, and can design or implement deployment processes for data pipelines. - Is proactive, solution-oriented, and has a strong can-do attitude. - Communicates fluently in English and Polish, both written and spoken. - Is a team player with excellent collaboration and communication skills. Nice to Have: - Experience with Azure - Experience working with SSIS - Familiarity with Azure PostgreSQL - Knowledge of Docker and Kubernetes - Exposure to Kafka or other message brokers and event-driven architecture - Experience working in Agile/Scrum environments Codzienne zadania: - Develop and maintain data delivery pipelines for a leading IT solution in the energy market, leveraging Apache Spark, Databricks, Delta Lake, and Python. - Have end-to-end responsibility for the full lifecycle of features you develop. - Design technical solutions for business requirements from the product roadmap. - Ensure optimal performance. - Refactor existing code and enhance system architecture to improve maintainability and scalability. - Design and evolve the test automation strategy, including technology stack and solution architecture. - Prepare reviews, participate in retrospectives, estimate user stories, and refine features ensuring their readiness for development.
Senior Data Engineer (Azure / Dynamics)
DCG Sp. z o.o
⚲ Remote
25 200 - 28 560 PLN (B2B)
Wymagania
- Azure
O projekcie: Offer: - Private medical care - Co-financing for the sports card - Constant support of dedicated consultant - Employee referral program Wymagania: - Strong proficiency with Azure Functions - Experience with Microsoft Dynamics (integrations / migrations / development) - Experience working with integration systems and data processing - Ability to work independently and communicate effectively with architects and business stakeholders - English level: minimum B2+ (daily cooperation with the US) Nice to have: - Experience or knowledge of Microsoft Fabric - Experience in migrations from Zendesk / ERP to Dynamics Codzienne zadania: - Providing senior/high-level technical support in the migration of Zendesk and ERP systems to Microsoft Dynamics - Implementing, developing, and maintaining solutions built with Azure Functions - Integrating data across various systems within the Azure/Dynamics ecosystem - Collaborating with the lead architect in the US — possible work during later hours - Delivering solutions in a hands-on manner (execution-focused rather than planning or consulting) - Participating in tasks related to Microsoft Fabric
Senior Data Analyst (SQL) [M/F]
Stackmine
⚲ Kraków
23 520 - 26 880 PLN (B2B)
Wymagania
- SQL
O projekcie: Celem projektu jest rozwój i uporządkowanie ekosystemu danych poprzez analizę, dokumentowanie oraz poprawę jakości danych wykorzystywanych w kluczowych procesach biznesowych. Projekt koncentruje się na identyfikacji zależności pomiędzy źródłami danych, poprawie metadanych oraz wsparciu tworzenia wysokiej jakości produktów danych wykorzystywanych w analityce i raportowaniu. Osoba na tym stanowisku będzie współpracować z zespołami Data Engineering, Product oraz ekspertami domenowymi, aby zapewnić właściwe zrozumienie źródeł danych, ich struktury, jakości oraz sposobu wykorzystania. Istotnym elementem projektu jest również rozwój katalogu danych, dokumentowanie przepływów danych oraz wsparcie inicjatyw związanych z zarządzaniem danymi i migracjami danych. Wymagania: - min. 5- letnie doświadczenie w analizie danych oraz pracy z dużymi i złożonymi zbiorami danych, - bardzo dobra znajomość SQL (pisanie złożonych zapytań), - doświadczenie w analizie jakości danych oraz walidacji datasetów, - znajomość procesów Data Discovery oraz profilowania danych, - umiejętność identyfikacji zależności między źródłami danych oraz analizowania data lineage, - doświadczenie w dokumentowaniu przepływów danych, procesów oraz logiki biznesowej, - znajomość koncepcji metadata management oraz data catalog, - doświadczenie w pracy z modelowaniem danych (data modelling), - umiejętność współpracy z zespołami technicznymi i biznesowymi, - analityczne podejście do rozwiązywania problemów oraz dbałość o szczegóły, - zaawansowana znajomość j. angielskiego. Codzienne zadania: - analiza złożonych zbiorów danych oraz identyfikacja trendów, zależności i anomalii przy użyciu SQL, - profilowanie i analiza źródeł danych w celu oceny ich struktury, jakości oraz gotowości do wykorzystania, - definiowanie i wdrażanie kontroli jakości danych oraz walidacja datasetów, - dokumentowanie przepływów danych, logiki biznesowej, procesów oraz kontekstu wykorzystania danych, - współpraca z zespołami Data Engineering, Product oraz ekspertami biznesowymi w zakresie analizy i wykorzystania danych, - wsparcie rozwoju modeli danych, katalogu danych oraz dokumentacji metadanych.
Senior BI Developer
Oversee
⚲ Kraków, Wrocław, Warszawa
25 200 - 29 400 PLN (B2B)
Wymagania
- Power BI
- SQL
- ETL
- Python (nice to have)
- dbt (nice to have)
O projekcie: At Oversee, we are reimagining how corporate travel is managed. Our cutting-edge technology and machine learning solutions replace the outdated, manual processes that slow companies down — unlocking cost savings, efficiency, and smarter decisions. We bring together travel analytics and actionable insights, giving global enterprises a clear view of their spend and the tools to continuously improve their programs. We’re growing fast, with exponential YoY revenue growth and partnerships with some of the world’s largest Fortune 500 companies. If you are looking for a dynamic, fast-paced, and positive environment — and want to help solve a $17B global problem — Oversee is the place to build, grow, and make an impact. Why join us? Now, we are looking for a BI Developer who’s passionate about data, building smart solutions, and driving real business impact. This role is not just about building reports — it’s about owning BI projects end-to-end and working closely with product teams to move the needle on revenue and business impact. You’ll have the autonomy to lead, the tools to deliver, and the opportunity to shape how data drives our decisions. Come shape the future of business travel with us! Wymagania: About You - 5+ years in BI/Data Engineering - you've built pipelines, not just dashboards - Expert-level SQL and strong Python skills for ETL/ELT workflows - Solid experience with data warehouse architecture and data modeling (Snowflake, dbt, or similar) - 4+ years building Power BI solutions end-to-end - from data layer to polished, business-ready dashboards - Strong grasp of data quality, governance, and best practices across the full data stack - Comfortable with version control, CI/CD, and deployment processes in a data context - Business-driven mindset, you connect data infrastructure to real outcomes, not just technical deliverables Bonus points if you have: - Degree in Computer Science, Data Engineering, Statistics, or a related analytical field - Experience with Power BI Embedded - A sharp eye for dashboard UI/UX - you know the difference between a report and an insight - Prior experience in a tech lead or mentorship capacity (this role has a clear path there) Codzienne zadania: - Be a key part of our product data development journey; - Design, build and maintain BI solutions that power decision-making across Oversee; - Take ownership of parts of our data warehouse - from planning the architecture to hands-on implementation; - Partner directly with product and business teams to understand needs, recommend solutions, and deliver them end-to-end; - Build dashboards and reports in Power BI that tell a clear story and drive action.
Junior Data Scientist
NIX Tech Kft.
⚲ Budapest
6 261 - 12 522 PLN (PERMANENT)
Wymagania
- Data Science
- Machine Learning
- NumPy
- pandas
- OOP
- Git
- LLM APIs
- TensorFlow (nice to have)
- PyTorch (nice to have)
- LightGBM (nice to have)
- XGBoost (nice to have)
- Docker (nice to have)
- Kubernetes (nice to have)
- PostgreSQL (nice to have)
- MySQL (nice to have)
- MongoDB (nice to have)
- LangChain (nice to have)
- LangGraph (nice to have)
O projekcie: NIX, a global supplier of software engineering and IT outsourcing services, is looking for a Junior Data Scientist in its office in Budapest (Vaci Greens, 13th district). You’ll be part of a team of professionals who are ready to find the best tailor-made IT solutions for their multinational clients in various industries and solve complex problems. WHAT WE OFFER: - Competitive compensation packages. - Stable employment, based on a full-time employment contract. - Private health insurance (Medicare Сlinic). - AYCM sport pass, providing discounts at various sports facilities in Hungary. - Interesting tasks and diverse opportunities for developing your skills. - Free training courses. - Participation in internal and external thematic events, technical conferences. - A spacious office in the heart of Budapest (13th district). - All necessary devices and tools for your work. - Active corporate life. If you feel you’re ready to join the team, apply for this job now! We’re already looking forward to meeting you! Wymagania: - English level intermediate; - Basic math and theory of probability; - Understanding of Version Control Systems (such as Git); - Basic python language; - Understanding OOP principles; - Experience using or integrating with cloud LLM APIs (e.g., OpenAI, Claude, Amazon Bedrock, Vertex AI); - Practical experience with prompt engineering techniques; - Classic machine learning algorithms (Scikit-learn library); - Experience in Numpy and Pandas libraries. Nice to have: - MLOps tools (MLflow for experiment tracking, DVC for data versioning, observability tools); - Basic knowledge of neural network architectures; - At least 1 framework to build and train neural networks (TensorFlow/Keras, PyTorch); - Experience with gradient boosting algorithms (XGBoost or LightGBM); - Being familiar with one or more of the following databases - PostgreSQL, MySQL, MongoDB; - Familiarity with LLM orchestration tools (e.g., LangChain, LangGraph); - Docker or Kubernetes platform. Codzienne zadania: - Collaborate with the team to implement new features to support the growing data needs - Build, maintain, and deploy DS and ML pipelines, including data retrieval, preprocessing, feature engineering, training and inferencing the models, analyzing and visualizing the results - Collaborate with the team to decide on which tools and strategies to use within specific scenarios
IT Architect
Integral Solutions
⚲ Warszawa
15 120 - 22 176 PLN (B2B)
Wymagania
- SQL
- Python
- Ontology
- NLP
- Data modeling
- API
- Git
- Knowledge Management
- RAG (nice to have)
- Graph Databases (nice to have)
- Neo4j (nice to have)
- SPARQL (nice to have)
- RDF (nice to have)
- LLMOps (nice to have)
- NER (nice to have)
- Banking (nice to have)
O projekcie: Szukamy osoby, która pomoże nam budować i rozwijać inteligentne systemy wyszukiwania oparte na danych, ontologiach i AI. Twoim zadaniem będzie porządkowanie nieustrukturyzowanej wiedzy oraz projektowanie rozwiązań, które realnie poprawiają jakość wyszukiwania i dostęp do informacji. Co oferujemy - Pracę na kontrakcie B2B - Dostęp do systemu myBenefit, w tym prywatne ubezpieczenie medyczne, Multisport i wiele innych - Prezenty na różne okazje - Wydarzenia firmowe Wymagania: - 2–5 lat doświadczenia w pracy z danymi, wyszukiwaniem, NLP lub systemami zarządzania wiedzą. - Praktyczne doświadczenie w pracy z ontologiami i modelowaniem wiedzy. - Dobra znajomość SQL oraz podstawy Pythona (scripting). - Doświadczenie w pracy z API i pipeline’ami danych. - Umiejętność dokumentowania procesów i pracy z repozytoriami (np. Git). - Analityczne podejście do problemów i dbałość o jakość rozwiązań. Mile widziane - Technologie semantyczne (RDF, OWL, SPARQL). - Doświadczenie z bazami grafowymi (np. Neo4j). - Projekty RAG, LLMOps lub narzędzia do adnotacji danych. - Wiedza domenowa z bankowości lub środowisk regulowanych. Codzienne zadania: - Projektowanie i wdrażanie ontologii oraz struktur wiedzy w działających systemach. - Praca z nieustrukturyzowanymi źródłami danych (PDF, Word, SharePoint, Confluence, intranet). - Budowa i utrzymanie metadanych, słowników synonimów oraz aliasów. - Projektowanie procesów półautomatycznych: ekstrakcja encji (NER), normalizacja, deduplikacja i walidacja jakości. - Współtworzenie rozwiązań typu AI search (indeksowanie, chunking, embeddingi, retrieval, reranking). - Iteracyjne poprawianie jakości wyszukiwania na podstawie testów i realnych zapytań użytkowników.
Data Quality Engneer
Antal
⚲ Warszawa
21 840 - 25 200 PLN (B2B)
Wymagania
- Snowflake
- SQL
- dbt
- Airflow
- Python
- GitLab
- AWS S3
- IAM
O projekcie: Data Quality Engineer (K/M) Poszukujemy Data Quality Engineer do zespołu odpowiedzialnego za rozwój i utrzymanie hurtowni danych w środowisku Snowflake. Osoba na tym stanowisku będzie odgrywać kluczową rolę w zapewnieniu jakości danych i wspieraniu procesów raportowania w dużej, międzynarodowej organizacji medialno-technologicznej. Warunki współpracy: - Możliwość rozpoczęcia współpracy w trybie ASAP. - Długoterminowa współpraca - 100% praca zdalna. Wymagania: Wymagania: - Doświadczenie w pracy z hurtowniami danych w chmurze. - Bardzo dobra znajomość: - Snowflake, SQL - dbt - Airflow - Python - GitLab, CI/CD - Podstawowa znajomość: - AWS (S3, IAM) - Wiedza i doświadczenie w obszarze Data Governance, Data Quality, DAMA (DMBOOK). - Mile widziane: - doświadczenie w migracji hurtowni danych ze środowiska on-premise do Snowflake, - doświadczenie w organizacjach z branży medialnej, technologicznej lub pokrewnej. Codzienne zadania: - Zbieranie i analiza wymagań jakościowych od interesariuszy w celu zapewnienia wysokiej jakości danych oraz raportowania KPI. - Projektowanie i implementacja automatycznych testów end-to-end monitorujących jakość danych: - na środowiskach testowych w trakcie rozwoju procesów ETL, - cyklicznie na środowiskach produkcyjnych, - w raportach i dashboardach (Power BI). - Współpraca w zespole Scrum: - dzielenie się wiedzą w zakresie „data quality by design”, - propagowanie dobrych praktyk testowania danych i zapewniania ich spójności. - Komunikacja w języku polskim w zespole lokalnym oraz w języku angielskim z zespołami międzynarodowymi.
Data Quality Engineer
Upvanta
⚲ Remote
21 000 - 26 250 PLN (B2B)
Wymagania
- Cloud
- Snowflake
- SQL
- dbt
- Apache Airflow
- IAM
- GitLab
- CD
- AWS S3
O projekcie: Projekt dotyczy kontroli procesu naliczeń i billingu dla abonentów poprzez analizę i przetwarzanie danych w środowisku chmurowym. Jego celem jest monitorowanie przebiegu procesu naliczeń, prezentacja statystyk dla poszczególnych etapów oraz identyfikowanie ewentualnych nieprawidłowości. Rola obejmuje projektowanie i rozwój procesów przetwarzania danych wspierających analizę i kontrolę kluczowych procesów biznesowych. Warunki współpracy - Stawka: 1000 - 1250 B2B MD netto + VAT - Tryb pracy: 100% zdalny - Okres współpracy: długoterminowy (minimum 1 rok) - Godziny pracy: - poniedziałek – czwartek: 8 godzin 30 minut - piątek: 6 godzin Oferta skierowana jest do osób, które chcą rozwijać rozwiązania analityczne i procesy przetwarzania danych w nowoczesnym środowisku chmurowym, mając realny wpływ na jakość i kontrolę kluczowych procesów biznesowych. Wymagania: Wymagania - Doświadczenie w pracy z hurtowniami danych w środowisku cloud - Bardzo dobra znajomość: - Snowflake - SQL - dbt - Apache Airflow - Python - GitLab oraz procesów CI/CD - Podstawowa znajomość platformy AWS (S3, IAM) - Umiejętność analizy wymagań biznesowych i projektowania procesów przetwarzania danych - Doświadczenie w pracy zespołowej w metodykach zwinnych (Scrum) - Umiejętność komunikacji w języku polskim oraz angielskim w środowisku międzynarodowym Mile widziane - Znajomość zagadnień z obszaru billingu, księgowości lub finansów - Doświadczenie w migracji hurtowni danych ze środowiska on-premise do Snowflake Codzienne zadania: - Zbieranie oraz analiza wymagań biznesowych od interesariuszy - Projektowanie i implementacja procesów przetwarzania danych wspierających kontrolę procesu naliczeń i billingu dla abonentów - Tworzenie rozwiązań umożliwiających prezentację statystyk dla poszczególnych etapów procesu naliczeń - Identyfikowanie i wykrywanie nieprawidłowości w działaniu procesów naliczeniowych - Rozwój i utrzymanie procesów ETL/ELT w środowisku chmurowym - Współpraca w zespole pracującym w metodyce Scrum - Współtworzenie i promowanie dobrych praktyk związanych z jakością danych („data quality by design”) - Wdrażanie podejścia opartego na testowaniu danych i zapewnianiu ich spójności - Współpraca z zespołami lokalnymi i międzynarodowymi
Data Engineer - databricks (k/m/x)
Square One Resources
⚲ Warsaw
16 800 - 21 840 PLN (B2B)
Wymagania
- Python
- SQL
- Apache Spark
- PySpark
- Databricks
- ETL
- data-mining
- Machine learning
O projekcie: - Poszukujemy Data Engineer do pracy przy projekcie związanym z rozwojem pojazdów autonomicznych (Autonomous Vehicles – AV). Osoba na tym stanowisku będzie analizować duże wolumeny danych sensorowych pochodzących z floty pojazdów testowych (kamery, LiDAR, radar), identyfikować rzadkie i krytyczne scenariusze drogowe (edge cases) oraz przygotowywać dane do symulacji i trenowania modeli ML. - Rola obejmuje pracę z zaawansowaną analityką danych oraz przetwarzaniem szeregów czasowych przy użyciu SQL, Python i Spark/PySpark, a także budowę procesów ETL i narzędzi wspierających eksplorację danych. Zespół odpowiada za przygotowanie i walidację danych wykorzystywanych w pipeline’ach ML oraz systemach symulacyjnych dla autonomicznej jazdy. Wymagania: - Silne podstawy w inżynierii oprogramowania - Zaawansowana znajomość SQL i umiejętność pisania złożonych zapytań - Zaawansowana znajomość Python - Bardzo dobra znajomość Spark / PySpark - Praktyczne doświadczenie z Databricks - Doświadczenie w zaawansowanej analizie danych - Doświadczenie w analizie szeregów czasowych (time-series) - Zrozumienie workflowów Machine Learning (przygotowanie danych do trenowania modeli) - Umiejętność pracy z dużymi wolumenami danych - Dodatkowe atuty: - Doświadczenie z danymi sensorowymi (np. kamery, LiDAR, radar) - Znajomość domeny autonomous driving / AV - Doświadczenie z danymi półstrukturalnymi (np. tablice struktur z modeli detekcji obiektów) Codzienne zadania: - Analiza dużych wolumenów danych z sensorów w celu identyfikacji edge cases (np. nagłe hamowanie, bliskie pojazdy) - Pisanie złożonych zapytań w SQL / Python / Spark (PySpark) do filtrowania, agregowania i transformowania danych - Analiza i przetwarzanie danych szeregów czasowych - Praca z wewnętrznymi narzędziami do wyszukiwania danych oraz workflowów auto-labeling - Przetwarzanie danych strukturalnych i półstrukturalnych generowanych przez modele detekcji obiektów - Identyfikowanie danych odpowiednich do symulacji pojazdów autonomicznych oraz pipeline’ów treningowych ML - Projektowanie i rozwój skryptów do zaawansowanego data mining - Budowa i utrzymanie procesów ETL dla dużych zbiorów danych - Rozwój i usprawnianie wewnętrznych narzędzi analitycznych wspierających eksplorację danych - Proponowanie i walidacja nowych podejść analitycznych usprawniających odkrywanie danych
Data Analyst
Ework Group
⚲ Warszawa, Gdynia, Łódź, Gdańsk
23 520 - 27 720 PLN (B2B)
Wymagania
- SQL
- R
- Scala
- Java
- Python
- Power BI
Wymagania: - Proven experience in data management, data quality, or a related role, preferably within the financial services industry - Experience with advanced SQL, Python, R, Java and Scala - Familiar with data taxonomy and capable to build small data models - Experience with Power BI to produce reports - Excellent stakeholder management is mandatory as you will be working closely with multiple business areas and key business leads across IT, Architecture, Financial Crime, Compliance, Legal - and the Business in order to implement changes - Experience within financial crime (AML/CTF, KYC, Transaction Monitoring and Sanctions) - Professional, organised, and structured in approach and work produced to a high quality of standard, and you always strive to find the solution that is best for the bank - Prepared for fast paced project with changing priorities - Excellent analytical and problem-solving skills, strong attention to detail and a commitment to data accuracy - Ability to communicate effectively with both technical and non-technical audiences - Experience with data governance frameworks and methodologies is a plus - Experience with data migration and integration projects is a plus - Ability to work independently and as part of a team - Fluency in English is a requirement (speaking and writing) Codzienne zadania: - Data Analyst working on multiple tasks supporting a large program in Financial Crime Prevention, data profiling, data design, data mapping, complex data analysis.
Lead Data Engineer (GCP / PySpark)
DCG sp. z o.o.
⚲ Remote
28 560 - 31 920 PLN (B2B)
Wymagania
- GCP
- PySpark
- Data engineering
- Google cloud platform
- Cloud
- DevOps
- CD
- Communication skills (nice to have)
O projekcie: Offer: - Private medical care - Co-financing for the sports card - Constant support of dedicated consultant - Employee referral program Wymagania: Requirements: - Experience in a Senior / Lead Data Engineer role - Hands on experience with Google Cloud Platform (GCP) - Strong knowledge of PySpark - Experience in data engineering projects in a cloud environment - Participation in data platform migrations (including migrations between technologies/environments) - Knowledge of or experience in the following areas: CloudOps / DevOps, automation, CI/CD, reliability, observability (nice to have) - Excellent communication skills – critical for this role - English at minimum B2+ / C1 level (UK based client) Codzienne zadania: - Acting as a technical lead / leading contributor in the Data Engineering area - Organizing and structuring the team's work - Removing day to day technical and process blockers - Supporting the team in technical and architectural decision making - Active communication with stakeholders and progress reporting - Contribution to the migration of the data platform to GCP
DevOps/Data Engineer
Mindbox Sp. z o.o.
⚲ Kraków
27 300 - 33 600 PLN (B2B)
Wymagania
- Data pipelines
- Python
- ETL
- Apache Airflow
- pandas
- PySpark
- NumPy
- Keras
- Azure
- Databricks
- Git
- DevOps (nice to have)
O projekcie: At Mindbox we connect top IT talents with technology projects for leading enterprises across Europe. As a Data Engineer, you will design and implement robust, scalable, and reusable data solutions, working on ETL/ELT pipelines, automation, and analytics to support security initiatives. This role involves close collaboration with stakeholders, technical analysis, and delivering high-quality solutions in an Agile environment. Sounds like your kind of challenge? What you get in return - Flexible cooperation model – choose the form that suits you best(B2B, employment contract, etc.) - Hybrid work setup – remote days available depending on the client’s arrangements (6 days per month in Kraków) - Collaborative team culture – work alongside experienced professionals eager to share knowledge - Continuous development – access to training platforms and growth opportunities - Comprehensive benefits – including Interpolska Health Care, Multisport card, Warta Insurance, and more - High quality equipment – laptop and essential software provided Note: Detailed project information will be shared during the recruitment process. Wymagania: Must-have: - Hands-on experience in data pipelines and ETL/ELT processes using Python. - Strong knowledge of ETL frameworks (Apache Airflow, Pandas, PySpark, Dagster). - Proficiency in Python development (Numpy, Pandas, Keras). - Practical experience with Apache Airflow and Big Query / Azure Databricks. - Familiarity with GIT and efficient branch management. - Strong experience in data analysis and developing production-grade code. - Proven track record in delivering enterprise-grade technical solutions. - Experience working in Agile/Scrum environments. - Excellent communication skills in English (written and verbal). Nice-to-have: - Hands-on experience with DevOps practices and tools. - Background in financial services or large-scale enterprise environments. Joining this project you’ll become part of Mindbox – a tech-driven company where consulting, engineering, and talent meet to build meaningful digital solutions. We’ll back you up every step of the way, accelerate your development, and ensure your skills make a difference. Codzienne zadania: - Design, develop, and maintain data pipelines and ETL/ELT processes using Python. - Implement and optimize workflows using Apache Airflow or similar frameworks. - Work with Big Query and/or Azure Databricks for data processing and analytics. - Translate detailed designs into scalable, reusable solutions ensuring performance and security. - Perform technical analysis for projects, changes, and production implementations. - Collaborate with stakeholders to influence design decisions and achieve desired outcomes. - Apply best practices in release management, quality control, and DevOps. - Contribute to continuous improvement through automation and efficient processes. - Work within Scrum/Agile methodologies and participate in design, development, and testing phases.
Web Data Engineer
Devire
⚲ Remote
18 480 - 21 840 PLN (B2B)
Wymagania
- ETL
- Python
- HTTP
- HTTPS
- Robot.txt
- XPath
- Sitemap
- CVS
- JSON
- Parquet
- SQL
- Git
- Docker
- CI/CD
- RODO
- GDPR
O projekcie: Devire Outsourcing IT to forma współpracy dedykowana dla specjalistów z branży IT, oparta na zasadach własnej działalności gospodarczej - B2B, realizująca projekty dla Klientów prowadzących innowacyjne i nowoczesne projekty. Dla naszego klienta - firmy z branży logistycznej, poszukujemy osoby na stanowisko Web Data Engineer'a. Współpraca w modelu B2B, przy szacowanym nakładzie pracy ok. 10 godzin tygodniowo (ok. 40 godzin miesięcznie). - Wynagrodzenie w oparciu o umowę B2B (via Devire). - Elasyczny czas pracy, nakład ok 10 godzin tygodniowo. - Pakiet benefitów (opieka medyczna, karta multisport itp.). - Długofalowa współpraca. - Praca zdalna. Wymagania: - Min. 2 lata doświadczenia w scrapingu, ETL i pracy z danymi w Pythonie. - Bardzo dobra znajomość HTTP/HTTPS (sesje, nagłówki, cookies, statusy), robots.txt i sitemap. - Doświadczenie z: requests / httpx, BeautifulSoup4 lub lxml, selektory CSS / XPath, regex, paginacja, infinite scroll. - Praktyka z co najmniej jednym narzędziem do stron dynamicznych: Playwright lub Selenium. - pandas (czyszczenie, transformacje, joiny), formaty CSV / JSON / Parquet, podstawy SQL (SELECT, UPSERT, indeksy). - Obsługa retry/backoff, timeoutów, kontroli równoległości; logowanie i monitoring. - Git, podstawy Dockera oraz CI/CD (testy, lint, skanowanie sekretów). - Świadomość RODO/GDPR (PII, anonimizacja, minimalizacja danych, retencja). - Umiejętność tworzenia czytelnej dokumentacji i sprawnej komunikacji Codzienne zadania: - Projektowanie, implementacja i utrzymanie crawlerów oraz ekstraktorów danych (HTTP/HTTPS, paginacja, infinite scroll, SPA). - Dobór i wykorzystanie adekwatnych narzędzi: requests / httpx, BeautifulSoup4 / lxml, Scrapy, Playwright / Selenium (strony renderowane JavaScriptem). - Budowa pipeline’ów ETL/ELT: czyszczenie, normalizacja, deduplikacja i walidacja danych (np. pandas, Great Expectations / pandera). - Zapisywanie danych do CSV / Parquet oraz/lub ładowanie do relacyjnych baz danych (np. PostgreSQL, BigQuery). - Orkiestracja i automatyzacja zadań (cron, Airflow / Prefect); monitoring, alerting, logowanie, retry/backoff. - Zapewnienie zgodności prawnej i etycznej (robots.txt, regulaminy serwisów, RODO/GDPR). - Dokumentowanie schematów danych, przepływów (data lineage) i decyzji architektonicznych. - Współpraca z analitykami, produktowcami oraz – w razie potrzeby – zespołami prawnymi i bezpieczeństwa. - Proaktywne utrzymanie rozwiązań (szybka adaptacja scraperów po zmianach źródeł, niski MTTR).
Senior Data/ML Engineer
emagine Polska
⚲ Warsaw
Wymagania
- Cloud
- Data analysis
- training
- Artificial Intelligence (AI)
- Project Management
- Agile
- SQL
- Use Cases
- Python
- Operations
PROJECT INFORMATION: • Industry: Banking • Work model: 3/week in Warsaw, Gdańsk or Gdynia • Remuneration: up to 170 PLN/h netto + VAT (B2B) SummaryThe Senior Data/ML Engineer will manage the lifecycle of machine learning models, focusing on their development, deployment, and monitoring to ensure optimal performance and reliability. Main ResponsibilitiesAs a Senior Data/ML Engineer, you will: • Manage the lifecycle of machine learning models from development to deployment and monitoring. • Implement MLOps principles for streamlined machine learning operations. • Work with Spark & Python for data ingestion and transformation, handling real-time and batch data processing. • Build distributed and parallelized big data processing pipelines. • Leverage Spark for data enrichment and transformation for analytics. • Collaborate with teams including data scientists, DevOps engineers, and IT. • Develop analytics models in partnership with analysts and business stakeholders. • Optimize MLOps practices and libraries for various use cases. • Explore cloud solutions for AI/ML applications. Key Requirements• Proficiency in Python & Spark (minimum 5 years). • Hands-on AWS experience in machine learning and data processing (S3, Glue, SageMaker, Lambda, StepFunctions/Airflow/MWAA). • Knowledge of AWS infrastructure setup and automation with AWS CLI, boto3, and IAM roles. • Understanding of algorithms, data structures, statistics, and linear algebra. • Experience with machine learning frameworks (TensorFlow or PyTorch). • Solid understanding of distributed systems (Hadoop/Hive ecosystem/Big Data Technologies). • Proficient in SQL (Spark/Hive SQL). • Experience with BitBucket and GIT. • Familiarity with the Agile/Safe framework. Nice to Have• Experience in designing and implementing ML models (e.g., Propensity, Customer Lifetime Value). • Experience in helping use case teams with training and deployments.
Senior Data Engineer (Azure / Microsoft Dynamics)
P&P Solutions
⚲ Warszawa
150 - 175 PLN/h netto (B2B)
Wymagania
- Microsoft Dynamics
- Azure
- Azure Funcions
📍 Lokalizacja: praca zdalna 💰 Wynagrodzenie: 150- 175 pln/h 📄 Forma zatrudnienia: B2B 🚩 Czas trwania: od zaraz - 6 miesięcy z możliwością przedłużenia Nasz klient to globalna organizacja non-profit, która dostarcza nowoczesne rozwiązania technologiczne dla sektora społecznego. Wspiera organizacje pozarządowe na całym świecie, zapewniając narzędzia IT, rozwiązania chmurowe oraz wsparcie technologiczne umożliwiające skuteczniejsze realizowanie inicjatyw społecznych. Obecnie organizacja przechodzi strategiczną transformację systemową, obejmującą m.in. migrację środowisk Zendesk oraz ERP do platformy Microsoft Dynamics. Poszukujemy Senior Data Engineera, który będzie wspierał architekta po stronie klienta (zespół w USA) w realizacji migracji i integracji systemów. Rola ma mocno hands-on charakter — szukamy osoby, która potrafi szybko dostarczać rozwiązania, pracować samodzielnie i aktywnie wspierać głównego specjalistę prowadzącego projekt. Ze względu na współpracę z zespołem w USA możliwa jest praca w późniejszych godzinach. Wymagania: • Bardzo dobra znajomość Azure Functions • Doświadczenie z Microsoft Dynamics (integracje / migracje / development) • Doświadczenie w pracy z integracjami systemów i przetwarzaniem danych • Samodzielność w działaniu oraz dobra komunikacja z architektami i biznesem • Angielski min. B2+ (codzienna współpraca z zespołem w USA) Nice to have: • Doświadczenie z Microsoft Fabric • Doświadczenie w migracjach Zendesk / ERP → Dynamic Zakres obowiązków: • Wsparcie techniczne na poziomie seniora przy migracji systemów Zendesk i ERP do Microsoft Dynamics • Tworzenie, rozwój i utrzymanie rozwiązań opartych o Azure Functions • Integracja danych pomiędzy systemami w ekosystemie Azure / Microsoft Dynamics • Współpraca z Lead Architectem z USA • Realizacja zadań w modelu hands-on (wdrożenia, development, integracje) • Udział w zadaniach związanych z Microsoft Fabric (jeśli posiadasz doświadczenie)
Senior Data Engineer
Lumicode Sp. z o.o. (Pentacomp Group)
⚲ Warszawa
150 - 160 PLN/h netto (B2B)
Wymagania
- Microsoft Dynamics
- Azure
Kim jesteśmy? Lumicode Sp. z o.o. należy do Grupy Pentacomp, która jest producentem rozwiązań informatycznych i dostawcą profesjonalnych usług IT dla dużych przedsiębiorstw i sektora publicznego.Jako Pentacomp tworzymy rozwiązania IT łączące innowacyjność z latami doświadczeń - a ich mamy całkiem sporo. Istniejemy na rynku prawie 30 lat i możemy pochwalić się wieloma zrealizowanymi projektami. Aktualnie poszukujemy do klienta Senior Data Engineera Oferujemy: • Kontrakt B2B • Pracę w 100% zdalną • Możliwość skorzystania z karty sportowej oraz z prywatnej opieki medycznej • Długoterminowy projekt O roli Poszukujemy doświadczonego Senior Data Engineera, który posiada praktyczne doświadczenie w pracy z Azure Functions oraz zna ekosystem Microsoft Dynamics. Osoba na tym stanowisku będzie wspierać technicznie głównego architekta projektu po stronie klienta w USA. Rola ma charakter silnie techniczny i operacyjny (hands-on) – zależy nam na kimś, kto potrafi samodzielnie projektować i implementować rozwiązania oraz sprawnie dostarczać działające komponenty w trakcie trwającej migracji systemów. Główne zadania • Wsparcie prac technicznych związanych z migracją systemów Zendesk oraz ERP do środowiska Microsoft Dynamics • Tworzenie, rozwijanie i utrzymywanie rozwiązań bazujących na Azure Functions • Budowanie i utrzymywanie integracji danych pomiędzy różnymi systemami w środowisku Azure i Dynamics • Ścisła współpraca z głównym architektem technicznym w USA • Samodzielna realizacja zadań developerskich oraz dostarczanie rozwiązań produkcyjnych • Wsparcie prac związanych z Microsoft Fabric (jeśli kandydat posiada doświadczenie w tym obszarze) Wymagania • Bardzo dobra znajomość Azure Functions oraz praktyczne doświadczenie w ich wykorzystaniu • Doświadczenie w pracy z Microsoft Dynamics (np. integracje, rozwój systemu, migracje danych) • Doświadczenie w budowaniu integracji systemowych oraz przetwarzaniu danych • Umiejętność samodzielnej pracy oraz efektywnej współpracy z architektami i zespołem biznesowym • Znajomość języka angielskiego na poziomie min. B2+ (codzienna współpraca z zespołem w USA) Mile widziane • Znajomość lub praktyczne doświadczenie z Microsoft Fabric • Udział w projektach migracyjnych obejmujących Zendesk lub systemy ERP do Microsoft Dynamic
Programista Oracle Apex
Neontri
⚲ Warszawa
90 - 150 PLN/h netto (B2B)
Wymagania
- HTML
- RestAPI
- PL/SQL
- CSS
- JavaScript
- Oracle APEX
Cześć! Z tej strony Neontri - jesteśmy firmą liczącą ponad 120 osób. Specjalizujemy się w dwóch obszarach: -tworzymy systemy, które zlecają nam nasi Klienci (najczęściej tworzymy coś od zera, albo dodajemy w pełni nowe funkcjonalności) głównie z obszaru: finansowego, bankowego, fin-tech, e-commerce - choć nie tylko :) -wspieramy naszych Klientów w rekrutacji Specjalistów, a naszym Kandydatom staramy się dobrać jak najlepiej dopasowane oferty (tzw. bodyleasing) Co może nas wyróżniać spośród innych firm i dlaczego warto rozpocząć z nami współpracę? • Posiadamy bogate doświadczenie w realizacji dużych, złożonych projektów. Miliony użytkowników codziennie korzystają z aplikacji, które współtworzymy. • Większość projektów jest prowadzona długoterminowo i w sposób zdalny. Dbamy o nasze relacje i możliwość cyklicznych spotkań na integracjach, czy spotkaniach tematycznych (m.in. wieczorki meksykańskie). Staramy się także angażować w akcje charytatywne. • W codziennej pracy stawiamy nacisk na szczerość, zaufanie, współpracę i dobre relacje. Pracujemy w mniejszych zespołach ze zróżnicowanym seniority. Obecnie dla naszego Klienta z branży bankowej poszukujemy Programistę Oracle APEX (JUNIOR/MID/SENIOR) Projekt: Rozwój funkcji aplikacji internetowej opartej na APEX, wykorzystywanej do rozliczeń w sieci sprzedaży pośredników. Stack Technologiczny:Oracle Apex, PLSQL, SQL, Javascript, HTML i CSS, REST API Zespół: Agile Tryb pracy: 100% zdalnie Wynagrodzenie: 90-150 PLN/h ( w zależności od posiadanego doświadczenia) Model współpracy: Outsourcing u Klienta Proces rekrutacyjny składa się z 2 etapów: • Krótka (około 20 minutowa) rozmowa telefoniczna z naszym działem HR, • Online Tech talk z Klientem (około 1 godziny). Podczas rozmowy pojawią się pytania o doświadczenie oraz sprawdzające wiedzę techniczną. Aplikuj jeśli posiadasz: • Minimum 2 lata doświadczenia na podobnym stanowisku • Doświadczenie w tworzeniu aplikacji webowych w technologii Oracle APEX • Mile widzialne doświadczenie bankowe To co możemy zaproponować to: • Kontrakt B2B, • W pełni finansowaną przez nas opiekę medyczną LUX MED, • Budżet szkoleniowy, • Nie robimy nadgodzin! Balans jest najważniejszy. Chcesz poznać więcej szczegółów? Aplikuj 😊 Do usłyszenia!
Młodszy Programista Hurtowni Danych
ASTEK Polska
⚲ Wrocław
5 000 - 7 000 PLN (PERMANENT)
Wymagania
- SQL
- ETL
O projekcie: Szukamy Młodszego Programisty Hurtowni Danych, który dołączy do naszego zespołu w branży bankowej. Jeżeli posiadasz wykształcenie wyższe z zakresu informatyki lub pokrewne, jesteś studentem ostatniego semestru informatyki lub kierunków pokrewnych, a rozwój w obszarze baz danych i hurtowni danych jest dla Ciebie atrakcyjny- ta rola jest dla Ciebie. Dodatkowe informacje Branża: bankowa Model pracy: hybrydowy (lokalizacja biura: Wrocław) Wymagania: - Masz wykształcenie wyższe z zakresu informatyki lub pokrewne lub jesteś studentem ostatniego semestru informatyki lub kierunków pokrewnych - Posiadasz znajomość języka SQL i zagadnień bazodanowych - Masz podstawową wiedzę o procesach ETL - Interesujesz się rozwojem baz danych (szczególnie relacyjnych i dokumentowych) - Chcesz uczyć się nowych technologii i wdrażać zdobytą wiedzę w praktyce Codzienne zadania: - Tworzenie i modyfikację zapytań SQL oraz procedur PL/SQL w środowisku hurtowni danych - Współtworzenie procesów ETL przy użyciu narzędzi Ab Initio - Udział w projektowaniu i rozwijaniu modeli danych zgodnie z modelem FSDM od Terradaty - Analizę wymagań biznesowych i technicznych w celu implementacji nowych rozwiązań hurtowni danych - Wsparcie w optymalizacji istniejących procesów ETL i struktur danych - Współpracę z zespołem oraz innymi jednostkami biznesowymi Banku - Zdobywanie wiedzy w zakresie bankowości i stosowanych w niej systemów danych
Mid Data Analyst in Banking
CGI
⚲ Warszawa
Wymagania
- ETL
- Data Warehousing
- Power BI
- Pandas
- SQL
- Python
Position Description: We are looking for a Mid-Level Data Analyst to support the development of a banking Data Warehouse environment and deliver high-quality reporting and data visualizations in Power BI. This role combines advanced data analysis, SQL-based transformation logic design, close cooperation with IT teams on ETL processes, and independent development of business-facing dashboards and reports. You will work in a collaborative, Agile environment supporting data-driven decision-making across the organization. Your future duties and responsibilities: • Gathering and refining business requirements related to data and reporting needs • Analyzing data availability within the Data Warehouse and performing gap analysis • Identifying missing data sources in cooperation with Data Stewards and system owners • Defining business logic, KPIs, and data definitions with stakeholders • Developing advanced SQL queries for data extraction, transformation, and aggregation • Preparing detailed analytical documentation and transformation logic for ETL implementation • Validating ETL implementation against defined business rules and SQL logic • Performing data validation, reconciliation, and quality checks • Designing and developing Power BI reports and dashboards for business users • Building and maintaining data models in Power BI (relationships, calculated columns, measures) • Creating KPIs and calculations using DAX • Ensuring clarity, usability, and performance optimization of reports • Translating analytical findings into clear visual insights and actionable recommendations • Monitoring and improving data quality and consistency • Supporting integration with Master Data / MDM • Ensuring alignment with Data Governance standards and best practices • Working in an Agile environment (Scrum / Kanban) • Collaborating closely with business stakeholders, IT, Data Engineers, and governance teams • Supporting junior team members when needed Required qualifications to be successful in this role: • Strong knowledge of SQL (complex joins, aggregations, subqueries, window functions) • Practical experience with Power BI, including report and dashboard development, data modeling, and DAX measures • Experience working in Data Warehouse environments and understanding of ETL concepts • Ability to perform gap analysis and translate business needs into technical data solutions • Experience working with stakeholders and independently driving analytical tasks • Good understanding of banking products and processes • Strong analytical thinking and problem-solving skills • Very good communication skills and ability to clearly explain data insights Nice to have: • Knowledge of Data Governance / MDM concepts • Experience with regulatory reporting, risk, or finance data • Basic knowledge of Python (pandas) for advanced analysis • Experience mentoring junior analysts Skills: • Data Analysis • Polish • Banking • English What you can expect from us: Together, as owners, let’s turn meaningful insights into action. Life at CGI is rooted in ownership, teamwork, respect and belonging. Here, you’ll reach your full potential because… You are invited to be an owner from day 1 as we work together to bring our Dream to life. That’s why we call ourselves CGI Partners rather than employees. We benefit from our collective success and actively shape our company’s strategy and direction. Your work creates value. You’ll develop innovative solutions and build relationships with teammates and clients while accessing global capabilities to scale your ideas, embrace new opportunities, and benefit from expansive industry and technology expertise. You’ll shape your career by joining a company built to grow and last. You’ll be supported by leaders who care about your health and well-being and provide you with opportunities to deepen your skills and broaden your horizons. Come join our team—one of the largest IT and business consulting services firms in the world.
Lead DWH/BI Consultant
SimCorp
⚲ Warszawa
Wymagania
- DWH
- ETL
- BI
- Azure
- PL/SQL
- Snowflake
- Oracle
- MS Fabric
WHAT MAKES US, US Join some of the most innovative thinkers in FinTech as we lead the evolution of financial technology. If you are an innovative, curious, collaborative person who embraces challenges and wants to grow, learn and pursue outcomes with our prestigious financial clients, say Hello to SimCorp! At its foundation, SimCorp is guided by our values – caring, customer success-driven, collaborative, curious, and courageous. Our people-centered organization focuses on skills development, relationship building, and client success. We take pride in cultivating an environment where all team members can grow, feel heard, valued, and empowered. If you like what we’re saying, keep reading! WHY THIS ROLE IS IMPORTANT TO US We are expanding the ADC Data & Communication team, which operates across Warsaw, Manila, and Mexico City. The DWH/BI Consultant is a highly skilled professional working within Consulting Services and based at the Advanced Delivery Center. The primary purpose of this role is to provide expert advice and functional delivery for the successful deployment of SimCorp Client Reporting products and services within a client's environment. WHAT YOU WILL BE RESPONSIBLE FOR • Act as a trusted advisor, supporting our clients in the Data Warehouse/Business Intelligence area. • Facilitate requirements gathering workshops in both business and technical areas. • Participate in data platform modernization initiatives to offer clients the best cloud experience for data warehouse and Business Intelligence/reporting solutions. • Design, implement, and test changes to the Data Warehouse model and ETL workflows. • Work with data ingestion and extraction pipelines. • Test and optimize processes and tools to meet performance and data quality requirements. • Leverage project experience to estimate and plan delivery of a small team. • Demonstrate growth as a subject matter expert (SME) for SimCorp products or technologies. • Participate in the company knowledge-sharing culture, mentor junior consultants, and contribute to the improvement or creation of implementation standards. WHAT WE VALUE • Minimum 7 years of professional IT experience. • Hands-on experience with Oracle and Snowflake databases. • Understanding of database concepts and data modeling for analytics and reporting solutions. • Understanding of Data Warehouse and ETL/ELT concepts. • Experience with processing/migrating high volumes of data. • Familiarity with cloud environments (Azure data stack preferred). • SQL and PL/SQL programming skills. • Experience implementing Business Intelligence (QlikView/QlikSense or Power BI). • Experience delivering project work (as a member of project teams organized in agile or waterfall methodologies). • Comfortable with business requirements gathering and clarification, including direct work with business users. • Ability to coordinate small projects, workstreams, or work groups as a lead consultant. • Experience working as a consultant for external clients (prior experience in Consulting Services). • Experience working in an international or multicultural environment. Nice to have • Basic knowledge of financial instruments and markets, or experience working with financial data and business processes related to investment management. • Familiarity with Ms Fabric • Python development skills focused on automation and data pipeline processing, including data manipulation frameworks such as Pandas. • Interest in developing your career as a consultant in the Data Warehouse and Business Intelligence field for a top brand in the fintech sector. BENEFITS • Flexible working hours and hybrid model - 2 days in the office, 3 days remote • Modern office (next to Wilanowska metro station) with quiet zones and ergonomic workstations • Base salary with annual bonus structure • Holiday allowance upon a 2-week vacation • Occasional remote work across Poland and international options available (up to 24 days domestic, 20 days international per year - subject to internal policy) • Employer-paid Medicover Platinum healthcare package (employee-paid family upgrade available) • Multisport card with 75% employer contribution • Unum group life insurance (employee-paid upgrade available) • Medicover travel insurance for private trips and global business travel insurance • Possibility to join Deutsche Börse Group Share Plan (eligible after 1 year) • Copyrights program for certain roles • Possibility to develop your career in an international environment • Professional training and courses provided by SimCorp • Polish language classes for foreign employees; German and English classes based on business needs • Integration events, volunteering initiatives and employee-led clubs Compensation ranges are being disclosed at the initial stage of candidate engagement. Visit our career pages to learn more about working at SimCorp: www.simcorp.com/career NEXT STEPS Please send us your application in English via our career site. Please note that only applications sent through our system will be processed. At SimCorp, we recognize that bias can unintentionally occur in the recruitment process. To uphold fairness and equal opportunities for all applicants, we kindly ask you to exclude personal data such as photo, age, or any non-professional information from your application. Thank you for aiding us in our endeavor to mitigate biases in our recruitment process. For any questions you are welcome to contact Hanna Brzózka, Lead Talent Acquisition Partner, at "hanna.brzozka@simcorp.com". If you are interested in being a part of SimCorp but are not sure this role is suitable, submit your CV anyway. SimCorp is on an exciting growth journey, and our Talent Acquisition Team is ready to assist you discover the right role for you. The approximate time to consider your CV is three weeks. We are eager to continually improve our talent acquisition process and make everyone’s experience positive and valuable. Therefore, during the process we wil ask you to provide your feedback, which is highly appreciated. WHO WE ARE For over 50 years, we have worked closely with investment and asset managers to become the world’s leading provider of integrated investment management solutions. We are 3,000+ colleagues with a broad range of nationalities, education, professional experiences, ages, and backgrounds in general. SimCorp is an independent subsidiary of the Deutsche Börse Group. Following the recent merger with Axioma, we leverage the combined strength of our brands to provide an industry-leading, full, front-to-back offering for our clients. SimCorp is an equal opportunity employer. We are committed to building a culture where diverse perspectives and expertise are integrated in our everyday work. We believe in the continual growth and development of our employees, so that we can provide best-in-class solutions to our clients.
Junior Data Analyst (Banking / Data Warehouse)
CGI
⚲ Warszawa
Wymagania
- ETL
- Tableau
- Data Warehousing
- Power BI
- Confluence
- Jira
- SQL
- Python
Position Description: We are looking for a Junior Data Analyst to support the development of a banking Data Warehouse environment. The role combines business requirements gathering, data analysis, SQL development, and close cooperation with IT teams responsible for ETL processes. This position requires strong analytical thinking, attention to detail, and the ability to work at the intersection of business and technology in an Agile project environment. Your future duties and responsibilities: • Gathering and clarifying business requirements related to data and reporting needs • Analyzing data availability within the existing Data Warehouse and performing gap analysis • Identifying missing data sources in cooperation with Data Stewards and system owners • Preparing SQL queries for data extraction, joining, and transformation according to defined business logic • Delivering analytical documentation and transformation logic as input for ETL implementation (developed by IT) • Validating the correctness of implementation based on documentation and SQL logic • Performing data quality checks and supporting integration with Master Data / MDM • Working in an Agile environment and collaborating with business and technical teams Required qualifications to be successful in this role: • Practical knowledge of SQL (SELECT, JOIN, GROUP BY, aggregations; window functions are a plus) • Ability to analyze data and draw logical conclusions • Experience in gathering requirements and working with stakeholders • General understanding of banking products and processes • Basic knowledge of Data Warehouse and ETL concepts • Strong analytical thinking and attention to detail • Very good communication skills and ability to work in a team Nice to have • Experience with BI tools (e.g., Power BI, Tableau) • Basic understanding of Data Governance / MDM concepts • Familiarity with Jira / Confluence • Basic knowledge of Python (e.g., pandas) Skills: • Data Analysis • Polish • Banking • English What you can expect from us: Together, as owners, let’s turn meaningful insights into action. Life at CGI is rooted in ownership, teamwork, respect and belonging. Here, you’ll reach your full potential because… You are invited to be an owner from day 1 as we work together to bring our Dream to life. That’s why we call ourselves CGI Partners rather than employees. We benefit from our collective success and actively shape our company’s strategy and direction. Your work creates value. You’ll develop innovative solutions and build relationships with teammates and clients while accessing global capabilities to scale your ideas, embrace new opportunities, and benefit from expansive industry and technology expertise. You’ll shape your career by joining a company built to grow and last. You’ll be supported by leaders who care about your health and well-being and provide you with opportunities to deepen your skills and broaden your horizons. Come join our team—one of the largest IT and business consulting services firms in the world.
Especialista em Power BI
emagine Polska
⚲ Lisbon
Wymagania
- Microsoft Azure
- Security
- Testing
- Data analysis
- Governance
- Documentation
- Business Intelligence (BI)
- Data modeling
- SQL
- Service Level Agreement (SLA)
Especialista em Power BIBuscamos um Analista de Dados com forte domínio de Power BI para atuar na modelagem, transformação, análise e visualização de dados, garantindo a entrega de insights estratégicos e sustentação do ambiente de BI corporativo. Este profissional será responsável por criar soluções analíticas escaláveis, seguras e de alta performance, atuando em parceria com áreas de negócio e times técnicos. 1. Estruturação, Modelagem e Organização dos Dados• Constrói, valida e otimiza modelos semânticos robustos utilizando princípios de modelagem dimensional. • Desenvolve processos de preparação e transformação de dados com Power Query e SQL, garantindo consistência, performance e governança. • Organiza camadas de dados orientadas ao consumo analítico, colaborando com equipes de engenharia para definição de estruturas Gold. • Realiza diagnósticos de performance em modelos, reduzindo cardinalidade, ajustando relacionamentos e criando métricas eficientes em DAX. 2. Visão Analítica, Estratégica e de Negócio• Compreende profundamente os desafios das áreas para traduzir necessidades em painéis, KPIs, métricas e análises acionáveis. • Atua como consultor interno, guiando stakeholders na interpretação dos dados e no uso estratégico dos dashboards. • Equilibra visão técnica e visão de produto, garantindo que as soluções criadas atendam tanto requisitos de negócio quanto critérios de performance e escalabilidade. • Participa de reuniões de refinamento com times multifuncionais, propondo melhorias e padronizações para indicadores e processos analíticos. 3. Ferramentas e Tecnologias• Domínio avançado em Power BI Desktop e Service (DAX, Power Query, Otimização, RLS/OLS, Workspaces, Pipelines de Implantação). • Forte conhecimento em SQL para consultas, modelagens, troubleshooting e integração entre sistemas. • Experiência com o ecossistema Microsoft: Azure, Microsoft Fabric, Datamarts e Lakehouse. • Atuação na definição de boas práticas de versionamento, documentação e publicação de relatórios. • Apoio técnico ao time na resolução de gargalos, escolha de ferramentas e troubleshooting de performance. 4. Qualidade, Governança e Segurança dos Dados• Implementa e mantém políticas de segurança nos relatórios e datasets (RLS, OLS e governança no Power BI Service). • Garante confiabilidade dos dados por meio de testes, validações, SLA de atualização e versionamento de métricas corporativas. • Cria documentação técnica e de negócio, garantindo rastreabilidade, padronização e qualidade das entregas. • Atua em conjunto com áreas de dados e TI para manter integridade, compliance e conformidade das soluções analíticas. 5. Evolução Contínua, Automação e Inovação• Monitora performance, consumo e custo das soluções de BI, propondo melhorias contínuas. • Lidera POCs e experimentos utilizando novas funcionalidades do Power BI e do Fabric, como Semantic Link, Copilot, Lakehouse, Dataflows Gen2, entre outros. • Automatiza processos repetitivos, implantação de reports, agendamentos e fluxos de atualização. • Fomenta cultura orientada a dados, disseminando boas práticas e promovendo workshops internos sobre Power BI e análise de dados. Outros Detalhes: Esta posição é focada em oferecer soluções analíticas para diferentes setores da empresa, com potencial para trabalho remoto. Os candidatos devem estar preparados para contribuir em um ambiente dinâmico e em constante evolução. Regime hibrido 1/2x por semana em Lisboa | Localização: Santa Apolónia.
Développeur Semarchy xDI - (h/f)
emagine Polska
⚲ Lille
Wymagania
- Powershell
- GitLab
- XPath
- Documentation
- Java
- SQL
- JavaScript
- maintenance
Introduction et Résumé :Nous recherchons un Développeur Semarchy xDI chargé de concevoir, développer et maintenir des outils back-end et des scripts techniques. Le candidat idéal possède une expertise solide en SQL et une maîtrise confirmée de l'outil Semarchy xDI, garantissant des traitements fiables et optimisés. Principales Responsabilités :• Concevoir, développer et maintenir des outils back-end et des scripts techniques. • Optimiser et fiabiliser les traitements existants. • Participer à l’analyse des besoins fonctionnels et techniques. • Produire et maintenir la documentation associée. Exigences Clés :• Très bon niveau en SQL (requêtes complexes, optimisation, performance). • Maîtrise confirmée de l’outil Semarchy xDI (développement, paramétrage, maintenance). Compétences Appréciées :• Connaissance de XPath. • Notions ou pratique de Java et JavaScript. • Connaissances en PowerShell. • Utilisation de GitLab. Localisation : Lille (ou Nantes)
Databricks Data Engineer
Ework Group
⚲ Remote
25 200 - 28 560 PLN (B2B)
Wymagania
- Databricks
- Python
- Data engineering
- Cloud platform
- Azure
- GCP (nice to have)
- Communication skills (nice to have)
- SQL (nice to have)
- Data modeling (nice to have)
- DevOps (nice to have)
- CD pipelines (nice to have)
- Infrastructure as Code (nice to have)
- Bicep (nice to have)
- Kafka (nice to have)
- Spark Streaming (nice to have)
- Cloud (nice to have)
- Storage (nice to have)
- Snowflake (nice to have)
- PySpark (nice to have)
O projekcie: 🔹 For our Client we are looking for Senior Databricks Data Engineer🔹 Possible location in Poland : 100% remote ✔️About Insights and Data Insights & Data is a thriving team of over 400 professionals focused on delivering advanced data-driven solutions. Our expertise lies in Cloud & Big Data engineering, where we build scalable architectures for processing large and complex datasets across AWS, Azure, and GCP. We manage the entire Software Development Life Cycle (SDLC), leveraging modern data frameworks, programming methodologies, and DevOps best practices to create impactful and efficient solutions. Wymagania: - Experience in data engineering, with hands-on Databricks expertise. - Strong experience in Python for automation and data transformation. - Experience working with at least one major cloud platform (AWS, Azure, or GCP). - Strong communication skills and strong English language skills. ✔️Nice-to-Have: - Solid understanding of SQL with experience in query optimization and data modeling. - Familiarity with DevOps methodologies, CI/CD pipelines, and Infrastructure as Code (Terraform, Bicep). - Experience with real-time data streaming technologies such as Kafka or Spark Streaming. - Knowledge of cloud storage solutions like Data Lake, Snowflake, or Synapse. - Hands-on experience with PySpark for distributed data processing. - Relevant certifications such as Databricks Certified Data Engineer Associate or cloud-based data certifications. Codzienne zadania: - Design and implement data processing solutions using Databricks for large-scale and diverse datasets. - Design, build, and enhance data pipelines with Python and cloud-native tools. - Work closely with solution architects to define and uphold best practices in data engineering. - Ensure data consistency, security, and scalability within cloud-based environments.
Data Protection Specialist (Data Discovery, CASB, Proofpoint)
Mindbox Sp. z o.o.
⚲ Kraków
32 550 - 38 850 PLN (B2B)
Wymagania
- DLP
- CA
- Audit
- Stakeholder management
- Confluence
- Jira
- Security
- Cybersecurity
- GIAC (nice to have)
- CISSP (nice to have)
- CISA (nice to have)
- ISO (nice to have)
- Cloud access security broker (nice to have)
- risk management (nice to have)
O projekcie: At Mindbox we connect top IT talents with technology projects for leading enterprises across Europe. We are seeking an experienced General Data Protection Subject Matter Expert (SME) to lead and support global initiatives in data protection, compliance, and security controls. This role involves working with multiple stakeholders, managing policies, and ensuring adherence to security standards across the organization. You will provide technical expertise, governance leadership, and audit support, while driving risk reduction and operational excellence. Sounds like your kind of challenge? #LI - Hybrid What you get in return - Flexible cooperation model – choose the form that suits you best (B2B, employment contract, etc.) - Hybrid work setup – 6 days onsite per month - Collaborative team culture – work alongside experienced professionals eager to share knowledge - Continuous development – access to training platforms and growth opportunities - Comprehensive benefits – including Interpolska Health Care, Multisport card, Warta Insurance, and more - High quality equipment – laptop and essential software provided Wymagania: - Proven experience with data protection products, ideally at least two from: Symantec DLP, CASB, Microsoft Information Protection (MIP), Data Insight, Proofpoint. - Experience with anonymization tools such as Privitar, Delphix, CA TDM, or scripting for data masking. - Strong knowledge of data protection policies, governance, and compliance frameworks. - Experience working with audit teams, second lines of defense, and external regulators. - Excellent stakeholder management and ability to lead governance meetings. - Strong documentation and task management skills (e.g., Confluence, Jira). - Familiarity with agile processes and ability to work in a fast-paced, global environment. - Formal education in Information Security, Cybersecurity, Computer Science, or equivalent experience. - Minimum of 2–3 years of cybersecurity experience is beneficial. Desirable: - Information Security certifications such as GIAC, CISSP, CISA, CRISC, ISO 27001 Lead Auditor. - Experience with Cloud Access Security Broker (CASB) solutions. - Knowledge of risk management fundamentals and IT service management principles. Joining this project you’ll become part of Mindbox – a tech-driven company where consulting, engineering, and talent meet to build meaningful digital solutions. We’ll back you up every step of the way, accelerate your development, and ensure your skills make a difference. Codzienne zadania: - Support the delivery and operation of data protection strategies and ensure compliance with security policies and standards. - Act as a key representative and source of expertise on data protection issues. - Collaborate with IT Security Officers, Compliance teams, Control Owners, and Capability Owners to ensure global adherence to security requirements. - Provide audit and compliance support, including evidence, documentation, and responses for internal, external, and regulatory audits. - Manage data protection policies and guidelines, ensuring effective implementation and governance. - Lead and host data protection governance meetings with stakeholders, including audit and regulatory representatives. - Drive engagement with global cybersecurity teams, IT functions, and business stakeholders. - Promote a customer-focused culture, ensuring security solutions align with business needs. - Support risk reduction by deploying technology solutions that mitigate threats while aligning with business risk appetite. - Provide leadership and guidance to technical teams, fostering collaboration and knowledge sharing.