Oferty pracy
Filtry
Collibra Data Analyst
SQUARE ONE RESOURCES sp. z o.o.
⚲ Warszawa, Mokotów
160–190 zł netto (+ VAT) / godz.
Wymagania
- Collibra
- Microsoft Power BI
- Collibra Metadata Catalog
Nasze wymagania: Proven experience implementing Collibra Data Quality Strong knowledge of data profiling Strong knowledge of data quality rules Strong knowledge of quality thresholds and metrics Experience with data governance frameworks and stewardship models Experience enabling business and technical teams Mile widziane: Experience with Collibra Metadata Catalog Experience with Power BI or similar reporting tools Experience in large enterprise environments O projekcie: START DATE: ASAP We are seeking a Collibra Data Analyst to support a Data Quality initiative within a large enterprise data governance program. The consultant will design and implement Collibra Data Quality scorecards and help enable internal teams to maintain and evolve the solution. Zakres obowiązków: Design and implement Collibra Data Quality scorecards Define data profiling rules, thresholds, and quality metrics Support monitoring and continuous improvement of data quality across domains Facilitate training sessions and workshops for business and technical stakeholders Provide documentation and knowledge transfer for internal teams Support platform governance and best practices
Cloud Infrastructure DBA
Shiji Poland
⚲ Katowice
10 000–21 840 zł / mies. (zal. od umowy)
Wymagania
- AWS
- Python
- Bash
- Go
- Linux
- Terraform
- Ansible
- PostgreSQL
Nasze wymagania: Working knowledge of AWS, sufficient for efficient day-to-day operations. Good knowledge of Python/Bash/Go Good knowledge of Linux Experience with Terraform and/or Ansible. Strong knowledge and practical experience as an administrator (DBA) with PostgreSQL. Mile widziane: Bachelor’s degree in computer science, or information technology, or other related field of study O projekcie: Technologies used in our team: AWS, Terraform, Kubernetes, Ansible, Elasticsearch, Kafka, PostgreSQL, VictoriaMetrics, Hashicorp stack, Gitlab, Jenkins, Nexus Zakres obowiązków: Being first of all a DevOps and then a DBA Act as the liaison between development teams and DevOps Act as a mediator and advisor in determining the division of responsibilities between infrastructure and application layers Designing database structure and finding common grounds with other teams on the technical level Implementing backup and restore, disaster recovery and business continuity strategies within database clusters Building and setting up new database clusters Administering existing database clusters and databases Creating and maintaining technical and non-technical documentation of database systems and related tooling Oferujemy: Form of employment of your choosing (B2B, CoE) Lloyds insurance - in case of cooperation on a B2B basis Subsidy for the purchase of glasses (300 PLN/year) Free parking 3 minutes from the office or shared underground parking (can be reserved - first come, first served) Private medical care with dentists package for you and your family Group life insurance for you and your partner Multisport card as part of the MyBenefit package Dell laptop, keyboard, mouse, wireless headphones and monitor 40h for development during work time Free access to group language lessons In-house workshops, training sessions or meet-ups Access to platforms like: OpenUp, Pluralsight and GoodHabitz MyBenefit cafeteria and 520 points per month to be used in vouchers Referral bonus if new employee is referred (6500 PLN gross or more depending on position) Chill room with table football & PlayStation Free snacks (every day) Team building events
CPG Subject Matter Expert
C&F
⚲ Warszawa
Wymagania
- Microsoft Excel
- Microsoft Azure
- AWS
- Google Cloud Platform
Nasze wymagania: Minimum 10 years of professional experience Strong experience within the Consumer Packaged Goods (CPG) industry Proven background in one or more CPG business domains such as Sales, Trade Promotion, Marketing, Supply Chain, Revenue Growth Management, or Demand Planning Experience working directly with executive-level business stakeholders Strong client orientation with excellent communication and stakeholder management skills Strong analytical skills with the ability to translate complex data and business problems into actionable insights Advanced skills in Microsoft Office 365, particularly PowerPoint and Excel Experience leading global, cross-functional teams, with sensitivity to cultural differences Willingness to travel to client locations across the US and EU Mile widziane: Bachelor’s degree Experience in technology-enabled transformation, delivery, or strategy Familiarity with project and program management practices Experience working with cross-functional teams (e.g. UI/UX, data engineering, software engineering) Understanding of agile delivery frameworks (Agile, Scrum, SAFe) Experience with enterprise data platforms, including MDM, RDM, data governance, and self-service analytics Basic knowledge of cloud platforms (Microsoft Azure, AWS, Google Cloud) Experience delivering analytics, dashboards, or business insight solutions Proven ability to recommend innovative, value-driven ideas to clients Experience in business case development, value definition, and transformation strategy Zakres obowiązków: Strategic Delivery & Value Leadership (US & EU CPG Accounts) • Act as senior CPG advisor, shaping engagements with a strong focus on business outcomes, value realization, and executive decision-making. • Define engagement strategy, value roadmaps, planning, and budgets with client business and IT leaders. • Provide oversight of project and program portfolios, ensuring quality delivery, financial performance, and risk management. • Balance priorities across initiatives, stepping into delivery leadership during critical phases or escalations. • Govern SOWs, commercial models, financials, and client governance to ensure transparency, accountability, and profitability. • Advise solution teams on business-driven innovation and ensure effective team mobilization aligned to value objectives. Internal CPG Subject Matter Expert • Serve as CPG SME across commercial, supply chain, analytics, and enterprise data domains. • Shape and evolve C&F CPG offerings, methodologies, and solution blueprints with Technology Practices. • Develop thought leadership, executive narratives, and industry visibility through events, publications, and webinars. Executive Client & Sponsor Management • Build trusted advisor relationships with executive stakeholders across strategic CPG clients. • Drive account growth through value-led consulting, opportunity shaping, and executive sponsorship. • Support account strategies, proposals, and executive presentations with deep domain expertise. People Development • Mentor and coach consulting and delivery talent, supporting capability building, staffing decisions, and career development. Oferujemy: You choose your employment type – we’re open to both employment contracts and B2B arrangements. Learning & development opportunities – after your probation period, you’ll have access to a highly flexible and generous English language reimbursement program, along with an individual development budget to use as you see fit. Classic benefits like private medical care, a sports card, and a preferential life insurance plan. Plus, our infamous Fruit Tuesdays and a special summer bonus – ice cream. A hybrid work setup with plenty of flexibility. Delivery teams work mostly remotely. Support teams come to the office at least once a week – as an HR team, we meet every Wednesday. On other days, you decide where you work. A bunch of non-work activities, including Office Day (a fun-filled day when employees from all over Poland gather at the office), POP UP integrations, various competitions from cooking to photography, and the chance to submit charity causes to our CF4GOOD program, which provides support to those in need. A workplace that values people and is built on collaboration, not competition. If you’re tired of toxic work environments, you’ll finally get a chance to breathe. And if you’ve been lucky with great employers so far, we’ll do our best to keep that streak going.
Business / Data Analyst
Scalo Sp. z o.o.
⚲ Warszawa
115 zł netto (+ VAT) / godz.
Wymagania
- BPMN
- UML
Nasze wymagania: posiadasz doświadczenie w pracy z hurtownią danych w chmurze, znasz platformę Data Bricks, pisanie scenariuszy testowych, praca z metodologią Agile, migracja i mapowanie danych, znajomość notacji BPMN, UML, tworzenie modeli danych, znajomość języka angielskiego na poziomie min. B2. O projekcie: W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom. Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie. Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Zakres obowiązków: praca w projekcie z branży finansowej, dotycząca programu transformacyjnego, mapowanie danych oraz współpraca z architektami przy tworzeniu architektury rozwiązania, zarządzanie wymaganiami funkcjonalnymi i niefunkcjonalnymi, identyfikacja i analiza punktów styku między systemami, walidacja koncepcji rozwiązania, praca z hurtowniami danych, praca zdalna i pierwszy dzień onboardingu z biura we Wrocławiu, stawka do 115 zł/h przy B2B. Oferujemy: stabilną współpracę i różnorodne projekty (Software, Embedded, Data, Cloud Services), możliwość rozwoju kompetencji jako Ambasador Scalo - doskonal skille techniczne i presalesowe w społeczności naszych ekspertów, wpływaj na rozwój organizacji, wspieraj innych, przestrzeń do budowania marki osobistej - twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako prelegent na wydarzeniach (np. ProMeet), prywatną opiekę medyczną - Luxmed, kafeteryjny system benefitów - Motivizer, dostęp do karty Multisport, program poleceń pracowniczych z nagrodami, integracje i wydarzenia firmowe.
Big Data Engineer with Spark (f/m/x)
Sii Sp. z o.o.
⚲ Warszawa, Mokotów
Wymagania
- Apache Spark
- SQL
- Scala
- Java
Nasze wymagania: Min. 5 years of professional experience in Big Data engineering, preferably in the banking or financial services sector Knowledge of Spark, SQL, and Java or Scala Working knowledge of additional tools and technologies such as Python, Java, Airflow, DevOps, CI/CD pipelines, APIs, microservices, and Git Excellent analytical and troubleshooting skills Strong communication and teamwork abilities Proactive, self-driven approach to work Ability to collaborate effectively with international teams across different time zones Solid organizational and prioritization skills Fluency in English and Polish, both spoken and written Open to a hybrid work model (2-3 days per week on-site) Residing in Poland required O projekcie: Join our data engineering team, responsible for creating and evolving a next-generation data platform. This platform plays a key role in supporting a variety of business functions and engaging with multiple stakeholders across the organization. Zakres obowiązków: Design, develop, and maintain scalable data pipelines and processing systems Build efficient solutions for collecting, transforming, and integrating data from diverse sources Translate business and analytical needs into technical requirements and data models Optimize data workflows to ensure high performance, reliability, and resilience Develop and maintain Spark/Scala-based jobs for data ingestion and transformation Participate in code reviews and contribute to continuous improvement initiatives Work collaboratively within an Agile (Scrum) environment, delivering business value in short iterations Follow best engineering practices such as TDD, BDD, clean coding, and DevOps principles Create and maintain technical documentation and test plans Oferujemy: Great Place to Work since 2015 - it’s thanks to feedback from our workers that we get this special title and constantly implement new ideas Employment stability - revenue of PLN 2.1BN, no debts, since 2006 on the market We share the profit with Workers - over PLN 76M has already been allocated for this aim since 2022 Attractive benefits package - private healthcare, benefits cafeteria platform, car discounts and more Comfortable workplace – class A offices or remote work Dozens of fascinating projects for prestigious brands from all over the world – you can change them thanks to Job Changer application PLN 1 000 000 per year for your ideas - with this amount, we support the passions and voluntary actions of our workers Investment in your growth – meetups, webinars, training platform and technology blog – you choose Fantastic atmosphere created by all Sii Power People
Big Data Developer
Edge One Solutions Sp. z o.o.
⚲ Warszawa
Wymagania
- Java
- Python
- Hadoop
- Spark
- Kafka
- NiFi
- Elasticsearch
- Hive
- Flink
- Docker
- Kubernetes
- Bamboo
- Jenkins
- PostgreSQL
- SQL
- MongoDB
- HBase
- IntelliJ
- PyCharm
- Git
Nasze wymagania: Wykształcenie wyższe kierunkowe (informatyka lub pokrewne) Minimum 4 lata doświadczenia w projektowaniu i programowaniu systemów IT Bardzo dobra znajomość Java oraz Python Znajomość programowania obiektowego oraz zasad clean code Doświadczenie w technologiach Big Data, takich jak: Hadoop, Spark, Kafka, NiFi, Elasticsearch, Hive, Flink Doświadczenie w tworzeniu mikroserwisów i/lub REST API Doświadczenie w pracy z Docker oraz Kubernetes Doświadczenie z narzędziami CI/CD (Bamboo, Jenkins) Bardzo dobra znajomość SQL oraz doświadczenie z bazami danych (preferowany PostgreSQL) Mile widziane: Znajomość rozwiązań NoSQL (MongoDB, HBase) Doświadczenie z IntelliJ IDEA / PyCharm Umiejętność pracy z Git Znajomość języka angielskiego umożliwiająca czytanie dokumentacji technicznej Znajomość metodyki Agile (Scrum) O projekcie: Nasz klient to lider rynku ubezpieczeniowego, ale również organizacja inwestująca w transformację cyfrową, rozwój analityki danych i AI. Pracując w tym środowisku, zyskasz możliwość: pracy nad realnymi wyzwaniami biznesowymi w skali milionów klientów, dostępu do nowoczesnych narzędzi i dużych zbiorów danych, współpracy z doświadczonymi ekspertami z obszaru data science, aktuariatu i IT, realnego wpływu na procesy decyzyjne. Tryb pracy Hybrydowa (1 dzień w tygodniu praca z biura klienta w Warszawie) Zakres obowiązków: Współpraca przy tworzeniu specyfikacji wymagań systemowych Wycena pracochłonności zmian w systemach informatycznych Projektowanie oraz szczegółowe dokumentowanie systemów IT na podstawie architektury rozwiązania Opiniowanie i akceptowanie projektów realizowanych przez dostawców zewnętrznych Implementacja rozwiązań w systemach informatycznych Nadzór nad pracami implementacyjnymi oraz odbiór kodu źródłowego i dokumentacji technicznej Zapewnienie realizacji wymagań funkcjonalnych, niefunkcjonalnych oraz eksploatacyjnych Definiowanie i rozwijanie standardów projektowania, dokumentacji oraz implementacji oprogramowania Utrzymywanie i aktualizacja repozytorium dokumentacji technicznej Wsparcie programistyczne podczas wdrożeń oraz stabilizacja wdrożonych rozwiązań Identyfikacja ryzyk projektowych oraz podejmowanie działań minimalizujących ryzyko Rozwijanie standardów środowisk programistycznych Poszukiwanie i wdrażanie nowych technologii Zapewnienie wysokiej jakości wytwarzanego oprogramowania zgodnie z dobrymi praktykami i standardami Realizacja wsparcia w ramach III linii Service Desk Oferujemy: Zyskujesz indywidualne wsparcie Service Delivery Managera, który pomoże Ci zaplanować ścieżkę kariery i zadba o Twój komfort i satysfakcję z pracy w projekcie Szkolenia, certyfikaty i konferencje - dofinansowujemy lub w pełni pokrywamy koszty rozwoju kompetencji technicznych SmartChange – umożliwiamy zmianę projektu i dobieramy kolejny zgodnie z Twoimi preferencjami Dbamy o Twój work-life balance, dlatego poza pracą oferujemy wyjścia integracyjne, aktywności sportowe i inspirujące webinary #edge1talks, które rozwijają i łączą ludzi Aktywność fizyczna – wspieramy sportowe inicjatywy i wynajem sal treningowych Pakiet zdrowotny – prywatna opieka, karta sportowa, ubezpieczenie i wsparcie psychologiczne (HearMe) Elastyczne benefity – sam decydujesz, na co przeznaczasz punkty w naszym systemie benefitowym Bezpłatne lekcje języka angielskiego – dopasowane do Twojego poziomu, idealne do pracy w międzynarodowym środowisku
Big Data + GCP Architect | Branża bankowa
Edge One Solutions Sp. z o.o.
⚲ Warszawa, Wrocław
Wymagania
- Google Cloud Platform
- Erwin
- Enterprise Architekt
Nasze wymagania: 3-letnie doświadczenie w obszarze rozwiązań chmurowych, w tym doświadczenie w projektowaniu rozwiązań opartych o usługi GCP w modelu batch lub streaming, znajomość Google Cloud Platform, w szczególności BigQuery 5-letnie doświadczenie w projektowaniu modeli danych: znajomość narzędzi do modelowania (Erwin, Enterprise Architekt) 5-letnie doświadczenie w obszarze bankowości lub w sektorze finansowym Umiejętność łączenia potrzeb biznesowych z rozwiązaniami Data & IT Doświadczenie w pracy z interesariuszami na poziomie menedżerskim Wysokie kompetencje komunikacyjne i facylitacyjne Samodzielność, odpowiedzialność i orientacja na zadanie Mile widziane: Doświadczenie z narzędziami Data Governance, Data Quality, Data Catalog Projektowanie i nadzór nad warstwą usług platformowych Znajomość architektury data lake, data warehouse lub lakehouse O projekcie: Nasz klient to jeden z trzech największych polskich banków uniwersalnych, jak również jedna z największych instytucji finansowych w obszarze Europy Środkowo-Wschodniej. Jako pierwszy polski bank uruchomił bankomat i wydał kartę kredytową. Tryb pracy Praca hybrydowa z biura klienta w Warszawie lub Wrocławiu Zakres obowiązków: Projektowanie i rozwój architektury platformy danych w GCP, ze szczególnym uwzględnieniem BigQuery Koordynowanie prac w zakresie modelowania danych w Banku Tworzenie i rozwijanie standardów oraz dobrych praktyk w obszarze danych i usług chmurowych Utrzymanie i rozwijanie Korporacyjnego Modelu Informacyjnego (KMI) Utrzymanie i rozwijanie Repozytorium Architektury Danych (w tym mapy danych w Banku, słownik pojęć biznesowych oraz model Danych) Utrzymanie aktualnego Rejestru Obszarów i Grup danych / Informacji wraz z ich podstawowymi cechami, w tym właścicielstwem Dobór i standaryzacja komponentów (np. storage, przetwarzanie, metadane, bezpieczeństwo) Oferujemy: Zyskujesz indywidualne wsparcie Service Delivery Managera, który pomoże Ci zaplanować ścieżkę kariery i zadba o Twój komfort i satysfakcję z pracy w projekcie Szkolenia, certyfikaty i konferencje - dofinansowujemy lub w pełni pokrywamy koszty rozwoju kompetencji technicznych SmartChange – umożliwiamy zmianę projektu i dobieramy kolejny zgodnie z Twoimi preferencjami Dbamy o Twój work-life balance, dlatego poza pracą oferujemy wyjścia integracyjne, aktywności sportowe i inspirujące webinary #edge1talks, które rozwijają i łączą ludzi Aktywność fizyczna – wspieramy sportowe inicjatywy i wynajem sal treningowych Pakiet zdrowotny – prywatna opieka, karta sportowa, ubezpieczenie i wsparcie psychologiczne (HearMe) Elastyczne benefity – sam decydujesz, na co przeznaczasz punkty w naszym systemie benefitowym Bezpłatne lekcje języka angielskiego – dopasowane do Twojego poziomu, idealne do pracy w międzynarodowym środowisku
Apptio TBM Consultant
Link Group
⚲ Remote
19 320 - 22 680 PLN (B2B)
Wymagania
- Apptio
- TBM
- General Ledger
- Vendor
- Labor
- Asset Data
- ServiceNow ITFM
- Cloudability
- Workday Adaptive Planning
- Oracle Hyperion
- SAP FP&A
- Anaplan
- IBM Cognos
- Problem-Solving
- Data validation
- Documentation skills
- Communication skills
- Stakeholder management
O projekcie: We are looking for an Apptio (TBM) Consultant to support financial data management and platform operations within a Technology Business Management environment. This role focuses on ensuring data accuracy, supporting budgeting and forecasting processes, and maintaining TBM platforms such as Apptio. Wymagania: - Hands-on experience with Apptio (Cost Transparency, Planning) or similar TBM / financial planning tools - Strong understanding of financial data structures (General Ledger, vendor, labor, asset data) - Experience supporting budgeting and forecasting processes - Experience with alternative platforms such as: - ServiceNow ITFM - Cloudability - Workday Adaptive Planning - Oracle Hyperion - SAP FP&A - Anaplan - IBM Cognos TM1 - Experience in platform operations (user access, roles, governance) - Strong analytical and problem-solving skills - Experience in data validation, reporting, and issue resolution - Ability to work with cross-functional stakeholders - Strong documentation and communication skills Codzienne zadania: - Manage and maintain financial data within Apptio (or similar TBM platforms), including General Ledger, vendor, labor, and asset data - Support budgeting and forecasting cycles by ensuring accurate and complete data inputs - Perform regular data quality checks and resolve inconsistencies across datasets and reports - Administer user access, roles, and permissions in line with governance standards - Support users through onboarding, training, and ongoing platform assistance - Investigate and resolve data and reporting issues, collaborating with cross-functional teams - Contribute to root cause analysis and continuous improvement initiatives - Maintain documentation for data processes, workflows, and operational procedures - Identify opportunities for automation, standardization, and process optimization
Analityk / Analityczka ds. Jakości Danych
ERGO Hestia
⚲ Gdańsk
Wymagania
- SQL
- Oracle
- Python
Nasze wymagania: doświadczenie w pracy z bazami danych Oracle, znajomość języka Python oraz środowiska DataBricks, umiejętność wykorzystania Microsoft PureView, umiejętność przetwarzania i analizy dużych zbiorów danych, komunikatywność oraz otwartość na tworzenie nowych rozwiązań. Zakres obowiązków: inwentaryzacja danych i informacji nadzór nad katalogiem danych, nadzór nad jakością, kompletnością i adekwatnością danych w repozytoriach danych podstawowych, raportowanie jakości danych, w tym wykrywanie anomalii, „czyszczenie” i wzbogacanie danych, w tym zarządzanie algorytmami analizy i poprawy danych, uzgadnianie metod poprawy danych z zespołem Data Steward, wdrażanie algorytmów automatycznej poprawy danych, projektowanie założeń mechanizmów walidacyjnych, udział w projektach technologicznych związanych z zarządzaniem danymi w celu zapewnienia odpowiedniej dokumentacji i budowania reguł dostępności i jakości danych. Oferujemy: umowa o pracę na okres 6-ciu miesięcy z możliwością przedłużenia na czas nieokreślony, elastyczne godziny rozpoczęcia pracy (od 7.00 do 9.00). Po około trzymiesięcznym okresie wdrożenia możliwość pracy w systemie hybrydowym (2 dni z domu/ 3 dni z biura), od samego początku możesz liczyć na wsparcie buddyego, który wdroży Cię w codzienną pracę. Trudność otrzymywanych spraw będzie iść w parze wraz ze zdobywanym doświadczeniem, zapewniamy dofinansowanie do posiłków w firmowej kantynie oraz bezpłatny lunch dla rowerzystów (możesz dojeżdżać Mevo), pakiet zdrowotny – profilaktyczny przygotowany specjalnie dla pracowników oraz dostęp do oferty Enel-Med i Medicover. Dbamy również o Twoją kondycję fizyczną, oferując zajęcia sportowe oraz kartę Multisport, dostęp do atrakcyjnej zniżki pracowniczej na ubezpieczenia, możliwość udziału w różnorodnych projektach społecznych i wydarzeniach integracyjnych, które wzmacniają naszą wspólnotę Hestian i Hestianek - sprawdź nasz Instagram i Facebook, różnorodne szkolenia oraz programy rozwojowe dla pracowników i menedżerów realizowane z liderami rynku edukacji biznesowej, dostęp do bazy szkoleń cyfrowych i nowoczesnych platform edukacyjnych, przejrzysta ścieżka kariery, dzięki której możesz awansować i rozwijać się w strukturach firmy, regularnie organizujemy rekrutacje wewnętrzne, co daje Ci szansę na awans lub zmianę działu bez konieczności szukania pracy na zewnątrz. Dzięki temu masz realny wpływ na swoją ścieżkę kariery, a także możliwość zdobywania nowych umiejętności i doświadczeń w różnych obszarach firmy, dojedziesz do nas różnymi środkami komunikacji: z Gdyni: SKM do Sopot Wyścigi, trolejbus 21, z Gdańska: tramwaj 2,8, 6, autobus 227, 143, 148, SKM Gdańsk Żabianka, pracę w wyjątkowej lokalizacji – tuż przy plaży, nad morzem. Piękne widoki i świeże powietrze to nasza codzienność, która umila dzień! pracę w firmie będącej jednym z liderów rynku ubezpieczeń w Polsce, która od ponad 30 lat pozostaje wiarygodnym i niezawodnym partnerem oferującym najwyższej jakości produkty i usługi, przestrzeń bez barier architektonicznych i możliwość dostosowanie stanowiska pracy do różnych niepełnosprawności.
Advanced Data Analytics Specialist (she/he)
ASTEK Polska
⚲ Warszawa, Gdynia, Gdańsk
16 800 - 25 200 PLN (B2B)
Wymagania
- Python
- SQL
- SAFe
- T-SQL
- Snowflake
- Apache Airflow
- Power BI
- Azure
- Git
O projekcie: Obecnie dla naszego klienta z branży finansowej poszukujemy kandydata/kandydatki na stanowisko Specjalista / Specjalistka Advanced Analytics. Głównym zadaniem będzie przewidywanie i zapobieganie awariom systemów poprzez wykorzystanie analityki zaawansowanej, statystyki i uczenia maszynowego na danych operacyjnych IT. Dodatkowe informacje: - Praca hybrydowa (3 dni pracy z biura w tygodniu) - Możliwe lokalizacje: Gdańsk / Gdynia / Warszawa Oferowane wynagrodzenie - Wynagrodzenie: od 800 do 1200 PLN netto + VAT / dzień / kontrakt B2B, w zależności od posiadanego doświadczenia i kompetencji Co oferujemy - Długoterminowa współpraca - Szkolenia techniczne, certyfikaty i podnoszenie kwalifikacji - Mentoring Competence Center - bycie członkiem społeczności CC od pierwszego dnia pracy jest szansą na rozwijanie swoich umiejętności, uczestniczenie w różnych konferencjach oraz dzielenie się wiedzą i doświadczeniem z ludźmi, którzy na co dzień mierzą się z tymi samymi wyzwaniami - Jasna ścieżka kariery - Pakiet benefitów pracowniczych (Multisport, prywatna opieka medyczna, ubezpieczenie na życie) - Przyjazną atmosferę pracy, imprezy integracyjne i spotkania team-buildingowe System rekomendacji Znasz kogoś, kogo zainteresuje ta oferta? Skorzystaj z naszego systemu rekomendacji i zgarnij bonus do 7000 zl! Link: astek.pl/system-rekomendacji/ Klauzula informacyjna Administratorem Pana/Pani danych osobowych jest ASTEK Polska sp. z o.o. z siedziba w Warszawie (00-133) przy Al. Jana Pawla II 22. Przysługuje Pani/Panu prawo do wglądu do danych, prawo żądania usunięcia danych itp. Szczegółowe informacje dotyczace przetwarzania: astek.pl/polityka-prywatnosci W dowolnym momencie przysługuje Panu/Pani prawo do wycofania wyrażonych zgód. W razie wycofania zgód prosimy o kontakt e-mailowy na adres privacy@astek.pl lub pisemnie na adres administratora. Procedura dokonywania zgłoszeń przez sygnalistów w ASTEK Polska sp. z o. o.: astek.pl/sygnalisci/ Nr ref.: AO216848 Wymagania: Sprawdzisz się w tej roli, jeżeli: - Bardzo dobrze znasz Pythona i SQLa - Rozumiesz statystykę i testowanie hipotez - Masz doświadczenie w pracy na dużych i złożonych zbiorach danych - Potrafisz tłumaczyć dane na decyzje biznesowe - Lubisz rozwiązywać problemy operacyjne przy użyciu danych - Posiadasz doświadczenie w pracy Agile (Scrum / SAFe) - Bardzo dobrze znasz jęz. angielski Oczekiwana znajomość technologii: - Python (analiza danych, ML) - SQL / T-SQL - Snowflake - Apache Airflow - Power BI - Microsoft Fabric / Azure - Git Codzienne zadania: - Analiza danych incydentowych i operacyjnych - Budowa modeli predykcyjnych wykrywających potencjalne awarie - Wykrywanie wzorców prowadzących do niestabilności systemów - Automatyzacja raportowania i generowania insightów - Budowa raportów Power BI / Microsoft Fabric - Tworzenie analityki przyczyn źródłowych (root cause analysis) - Współpraca z zespołami technicznymi i biznesowymi - Prezentowanie wyników analiz interesariuszom
AWS Data Engineer
Ework Group
⚲ Remote
25 200 - 28 560 PLN (B2B)
Wymagania
- AWS
- Kafka (nice to have)
O projekcie: 🔹For our Client we are looking for AWS Data Engineer🔹 LOCATION: 100% remote from Poland (onboarding possible in Warsaw) Wymagania: Profile: - Proven experience in Big Data or Cloud projects involving processing and visualization of large and unstructured datasets, across various phases of the SDLC. - Hands-on experience with the AWS cloud, including Storage, Compute (and Serverless), Networking, and DevOps services. - Solid understanding of AWS services, ideally supported by relevant certifications. - Familiarity with several of the following technologies: Glue, Redshift, Lambda, Athena, S3, Snowflake, Docker, Terraform, CloudFormation, Kafka, Airflow, Spark. - Basic proficiency in at least one of the following programming languages: Python, Scala, Java, or Bash. - Good command of English; German language skills would be an advantage. Nice to Have: - Experience with orchestration tools (e.g., Airflow, Prefect). - Exposure to CI/CD pipelines and DevOps practices. - Knowledge of streaming technologies (e.g., Kafka, Spark Streaming). - Experience working with Snowflake or Databricks in a production or development environment. - Relevant certifications in AWS, data engineering, or big data technologies. Codzienne zadania: - Tasks: - Design and implement solutions for processing large-scale and unstructured datasets (Data Mesh, Data Lake, or Streaming Architectures). - Develop, optimize, and test modern Data Warehouse (DWH)/Big Data solutions based on the AWS cloud platform within CI/CD environments. - Improve data processing efficiency and support migrations from on-premises systems to public cloud platforms. - Collaborate with data architects and analysts to deliver high-quality cloud-based data solutions. - Ensure data quality, consistency, and performance across AWS services and environments. - Participate in code reviews and contribute to technical improvements.
AI Engineer
PRETIUS SOFTWARE SP. Z O.O.
⚲ Warszawa, Włochy
130–150 zł netto (+ VAT) / godz.
Wymagania
- Python
- Langgraph
- Langchain
- TypeScript
- React Native
- Next.js
- LLM
- Docker
- Kubernetes
- Azure Cosmos DB
- GCP
- AWS
Nasze wymagania: Strong proficiency in Python or TypeScript with a full-stack mindset, including experience with modern backend frameworks and frontend development (React/Next.js) 3+ years of experience in full stack software development Hands-on experience building AI Agents and multi-agent systems using LangChain and LangGraph, as well as production-grade LLM applications Ability to integrate LLMs with external APIs, tools, and vector databases, and to design scalable AI workflows based on complex business logic Understanding of cloud environments and containerization (AWS/Azure/GCP, Docker/Kubernetes) is a strong advantage Excellent English (min. C1) O projekcie: At Pretius, we are looking for AI Engineer to a project in the financial industry, international team. Zakres obowiązków: Design and implement stateful, multi-agent architectures using LangGraph Build and maintain robust data pipelines and chains using LangChain primitives Develop full stack applications (frontend & backend) enabling interaction with AI agents Integrate LLMs with external tools, APIs, vector databases, and enterprise systems Optimize agent performance, context handling, and output quality (including evals in LangSmith) Manage automated deployments and cloud infrastructure for AI-based services Collaborate with international teams to translate business logic into scalable AI workflows Oferujemy: We focus on long- term relationships based on fair principles and reliability Co-financing of the Multisport card and Medicover private healthcare Modern office available Team bonding activities, internal courses, conferences, certifications
Tester Hurtowni Danych (m/k/n)
Upvanta
⚲ Wrocław
84 000 - 100 800 PLN (ZLECENIE)
Wymagania
- ETL
- CIS
- SQL
Wymagania: WYMAGANIA: - Minimum 2 lata doświadczenia pracy na stanowisku testera manualnego/automatyzującego• Doświadczenie w testowaniu hurtowni danych / ETL - Wykształcenie wyższe (kierunki ścisłe; preferowane informatyczne, matematyczne lub ekonomiczne) - Wiedza z zakresu metodologii testowania i podstaw inżynierii oprogramowania - Znajomość podstaw relacyjnych baz danych - Znajomość podstaw języka zapytań SQL - Podstawy programowania w dowolnym języku wysokiego poziomu - Znajomość języka angielskiego na poziomie pozwalającym pracować z dokumentację techniczną systemów DODATKOWYM ATUTEM BĘDZIE: - Doświadczenie w bankowości - Wiedza w zakresie narzędzi do automatyzacji procesów CI/CD Codzienne zadania: - Projektowanie przypadków testowych oraz przygotowywanie danych testowych Przeprowadzanie testów oraz dokumentowanie wyników testów - Identyfikowanie i rejestrowanie wykrytych błędów - Projektowanie i tworzenie atrap (mock-ów) - Raportowanie ryzyk - Automatyzacja testów z wykorzystaniem narzędzi Cucumber, X-Ray oraz Gherkin
Tech Lead (Google Cloud Platform / BigQuery/ Azure)
ASTRAL FOREST PROSTA SPÓŁKA AKCYJNA
⚲ Warszawa, Wola
180–220 zł netto (+ VAT) / godz.
Wymagania
- Google Cloud Platform
- BigQuery
- Pub/Sub
- SQL
- Snowflake
- Microsoft Fabric
- Airflow
Nasze wymagania: At least 4-5 years of experience in data architecture or advanced data engineering, ideally in GCP / BigQuery environments. Advanced knowledge of Google BigQuery – schema design, partitioning, clustering, and query optimization. Hands-on experience designing and deploying solutions using Cloud Storage, Dataflow, Composer (Airflow), Pub/Sub, and Dataproc. Strong background in data modeling, ETL/ELT design, and metadata-driven frameworks. Proficiency in SQL; Python experience is a plus. Understanding of Data Governance, Security, and Data Management best practices. Strong analytical and problem-solving skills, with the ability to think strategically and act pragmatically. Full English proficiency (B2/C1). Mile widziane: Experience with natural language to SQL solutions using Large Language Models (LLMs), Airflow, as well as familiarity with Databricks, Snowflake, or Microsoft Fabric. O projekcie: We’re looking for a hands-on Technical Leader who takes ownership of designing, developing, and driving modern, scalable data ecosystems in Google Cloud. You’ll define the vision, set the standards, and lead teams to deliver data solutions that transform how our clients operate. If you’re someone who thrives on turning business challenges into data-driven strategies, leading technical direction, and taking accountability from concept to delivery - this is your place. Zakres obowiązków: Lead & Shape • Take end-to-end ownership of client data strategies - from discovery and architecture design to development and adoption. • Define and champion best practices for data architecture, modeling, and engineering in Google Cloud (BigQuery, Airflow, Dataflow, Pub/Sub, Composer, Dataproc). • Design modern data platforms from scratch, based on the heavy use of metadata and aiming at AI Enablement (data consumptions by the LLMs) • Build top-notch quality DWH with the vision for logging, auditing, monitoring, CI/CD processes. • Lead technical design sessions and guide engineers on architectural direction, implementation standards, and solution development. • Drive architectural governance: ensure solutions are scalable, secure, cost-optimized, and aligned with business value. • Act as the trusted advisor to senior stakeholders - translating goals into actionable data roadmaps and clear architectural blueprints. Propose & Deliver • Proactively identify opportunities for innovation, efficiency, and modernization across client data platforms, including GCP, Azure, and multi-cloud environments. • Design and develop Data Warehouses, Data Lakes architectures tailored to client needs. • Lead performance reviews and cost optimization initiatives across BigQuery, GCP, and Azure to ensure scalability and long-term sustainability. • Collaborate with presales and account teams to co-create proposals, solution outlines, and client presentations. Governance & Quality • Ensure high standards of data quality, security, and governance across all solutions. [MD3.1]Bonus points if you know SOX Compliance • Define and implement policies for IAM, DLP, and Data Catalog in GCP. • Collaborate closely with data engineers, analysts, and business stakeholders to ensure consistency and scalability. Oferujemy: We’re a growing company with global clients and ambitious goals - which means real challenges, variety, and opportunities to grow. If you’re ready to shape how data drives modern business, we’ll make sure you have everything you need to succeed. • Remote-first, flexible working mode[MD4.1]l • Greenfield project - building DWH from scratch. • Private healthcare, insurance, and Multisport • Full working equipment provided • 1,000 PLN annual development budget for training, certifications, or conferences • Regular knowledge-sharing sessions and mentoring • Work with international clients from Switzerland, France, UK, the US, UAE, and more • A real team culture, where collaboration and learning go hand in hand • Team integrations that build connection - without awkward icebreakers
Staż w Biurze IT
Towarzystwo Ubezpieczeń Wzajemnych Polski Zakład Ubezpieczeń Wzajemnych
⚲ Warszawa
Wymagania
- Oracle
- T-SQL
- PL/SQL
Nasze wymagania: Status studenta co najmniej 3-go roku (lub absolwent do dwóch lat po studiach) – kierunek informatyka lub pokrewne Podstawowa znajomość baz danych Microsoft lub Oracle Podstawowa znajomość T-SQL lub PL/SQL Umiejętność analitycznego myślenia Otwartość na naukę Umiejętność pracy w zespole Zakres obowiązków: Rozwój aplikacji biznesowych w oparciu o bazy danych Oracle Wykonywanie testów wewnętrznych wytworzonych rozwiązań Wsparcie testów akceptacyjnych oraz wdrożenia rozwiązania Przestrzeganie standardów programistycznych Projektowanie rozwiązań Oferujemy: Możliwość pracy w zespole, który chętnie dzieli się wiedzą oraz korzysta z pomysłów i świeżego spojrzenia nowych Pracowników Możliwość zdobycia praktycznych umiejętności zawodowych, w tym programowania 6-miesięczny płatny staż – od 1 lipca 2026 r. Pracę w modelu hybrydowym Umowę o pracę Możliwość zdobycia doświadczenia zawodowego w jednej z największych instytucji finansowej w Europie Środkowo-Wschodniej Poznanie najlepszych specjalistów w branży i nawiązanie swoich pierwszych relacji biznesowych Szkolenia rozwojowe Wsparcie doświadczonego opiekuna Opiekę medyczną w PZU Zdrowie Zniżkę pracowniczą do 50% na ubezpieczenia (m. in. PZU DOM, PZU AUTO) Platformę benefitową m.in. karta sportowa, bilety do kin i teatrów, vouchery zakupowe Elastyczną ofertę grupowego ubezpieczenia na życie w wielu wariantach Dostęp do bazy szkoleń cyfrowych oraz nowoczesnych platform edukacyjnych Programy i działania wellbeingowe dla pracowników Najbardziej zielone biuro w Warszawie (PZU Park) ze strefami relaksu i siłownią
Specjalista ds. raportowania i analiz (K/M)
PRO PEOPLE Spółka z ograniczoną odpowiedzialnością
⚲ Góra Kalwaria, Piaseczno
Wymagania
- SQL
Nasze wymagania: Wykształcenie wyższe (informatyka, ekonometria i pokrewne) 3 lata doświadczenia na podobnym stanowisku Znajomość języka angielskiego min. B1 - średniozaawansowany Wiedza specjalistyczna SQL, metody budowania i sposoby funkcjonowania baz danych do raportowania, Excel zaawansowany, znajomość narzędzi BI Umiejętność analitycznego myślenia i analizowania dużych zbiorów danych i formułowania wniosków. Zakres obowiązków: Zasilenie oraz rozwój baz danych Analiza danych z wykorzystaniem zaawansowanych zapytań SQL Tworzenie oraz optymalizacja zapytań SQL oraz struktur tabel Rozwój i utrzymanie raportów oraz dahboardów (m.in. w Power BI) Analiza i przetwarzanie danych w MS Excel Współpraca z interesariuszami biznesowymi w celu identyfikacji potrzeb raportowych Odpowiedzialność za rzetelność przygotowywanych analiz i raportów. Odpowiedzialność za terminowość dostarczania danych i zestawień. Współtworzenie standardów raportowania i analiz operacyjnych. Oferujemy: Stabilne zatrudnienie w oparciu o umowę o pracę Dostęp do benefitów firmowych Odpowiedzialne stanowisko i szeroki zakres kompetencji Pracę w zgranym zespole w przyjaznej atmosferze.
Software Engineer (Data)
Revolut Ltd
⚲ Kraków
36 000–40 000 zł brutto / mies.
Wymagania
- Python
- SQL
Nasze wymagania: A bachelor's or master's degree in computer science or related field, or equivalent practical experience Proficiency in Python, SQL, and Unix Shell scripting Experience implementing agile software development best practices, including TDD, refactoring, CI/CD, and XP Demonstrated experience in custom ETL design, implementation, and maintenance, along with workflow orchestration using tools like Airflow Expertise in distributed data processing and query engines (e.g., Trino, Spark, Snowflake, BigQuery) Mile widziane: Experience building large-scale infrastructure applications and writing maintainable code in multiple programming languages Expertise in cloud (GCP, AWS), containerisation, and infrastructure as code (Docker, Kubernetes, Terraform) An understanding of modern data architecture with experience implementing data mesh principles Familiarity with notebook-based data science workflows and proficiency in using monitoring and logging tools (NewRelic, Grafana, Prometheus, ELK) O projekcie: Our Technology team builds the systems and experiences that keep Revolut moving. From the infrastructure behind our innovative app to the features used by millions of people around the world, they bring sharp thinking, speed, and a focus on meaningful impact to everything they do. We're looking for a Data Engineer to provide the infrastructure and tools that power insight generation and decision-making for everyone at Revolut, from entry-level analysts to C-level executives. You'll use your exceptional building and collaboration skills to uphold our data-centric culture. Up to shape what's next in finance? Let's get in touch. Zakres obowiązków: Designing, building, and maintaining efficient and reliable data platforms, streamlining end-to-end processes and automating workflows Partnering with cross-functional teams (Product, Engineering, Data Science) to build and enhance a seamless data platform, translating abstract concepts into practical solutions Establishing and enforcing data standards, maintaining comprehensive documentation, and managing a company-wide data registry Training and supporting users, and communicating platform updates and insights through various channels (dashboards, bots, etc.) Planning and executing organisation-wide platform changes, ensuring consistent best practices for coding, testing, deployment, and maintenance Leveraging data to guide all aspects of engineering work, ensuring insight-driven outcomes Oferujemy: Financial benefits that show we value your work Medical insurance for you and your close ones Flexibility to work from home, the office or abroad A free Revolut Metal subscription loaded with perks Exciting events year-round so you can get to know your team
Software Engineer (Data Science)
Xebia sp. z o.o.
⚲ Wrocław, Krzyki
16 700–21 700 zł netto (+ VAT) / mies.
Wymagania
- Kotlin
- Java
- SQL
- Google Cloud Platform
- Data Science
Nasze wymagania: 3+ years of experience in Software Engineering, preferably in backend or data-focused systems, strong knowledge of Kotlin or Java for backend development, good knowledge of SQL and experience working with large datasets, experience building data pipelines or data processing workflows, experience working with cloud platforms (preferably GCP), basic experience working with data analysis or machine learning workflows, strong problem-solving skills and ability to work in cross-functional teams, very good command of English (spoken and written), openness to occasional on-site team meetings (up to once per quarter) in our Poznań or Warsaw office, work from the European Union region and a work permit are required. Mile widziane: experience with Scala, Spark, or other big data processing tools, experience with Apache Airflow or similar orchestration tools, familiarity with ML platforms such as Vertex AI, experience with React or data visualization tools. O projekcie: What makes Xebia special? Our community. We run events like the Data&AI Warsaw Summit, organize meetups (Software Talks, Data Tech Talks), and have a culture that actively support your growth via Guilds, Labs, and personal development budgets — for both tech and soft skills. It’s not just a job. It’s a place to grow. What sets us apart? Our mindset. Our vibe. Our people. And while that’s hard to capture in text – come visit us and see for yourself. Zakres obowiązków: developing backend services and applications using Kotlin or Java, processing large data volumes using Scala and BigQuery, designing and maintaining data pipelines using Apache Airflow in the Cloud Composer (GCP) environment, working with Google Cloud Platform services to build scalable and reliable data infrastructure, preparing and transforming datasets for machine learning processes, supporting the development and training of AI/ML models, including experimentation and A/B testing, performing exploratory data analysis and creating visualizations to support business insights and decision-making, collaborating with cross-functional teams to deliver data-driven applications and AI-enabled solutions. Oferujemy: Development budgets of up to 6,800 PLN We fund certifications e.g.: AWS, Azure, ISTQB, PSM Access to Udemy and Safari Books Online Events and technology conferences Technology Guilds Internal training Xebia Upskill Private medical healthcare MultiSport card - we subsidise a MultiSport card Mental Health Support Flexible working hours B2B or employement contract Contract for an indefinite period
Senior PySpark Data Engineer
ITEAMLY SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Warszawa
23 000–30 000 zł netto (+ VAT) / mies.
Wymagania
- PySpark
- Microsoft Azure
- SQL
- Microsoft Power BI
Nasze wymagania: Minimum 5 years of experience in Data Engineering Strong hands on experience with PySpark (DataFrames, SparkSQL optimization, partitioning) Practical experience with Databricks and Azure Data Factory Knowledge of Azure SQL and core Azure services (Storage Accounts, KeyVault, VNET, Application Gateway, Azure Portal) Experience working with Delta, Parquet, and CSV file formats Experience with CI/CD processes Ability to work independently and solve problems with minimal supervision Strong written and spoken English Experience with Power BI O projekcie: We are looking for a Data Engineer to design and maintain modern data solutions built on Databricks, PySpark, and Microsoft Azure. The role focuses on developing scalable data platforms and supporting business use cases with reliable data pipelines. Zakres obowiązków: Design, build, and maintain scalable data pipelines Develop data processing and transformation workflows Support data ingestion from multiple sources into cloud environments Ensure performance, reliability, and data quality across solutions Collaborate with business and technical stakeholders to translate requirements into data solutions Contribute to documentation and continuous improvement of data processes Work in a distributed team environment, focusing on product and business goals Oferujemy: Work on modern data solutions in Azure and Databricks environment Flexible working model and stable long term cooperation Exposure to international projects and stakeholders Support for professional growth and continuous learning
Senior Data Scientist (AdTech/DSP)
Devire
⚲ Remote
30 240 - 38 640 PLN (B2B)
Wymagania
- Data science
- DSP
- CTV
- Python
- SQL
- GCP
- Vertex AI
- RTB House
- The Trade Desk
- Criteo
- Adfrom
- MediaMath
- Google DV360
- Amazon DSP
- Quantcast
- LLM (nice to have)
- AI (nice to have)
O projekcie: Devire Outsourcing IT to forma współpracy dedykowana dla specjalistów z branży IT, oparta na zasadach własnej działalności gospodarczej - B2B, realizująca projekty dla Klientów prowadzących innowacyjne i nowoczesne projekty Naszym klientem jest firma, która oferuje w pełni konfigurowalną platformę reklamową do skutecznych kampanii CTV, pozwalającą docierać do lokalnych odbiorców w całym kraju. Poszukujemy osoby na stanowisko Senior Data Scientist, która będzie tworzyć zaawansowane modele analityczne, optymalizować kampanie i wspierać decyzje biznesowe oparte na danych. Lokalizacja: 100% zdalnie Start: ASAP - Wynagrodzenie do 230 PLN netto+VAT/h, B2B via Devire. - Praca 100% zdalna. - Pakiet benefitów (opieka medyczna, karta multisport itp.). - Długofalowa współpraca. Wymagania: - Min. 7 lat doświadczenia w roli Data Scientist, preferowany obszar reklam programatycznych (ad-tech). - Dobra znajomość DSP, reklamy programatycznej i pomiaru CTV. - Doświadczenie w projektowaniu i wdrażaniu modeli do optymalizacji ofert i atrybucji kampanii. - Biegłość w Pythonie i SQL oraz solidna znajomość statystyki i uczenia maszynowego. - Wykształcenie wyższe, preferowany tytuł magistra lub doktora w dziedzinie informatyki, statystyki, ekonomii lub nauk ścisłych. - Dodatkowym plusem będzie doświadczenie z GCP, Vertex AI, Feature Stores lub narzędziami do śledzenia eksperymentów. - Mile widziane doświadczenie z LLM i agentic AI oraz ewaluacją modeli AI. - Doświadczenie w pracy w DSP, w tym w obszarach takich jak optymalizacja kampanii, strategie cenowe i aukcje (np. RTB House, The Trade Desk, Criteo, Adform, MediaMath, Google DV360, Amazon DSP, Quantcast). - Umiejętność przekazywania skomplikowanych zagadnień technicznych w sposób zrozumiały dla osób bez doświadczenia technicznego. - Kreatywne i badawcze podejście do problemów-szukamy osób, które stawiają na jakość i solidne, naukowe rozwiązania. Codzienne zadania: - Tworzenie i wdrażanie modeli ML do optymalizacji kampanii programatycznych, w tym strategii ofert, alokacji budżetu i pacingu, szczególnie dla CTV. - Projektowanie warstwy orkiestracji modeli, aby działały razem efektywnie przy różnych KPI biznesowych. - Planowanie strategii danych i modeli dla segmentacji oraz targetowania odbiorców, z wykorzystaniem danych własnych i zewnętrznych. - Ścisła współpraca z zespołami Produktu i Inżynierii przy integracji modeli i pipeline’ów danych w systemach produkcyjnych, dbając o wydajność i skalowalność. - Analiza wyników kampanii i trendów rynkowych oraz przekładanie wniosków na rekomendacje produktowe. - Bycie ekspertem w dziedzinie data science w ad-tech - dzielenie się wiedzą i wynikami z zespołem oraz interesariuszami. - Mentoring młodszych Data Scientistów i budowanie kultury zespołu opartej na eksperymentach, statystyce i kreatywnym rozwiązywaniu problemów.
Senior Data Scientist
DCG sp. z o.o.
⚲ Warsaw, Gdynia, Gdańsk
25 200 - 30 240 PLN (B2B)
Wymagania
- Power BI
- Data analytics
- Testing
- SAFe
- Python
- T-SQL
- Power Query
- DAX
- Power Platform
- Git
- BI
- Data mining
- Machine Learning
- ITIL
- Degree
O projekcie: Offer: - Private medical care - Co-financing for the sports card - Constant support of dedicated consultant - Employee referral program Wymagania: Requirements: - Expert in statistics, Python, T-SQL, Power Query, DAX, MS Power BI / MS Power Platform, GIT - Strong professional experience in T-SQL, DAX - Professional experience using Python for ML and data wrangling - Experience in one or more Business Intelligence tool as MS Power BI (preferred) - Deep knowledge of statistical techniques for descriptive and predictive analytics - Data mining or extracting usable data from valuable data sources - Using machine learning tools to select features, create and optimize classifiers - Excellent presentation skills - ITIL Foundation certified or proven work experience in IT Service Management - Lean-Agile trained or certified (Scrum or SAFe) - Academic degree in Science, Software Engineering, Mathematics, Statistics or similar - Proven work experience with minimum 2-3 years in similar role - Fluency in English (C2 level at least) Codzienne zadania: - Developing and maintaining solutions in Power BI Service / Microsoft Fabric - Co-creating novel ideas with our stakeholders - Co-building a future Insights Data Analytics service - Working with hypothesis to prove or reject business statements - Hypothesis testing and designing statistical models - Building advanced reports/dashboards - Analysing, processing and modelling data, interpret the results to create actionable insights - Ensuring complete collection and quality of data while adhering to best data practices - Working within SAFe Scrum Team with the aligned autonomy
Senior Data Engineer with Snowflake and AWS (f/m/x)
Sii Sp. z o.o.
⚲ Białystok, Centrum, Bydgoszcz, Gdańsk, Oliwa, Katowice, Kraków, Podgórze, Lublin, Łódź, Śródmieście, Piła, Poznań, Wilda, Rzeszów, Szczecin, Toruń, Warszawa, Mokotów, Wrocław, Fabryczna
Wymagania
- AWS
- Snowflake
- Terraform
- SQL
- Microsoft Azure
- IICS (Informatica Intelligent Cloud Services)
- CDIS
- API
- Apache Spark
Nasze wymagania: Minimum 5 years of experience in data engineering and building production-grade data platforms Expertise in designing and maintaining complex data pipelines Familiarity with cloud solutions, particularly AWS Hands-on experience with Snowflake Experience in Infrastructure as Code development using Terraform Advanced SQL proficiency in data transformation and optimization Knowledge of modern data preparation and integration tools Understanding of metadata management and automation concepts Experience in performance optimization and cost optimization in cloud environments Ability to translate business requirements into scalable technical solutions Strong communication skills and a proactive knowledge-sharing approach O projekcie: Join Sii and take on a key role in delivering enterprise-grade data platforms for international clients. As a Senior Data Engineer, you will be responsible for designing and scaling advanced data architectures, driving automation, and setting technical standards within modern cloud-based environments. You will collaborate with cross-functional teams and support strategic data and analytics initiatives across the organization. Zakres obowiązków: Designing, building, and maintaining end-to-end data pipelines from acquisition to consumption Architecting and optimizing scalable data workflows in cloud environments Productionizing and performance-tuning data solutions for business use cases Implementing automation through advanced metadata management Utilizing modern data preparation, integration, and AI-enabled metadata management tools Tracking and analyzing data consumption patterns Performing intelligent data sampling and caching Monitoring and managing schema changes Recommending and automating existing and future data integration flows Collaborating with data science teams and business analysts in refining data requirements Supporting modernization and automation of data management infrastructure Oferujemy: Great Place to Work since 2015 - it’s thanks to feedback from our workers that we get this special title and constantly implement new ideas Employment stability - revenue of PLN 2.1BN, no debts, since 2006 on the market We share the profit with Workers - over PLN 76M has already been allocated for this aim since 2022 Attractive benefits package - private healthcare, benefits cafeteria platform, car discounts and more Comfortable workplace – class A offices or remote work Dozens of fascinating projects for prestigious brands from all over the world – you can change them thanks to Job Changer application PLN 1 000 000 per year for your ideas - with this amount, we support the passions and voluntary actions of our workers Investment in your growth – meetups, webinars, training platform and technology blog – you choose Fantastic atmosphere created by all Sii Power People
Senior Data Engineer with Databricks
KMD Poland Sp. z o.o.
⚲ Warszawa, Śródmieście
160–180 zł netto (+ VAT) / godz.
Wymagania
- Python
- Apache Spark
- Git
- Microsoft Azure
- Azure PostgreSQL
- Docker
- Kubernetes
- Kafka
Nasze wymagania: Has 5+ years of commercial experience in implementing, developing, or maintaining data load systems (ETL/ELT). Demonstrates strong programming skills in Python, with a deep understanding of data-related challenges. Has hands-on experience with Apache Spark and Databricks. Is familiar with MSSQL databases. Has experience working with distributed systems on a cloud platform. Has worked on large-scale systems and understands performance optimization. Is comfortable with Git and CI/CD practices, and can design or implement deployment processes for data pipelines. Is proactive, solution-oriented, and has a strong can-do attitude. Communicates fluently in English and Polish, both written and spoken. Is a team player with excellent collaboration and communication skills. Mile widziane: Experience with Azure Experience working with SSIS Familiarity with Azure PostgreSQL Knowledge of Docker and Kubernetes Exposure to Kafka or other message brokers and event-driven architecture Experience working in Agile/Scrum environments O projekcie: What products do we develop? KMD Elements is a cloud-based solution tailored for the energy and utility market. It offers a highly efficient way to handle complex data validation and advanced formula-based settlements on time series. Designed for the international market, KMD Elements automates intricate calculation and billing processes. Key features include an advanced configuration engine, robust automation capabilities, multiple integration options, and a customer-centric interface. More info can be found here How do we work? #Agile #Scrum #Teamwork #CleanCode #CodeReview #E2Eresponsibility #ConstantImprovement Zakres obowiązków: Develop and maintain data delivery pipelines for a leading IT solution in the energy market, leveraging Apache Spark, Databricks, Delta Lake, and Python. Have end-to-end responsibility for the full lifecycle of features you develop. Design technical solutions for business requirements from the product roadmap. Ensure optimal performance. Refactor existing code and enhance system architecture to improve maintainability and scalability. Design and evolve the test automation strategy, including technology stack and solution architecture. Prepare reviews, participate in retrospectives, estimate user stories, and refine features ensuring their readiness for development. Oferujemy: Professional Development Grow in your role Enjoy on-site meetups Participate in conferences in Poland and abroad Attend an average of 40 hours of training yearly Take part in Internal Mobility Program Scandinavian Culture and Workplace Earn Competitive hourly rates/salary Enjoy MyBenefit Cafeteria system with wide range of services Make the most of your work and life Sport & passion communities and CSR initiatives Work in a human-oriented company Use high-level equipment Feel good at green and ergonomic office and enjoy surprise treats Meaningful and impactful work Make an impact that lasts - create and implement technological solutions And improve the lives of millions of people in the public and private sectors Talented and Trusted People Cooperate with open-minded colleagues Work with experienced managers in an atmosphere full of trust
Senior Data Engineer / Tech Lead
Ework Group
⚲ Wrocław, Warszawa
26 040 - 28 560 PLN (B2B)
Wymagania
- Python
- Azure Data Factory
- PySpark
- Azure SQL
- ETL
- Databricks
O projekcie: Dołącz do projektu dla dużej firmy ubezpieczeniowej działającej na rynku USA. Poszukujemy doświadczonego Tech Leada z mocnym backgroundem Data Engineering i Databricks, który poprowadzi prace związane z wdrożeniem oraz optymalizacją przepływów danych pomiędzy systemem core a platformą Databricks. Jeśli masz solidne doświadczenie w architekturze danych, pySpark, Azure oraz tworzeniu skalowalnych pipeline’ów — będzie to świetne wyzwanie. Wymagania: Bardzo dobra znajomość pySpark (distributed processing, nie tylko Pandas) Praktyczne doświadczenie z Databricks: - konfiguracja workspace & compute - Lakeflow Declarative Pipelines - Asset Bundles - CI/CD - Znajomość Medallion Architecture (Bronze / Silver / Gold) Doświadczenie z Microsoft Azure: - Key Vault - Azure SQL - Azure Data Factory (ADF) Minimum: - 5 lat doświadczenia jako Data Engineer (lub pokrewne) - 2 lata doświadczenia jako Tech Lead - Język angielski — must have (kontakt z klientem w USA) Nice to Have - Doświadczenie w branży insurance / finance - Doświadczenie projektowe w obszarze konsultingu - Umiejętność modelowania danych oraz projektowania warstw danych Codzienne zadania: - Prowadzenie techniczne zespołu Data Engineering w obszarze Databricks & Azure - Projektowanie i implementacja skalowalnych pipeline’ów ETL/ELT w oparciu o pySpark i Lakehouse / Medallion Architecture - Konfiguracja środowisk Databricks (compute, workspace, optymalizacja kosztów, bezpieczeństwo) - Budowa i utrzymanie Lakeflow Declarative Pipelines, Databricks Asset Bundles oraz procesów CI/CD - Integracja przepływów danych pomiędzy systemem ubezpieczeniowym a platformą Databricks - Dbanie o jakość danych, standardy, dokumentację i najlepsze praktyki - Współpraca z globalnym klientem (USA) oraz zespołem w Polsce
Senior Data Engineer
HSBC Technology Poland
⚲ Kraków
17 391 - 26 083 PLN (PERMANENT)
Wymagania
- Python
- SQL
- BigQuery
- ETL
- Testing
- GCP
- Vault
- Cloud Composer
- Cloud
- PUB
- Terraform
- Git
- DevOps
- Ansible
- Jenkins
- CSV (nice to have)
- JSON (nice to have)
- XML (nice to have)
- REST API (nice to have)
- SOAP (nice to have)
- Java (nice to have)
- Continuous integration (nice to have)
O projekcie: Some careers shine brighter than others. If you’re looking for a career that will help you stand out, join HSBC, and fulfil your potential. Whether you want a career that could take you to the top, or simply take you in an exciting new direction, HSBC offers opportunities, support and rewards that will take you further. Your career opportunity HSBC Markets and Securities is an emerging markets-led and financing-focused investment banking and trading business that provides tailored financial solutions to major government, corporate and institutional clients worldwide. In IT we provide HSBC with a genuine competitive advantage across the globe. Global Business Insights (GBI) provide critical metrics and reports to Markets and Securities Services Operations to enable them to monitor the health of their business and make data-driven decisions. The GBI Transformation is a large and complex data integration program spanning all of MSS Ops globally. We serve a diverse audience of users and data visualisation requirements from Exco down, and over 80 data sources in multiple time-zones across Middle Office, Post-Trade and Securities Services IT and elsewhere. We are a critical enabler for the Rubix 2025 Strategy and the MSS control agenda, providing operational KPI and KRI metrics which allow senior management to measure the success of their BAU and CTB investment dollars. We are looking for a GCP developer who can design, develop, test and deploy ETL/SQL pipelines connected to a variety of on-prem and Cloud data sources - both data stores and files. We will be using mainly GCP technologies like Cloud Store, BigQuery, and Data Fusion. You will also need to work with our devops tooling to deliver continuous integration/deployment capabilities, automated testing, security, and IT compliance. The role will be responsible for the provisioning of subject matter expertise to support Enterprise Risk Management (ERM) Leadership Team (LT) and ERM Assurance teams discharge their responsibilities in relation to operational risk and resilience risk steward delivery across all service areas, delivery of assurance activities, embedding of assurance practices and embedding of stewardship activities and service catalogue in respective GB/GF/Specialist team. Wymagania: What you need to have to succeed in this role - Proven (3+ years) hands on experience in SQL querying and optimization of complex queries/transformation in BigQuery, with a focus on cost, time-effective SQL coding and concurrency/data integrity. - Proven (3+ years) hands on experience in SQL Data Transformation/ETL/ELT pipelines development, testing and implementation, ideally in GCP Datafusion. - Proven Experience in Data Vault modelling and usage. - Hands on experience in Cloud Composer/Airflow, Cloud Run, Pub/Sub and on development in Python, Terraform. - Proficiency in Git usage for version control and collaboration. - Proficiency with CI/CD processes/pipelines designing, creation, maintenance in DevOps tools like Ansible/Jenkins etc. for Cloud Based Applications (Ideally GCP). - Experience in working in DataOps model and in working in Agile environment and toolset. - Strong problem-solving and analytical skills - Enthusiastic willingness to learn and develop technical and soft skills as needs require rapidly and independently. Nice to Have - Experience designing, testing, and implementing data ingestion pipelines on GCP Data Fusion, CDAP or similar tools, including ingestion and parsing and wrangling of CSV, JSON, XML etc formatted data from RESTful & SOAP APIs, SFTP servers, etc. - Modern world data contract best practices understanding with experience for independently directing, negotiating, and documenting best in class data contracts. - Java development, testing and deployment skills (ideally custom plugins for Data Fusion) - Proficiency in working with Continuous Integration (CI), Continuous Delivery (CD) and continuous testing tools, ideally for Cloud based Data solutions. Codzienne zadania: - Design, build, test and deploy Google Cloud data models and transformations in BigQuery environment (e.g. SQL, stored procedures, indexes, clusters, partitions, triggers, etc.) - Creating and managing ETl/ELT data pipelines to model raw/unstructured data into Data Vault universal model, enriched, transformed and optimized raw data into suitable for end consumers usage - Review and refine, interpret and implement business and technical requirements - Deliver non-functional requirements, IT standards and developer and support tools to ensure our applications are a secure, compliant, scalable, reliable and cost effective - Monitoring data pipelines for failures or performance issues and implementing fixes or improvements as needed - Optimizing ETL/ELT processes for performance and scalability, ensuring they can handle large volumes of data efficiently - Integrating data from multiple sources, ensuring consistency and accuracy - Manage code artefacts and CI/CD using tools like Git, Jenkins, Google Secrets Manager, etc. - Fix defects and provide enhancements during the development period and hand-over knowledge, expertise, code and support responsibilities to support team
Senior Data Analyst
DCG Sp. z o.o
⚲ Gdańsk
21 840 - 22 680 PLN (B2B)
Wymagania
- SQL
- Python
- Testing
O projekcie: Offer: - Private medical care - Co-financing for the sports card - Constant support of dedicated consultant - Employee referral program Wymagania: - Minimum 3 years of experience in IT and 4+ years of experience as a Data/Business Analyst - Strong hands-on experience with SQL for advanced data analysis - Experience working with large-scale datasets - Solid analytical thinking and problem-solving skills - Ability to understand business terminology and effectively communicate with both business and technical stakeholders - Experience in translating business requirements into functional and technical designs - Hands-on experience supporting UT, ST, and UAT testing phases - Strong communication skills and ability to work effectively in an Agile team environment - Very good command of English (oral and written) Nice to have: - Experience with Python - Knowledge of SAS - Functional experience in Credit Risk domain Codzienne zadania: - Perform advanced data analysis using SQL on large and complex datasets - Translate business requirements into high-level and low-level solution designs - Act as a liaison between business stakeholders and IT teams, ensuring clear understanding of requirements - Support testing activities, including Unit Testing (UT), System Testing (ST), and end-to-end User Acceptance Testing (UAT) - Contribute to the creation and validation of functional test cases - Analyze and interpret data to support decision-making and problem-solving - Collaborate within Agile teams and actively contribute to continuous improvement initiatives
Senior Control Manager (CTO Infrastructure – Enablement)
HSBC Service Delivery (Polska) Sp. z o.o.
⚲ Kraków, Dębniki
21 141–31 708 zł brutto / mies.
Nasze wymagania: At least 5 years of hands-on experience within IT infrastructure and technology control capabilities either directly or as a 1/2/3LOD control management function. At least 5 years of hands-on experience and subject matter expertise in management of operational risk, non-financial risk and/or technology & cyber risk. Experience across Data, IT, Operations, Risk Management, and / or Audit roles requiring management of diverse risk types is desirable. Financial Services or other highly regulated industry experience/exposure is preferred. Strong communication skills to influence and challenge stakeholders. Ability to work independently with limited supervision. Ability to present complex issues concisely to senior partners using non-technical language. Experience dealing with regulatory bodies engagement. Active industry recognized certificates will be an asset, e.g. CISA, CISSP, CRISC, CCSP etc. O projekcie: The GCIO Chief Control Office (CCO) team plays an important role in enabling the bank to operate within its risk appetite by ensuring efficient and effective risk and control management. We do this by providing operational risk and control expertise, specialist technical knowledge and a deep understanding of the businesses and functions we serve. Key activities include implementation and oversight of the Group’s Risk Management Framework, ongoing and targeted controls assessments, implementing and maintaining robust risk governance, and championing a proactive risk culture. GCIO CCO works closely with partners across all lines of defence and is responsible for maintaining positive relationships with our regulators and external partners. Zakres obowiązków: Partner with the GCIO CCO function to oversee the risk and control portfolio related to the services CCO CTO provides to the Group. Be a leader within the GCIO Chief Control Office (GCIO CCO) Function that directly supports the Technology Infrastructure area of the Chief Technology Office within HSBC. Specifically IT risks and controls of Configuration Baselines, Evergreening/Obsolscence, IT Asset Management, Capacity Management, IT service Acceptance. Act as trusted advisor for senior management by partnering to manage their operational risk i.e., risk assessments, control environment, issues management, audits. Promote accountable risk and control decision-making based on quality data and analysis, actively challenging poor, inefficient or excessive controls, related tasks and behaviours. Provide specialist risk and control knowledge and insights, leading efforts to continuously improve the control environment and monitoring of risk, including behaviours. Advise and designing process and controls in a commercially viable, practical and effective manner. Identify trends to anticipate future developments in the risk and control environment. Influence and shaping the development and implementation of future-fit risk management and regulatory frameworks. Provide Senior Management with updates on any relevant changes to policy or projects related to operational risk that have an impact on their area of responsibility. Oferujemy: Competitive salary Annual performance-based bonus Additional bonuses for recognition awards Multisport card Private medical care Life insurance One-time reimbursement of home office set-up (up to 800 PLN). Corporate parties & events CSR initiatives Nursery discounts Financial support with trainings and education Social fund Flexible working hours Free parking
Senior AI / Computer Vision Research Engineer
DevsData LLC
⚲ Warszawa, Ochota
Wymagania
- Python
- PyTorch
- TensorFlow
- Docker
- Kubernetes
- Nomad
Nasze wymagania: Master’s degree in Computer Science, Electrical Engineering, or related field 8+ years of software development experience, including 4+ years in Python Expert-level hands-on experience with PyTorch and TensorFlow Deep expertise in video data processing and computer vision libraries Proven experience analyzing large-scale datasets and building predictive behavioral models Self-starter mindset with a passion for staying on the cutting edge of AI technologies Ability to independently research, design, and implement complex AI solutions from scratch Mile widziane: Experience with generative AI models Hands-on experience with containerization and orchestration (Docker, Kubernetes, Nomad) O projekcie: We are seeking a Senior AI / Computer Vision Research Engineer to join an innovative startup at the forefront of AI-powered video technologies. In this role, you will bridge research and production, designing advanced computer vision and machine learning solutions while building the infrastructure that scales these algorithms for global video platforms. You will have the autonomy to innovate, integrate, and optimize AI workflows across the entire tech stack. Zakres obowiązków: Research & Innovate: Develop state-of-the-art CV/ML models leveraging deep learning, large language models, and vision-language models. Data Science & Analytics: Work with massive datasets to uncover patterns, perform behavioral analysis, and build predictive AI models. Infrastructure & Architecture: Build robust frameworks to deploy, debug, and maintain AI algorithms in cloud environments. End-to-End Engineering: Take ownership of the full engineering lifecycle, from backend development and DevOps to cloud infrastructure and production deployment. Continuous AI Evolution: Stay ahead of the AI curve, experimenting with new models, tools, and workflows daily to push the boundaries of what is possible
Qlik Sense Developer
Ework Group
⚲ Wrocław, Warszawa, Poznań, Kraków
21 840 - 26 880 PLN (B2B)
Wymagania
- Qlik Sense
- Snowflake
- Data modelling
- SCD
O projekcie: 💻 Ework Group - founded in 2000, listed on Nasdaq Stockholm, with around 13,000 independent professionals on assignment - we are the total talent solutions provider who partners with clients, in both the private and public sector, and professionals to create sustainable talent supply chains. With a focus on IT/OT, R&D, Engineering and Business Development, we deliver sustainable value through a holistic and independent approach to total talent management. By providing comprehensive talent solutions, combined with vast industry experience and excellence in execution, we form successful collaborations. We bridge clients and partners & professionals throughout the talent supply chain, for the benefit of individuals, organizations and society. 🔹 For our Client we are looking for Qliksense Developer - hybrid/remote with occassional visits at the client's offices in Poland. Role Overview: We are looking for a skilled Qlik Sense Developer who can design and deliver intuitive, value-driven dashboards and reports. The ideal candidate will work closely with business stakeholders to understand reporting needs, challenge unclear or low impact requirements, and suggest improvements to enhance usability and business value. ✔️ We offer: - B2B agreement - Transparent working conditions with both Ework and the client - Current support during our cooperation - Possibility to work in an international environment - Collaborative environment in Swedish organizational culture - Private medical care - Life insurance - Multisport - Teambuilding events Wymagania: Required Skills: - Proven experience in Qlik Sense development and dashboard design - Strong understanding of data modelling and data warehousing fundamentals. - Ability to communicate effectively with both technical and non-technical stakeholders. - Experience working with cross-functional teams to deliver data solutions. - Analytical mindset with a focus on delivering business value. Codzienne zadania: - Develop interactive and user-friendly dashboards and reports using Qlik Sense. - Collaborate with business users to gather and clarify requirements. - Translate business needs into clear technical specifications for the data engineering team. - Ensure data is modeled appropriately for reporting, aligning with best practices. - Apply strong knowledge of data warehousing concepts, including: - Slowly Changing Dimensions (SCD) - Fact and dimension tables - Star and snowflake schema designs
Projektantka / Projektant Hurtowni Danych/BI
GRUPA PZU
⚲ Warszawa
Wymagania
- SQL
- Bitbucket
- Bamboo
- JIRA
- Oracle
- PL/SQL
Nasze wymagania: Doświadczenie w pracy z systemami Hurtowni Danych oraz narzędziami SAS (Enterprise Guide, DI Studio, Visual Analytics, SAS Viya) Bardzo dobra znajomość SQL (mile widziane doświadczenie z Oracle i PL/SQL) Znajomość procesów AML oraz przepisów prawa w tym zakresie (mile widziana znajomość ustawy AML) Umiejętność tworzenia i utrzymania komponentów technicznych (np. makra SAS, skrypty automatyzujące, API) Doświadczenie w pracy z narzędziami CI/CD (np. Bitbucket, Bamboo, JIRA) oraz dokumentowania procesów (np. Visio, EA) Umiejętność pracy w zespole interdyscyplinarnym (biznes, IT) Zakres obowiązków: Utrzymanie i rozwój systemu AML (Anti-Money Laundering) działającego w środowisku SAS Viya Analiza danych AML oraz wsparcie merytoryczne dla jednostek zgodności i bezpieczeństwa Monitorowanie i optymalizacja procesów ETL oraz raportów AML w Hurtowni Danych Tworzenie i modyfikacja komponentów technicznych (joby SAS, makra, skrypty SQL/PLSQL, integracje z Oracle, REST API) Udział w projektach związanych z dostosowaniem systemów AML do wymogów regulacyjnych i wewnętrznych Tworzenie dokumentacji analitycznej i technicznej (procesy, przepływy danych, logika biznesowa) Wsparcie w testach, analizie błędów i wdrażaniu zmian w środowiskach produkcyjnych i testowych Oferujemy: Umowa o pracę i atrakcyjny tryb pracy hybrydowej: 4 dni z biura w miesiącu Praca w centrum kompetencyjnym BI – niezależnej jednostce łączącej funkcje biznesowe, analityczne Współpraca z ponad 100 specjalistami IT w ponad 20 technologiach naszej Hurtowni Danych Motywujący system wynagrodzeń Pracowniczy Program Emerytalny w wysokości 7% opłacany przez pracodawcę Opieka medyczna w PZU Zdrowie Zniżka pracownicza do 50% na ubezpieczenia (m. in. PZU DOM, PZU AUTO) Platforma benefitowa m.in. karta sportowa, bilety do kin i teatrów, vouchery zakupowe Elastyczna oferta grupowego ubezpieczenie na życie w wielu wariantach Dostęp do bazy szkoleń cyfrowych oraz nowoczesnych platform edukacyjnych Szkolenia i programy rozwojowe dla pracowników i menedżerów Coroczne konferencje i inicjatywy promujące rozwój kompetencji przyszłości, z udziałem uznanych prelegentów Programy i działania wellbeingowe dla pracowników 2 dni w roku na wolontariat pracowniczy (możesz zrealizować autorski projekt wolontariacki lub wziąć udział w akcji zorganizowanej przez Fundację PZU) Możliwość rozwoju pasji sportowych w ramach 18 sekcji PZU Sport Team (od Badmintona – po Żeglarstwo) Najbardziej zielone biuro w Warszawie (PZU Park) ze strefami relaksu i siłownią
Programista/ka PL/SQL ze znajomością integracji
4IT Solutions
⚲ Warszawa
130 - 170 PLN/h netto (B2B)
Wymagania
- REST
- XQUERY
- PL/SQL
- SQL
- SOAP
- XSLT
Poszukujemy Programisty PL/SQL ze znajomością integracji dla naszego klienta – globalnego lidera w dziedzinie baz danych, rozwiązań chmurowych i oprogramowania biznesowego. To wyjątkowa okazja do pracy dla jednej z wiodących firm tworzących kompleksowe oprogramowanie bazodanowe oraz nowoczesne rozwiązania chmurowe oparte na sztucznej inteligencji. Dzięki ciągłemu rozwojowi technologii oraz inwestycjom w nowoczesne rozwiązania, firma pozostaje kluczowym graczem w sektorze IT, dostarczając innowacyjne produkty dla firm na całym świecie. Dynamiczny rozwój oraz globalna społeczność ekspertów IT sprawiają, że jest to idealne miejsce dla ambitnych specjalistów. Na początek konkrety: • Możliwa forma współpracy: B2B • Stawka: 130-150 PLN/h • Tryb pracy: hybryda Warszawa (1-2x w tygodniu w biurze) • Wymiar pracy: 1FTE O projekcie: • Projekt dotyczy rozwoju kodu w PL/SQL oraz integracji systemów w architekturze SOA dla klienta z sektora publicznego. Zakres obowiązków: • Modelowanie danych oraz tworzenie struktur danych na potrzeby integracji systemów w architekturze SOA • Rozwój i optymalizacja kodu PL/SQL, w tym implementacja zapytań, procedur składowych i interfejsów usług z naciskiem na wydajność i skalowalność • Analiza i optymalizacja zapytań SQL na dużych zbiorach danych • Praca zgodnie z wymaganiami SLA (Service Level Agreement) Wymagania: • Minimum 5-letnie doświadczenie na podobnym stanowisku • Bardzo dobra znajomość SQL i PL/SQL • Doświadczenie w pracy z dużymi zbiorami danych • Umiejętność optymalizacji zapytań w bazie danych Oracle • Kompetencje w projektowaniu oraz implementacji interfejsów usług w architekturze SOA • Praktyczne doświadczenie w wykorzystywaniu SOAP, REST, XQuery, XSLT w projektach integracyjnych Mile widziane: • Certyfikaty Oracle PL/SQL • Znajomość Oracle Service Bus, Oracle SOA Suite, Oracle Weblogic ServerZa Oferujemy: • Atrakcyjna lokalizacja biura • Brak dress code’u • Możliwość pracy zdalnej • Przyjazna niekorporacyjna atmosfera • Spotkania integracyjne Opis procesu rekrutacji: • Wstępna rozmowa telefoniczna z naszym przedstawicielem - 4IT Solutions (ok 20min) • Zdalna rozmowa techniczna z osobami z zespołu naszego Klienta • Spotkanie zapoznawcze z Managerem w biurze ... i finalizujemy rozmowy
Principal Data Scientist
ARDURA Consulting
⚲ Remote
33 600 - 42 840 PLN (B2B)
Wymagania
- Python
- SQL
- DSPs
- CTV
- GCP (nice to have)
- Vertex AI (nice to have)
O projekcie: - Working in an international environment - Fully remote work - Long-term B2B contract - Casual work culture Wymagania: - Master’s or Ph.D. in a quantitative field (CS, Statistics, Economics, or Hard Sciences). - AdTech Mastery: 7+ years of professional experience, with a heavy concentration on, DSP mechanics, Programmatic Advertising and CTV measurement (A subject matter expert who navigates the complexities of programmatic media with ease, offering a high-level command of CTV dynamics and the execution of precision-engineered, data-driven targeting strategies) - A proven track record of bringing bidder optimization and attribution models from concept to production. - Expert-level Python and SQL, combined with a command of advanced statistical and machine learning methodologies. Nice to have: - Hands-on experience with the GCP / Vertex AI ecosystem, including feature stores and experiment tracking. - Familiarity with LLMs and Agentic AI frameworks, specifically regarding their evaluation and deployment. - A research-oriented approach to problem-solving and the ability to articulate "the math" to non-technical stakeholders. Codzienne zadania: - Architect and deploy sophisticated ML models for real-time campaign optimization, focusing on bid strategies, pacing, and multi-objective budget allocation. - Lead the design of a complex model orchestration layer, balancing conflicting KPIs to ensure a seamless intersection of engineering excellence and product performance. - Drive the ML roadmap for audience targeting, leveraging multi-source data to refine full-funnel outcomes for global advertisers. - Partner with Engineering to transition R&D models into scalable, high-concurrency production pipelines. - Serve as a subject matter expert, translating deep-dive analytics into strategic product recommendations and mentoring the next generation of data scientists.
Oracle WebLogic Administrator
Code & Pepper Sp. z o.o.
⚲ Katowice
12 500–22 000 zł / mies. (zal. od umowy)
Wymagania
- Oracle
- Java
- Python
- Bash
Nasze wymagania: Co najmniej 3-letnie doświadczenie w administrowaniu i/lub wdrażaniu/projektowaniu serwerów aplikacyjnych Oracle WebLogic Minimum 2-letni udział w projekcie (o wartości powyżej 2 000 000 zł) w roli administratora/specjalisty Oracle WebLogic Praktyczne doświadczenie w: Tworzeniu, konfiguracji i zarządzaniu domenami WebLogic Wdrażaniu aplikacji Java EE Konfiguracji źródeł danych i połączeń z bazami danych Monitorowaniu wydajności serwerów WebLogic (Admin Console, WLST, narzędzia zewnętrzne) Zarządzaniu klastrami (replikacja sesji, failover, disaster recovery) Automatyzacji z wykorzystaniem WLST oraz skryptów Python lub Bash Doświadczenie w zarządzaniu bezpieczeństwem środowiska (patchowanie, upgrade’y, certyfikaty, polityki dostępu) Umiejętność wspierania projektowania architektury serwerów aplikacyjnych Samodzielność w działaniu i odpowiedzialność za utrzymanie środowisk produkcyjnych O projekcie: W Code & Pepper wspieramy klientów z branż, gdzie nie ma miejsca na półśrodki – FinTech, HealthTech i AI. Pomagamy im skalować zespoły, rozwijać platformy i dowozić funkcje wtedy, kiedy naprawdę mają znaczenie. Zakres obowiązków: Tworzymy produkty z obszaru FinTech, HealthTech i AI (choć nie zamykamy się w sztywnych ramach). Pracujemy w modelach Team Augmentation, Full Outsourcing oraz end-to-end, głównie dla klientów spoza Polski. Nie opowiadamy historii o „innowacjach” ani „dynamicznym środowisku”. Interesuje nas konkret: kod, architektura i decyzje, które dowożą. Budujemy działające produkty, które przechodzą audyty, skalują się i realnie zdobywają rynek — nie kolejne slajdy ani sprinty do odhaczenia. Stawiamy na odpowiedzialność, techniczne myślenie i sensowną współpracę. A przy okazji - po prostu dobrze się u nas pracuje! Oferujemy: Współpracę B2B lub umowę o pracę — Ty wybierasz 100% pracy zdalnej Budżet szkoleniowy do 2500 zł netto rocznie MacBooka i komplet niezbędnych narzędzi pracy Kartę Multisport Plus Prywatną opiekę medyczną (Luxmed)
Oracle Database Programmer | Branża Finansowa
Edge One Solutions Sp. z o.o.
⚲ Warszawa
Wymagania
- Oracle APEX
- Oracle Database
- PL/SQL
- SQL
- HTML
- CSS
- JavaScript
- Apache Tomcat
- Oracle REST Data Services
- Jira
- Confluence
- Informatica PowerCenter
Nasze wymagania: Minimum 3 lata praktycznego doświadczenia w tworzeniu aplikacji w Oracle APEX Bardzo dobra znajomość Oracle Database, PL/SQL oraz SQL Doświadczenie w budowie aplikacji webowych (HTML, CSS, JavaScript) Doświadczenie w integracji aplikacji z wykorzystaniem REST API Doświadczenie w konfiguracji Apache Tomcat oraz Oracle REST Data Services (ORDS) Bardzo dobra znajomość relacyjnych baz danych oraz optymalizacji zapytań SQL Znajomość pracy z JIRA oraz Confluence Umiejętność analitycznego myślenia i pracy zespołowej Samodzielność, zaangażowanie i dobra organizacja pracy Znajomość języka angielskiego pozwalająca na pracę z dokumentacją Mile widziane: Doświadczenie z Informatica PowerCenter Znajomość systemów Unix/Linux oraz języków skryptowych O projekcie: Nasz klient to jeden z największych banków uniwersalnych w Polsce oraz jedna z kluczowych instytucji finansowych w Europie Środkowo-Wschodniej. Instytucja od lat wyznacza standardy na rynku, będąc pionierem w obszarze kart kredytowych, bankowości mobilnej oraz nowoczesnych systemów płatności. Realizuje zaawansowane projekty IT o dużej skali, stawiając na innowacyjność, bezpieczeństwo i wysoką jakość rozwiązań technologicznych. Zakres obowiązków: Projektowanie i rozwój rozwiązań IT Tworzenie wysokiej jakości kodu Przeprowadzanie testów oraz optymalizacja rozwiązań IT Przygotowanie dokumentacji funkcjonalnej i technicznej Współpraca z analitykami biznesowymi, architektami IT oraz klientem biznesowym Wsparcie techniczne mniej doświadczonych programistów (mentoring) Programowanie na platformach Oracle DB, Informatica PowerCenter oraz Oracle BI Oferujemy: Zyskujesz indywidualne wsparcie Service Delivery Managera, który pomoże Ci zaplanować ścieżkę kariery i zadba o Twój komfort i satysfakcję z pracy w projekcie Szkolenia, certyfikaty i konferencje - dofinansowujemy lub w pełni pokrywamy koszty rozwoju kompetencji technicznych SmartChange – umożliwiamy zmianę projektu i dobieramy kolejny zgodnie z Twoimi preferencjami Dbamy o Twój work-life balance, dlatego poza pracą oferujemy wyjścia integracyjne, aktywności sportowe i inspirujące webinary #edge1talks, które rozwijają i łączą ludzi Aktywność fizyczna – wspieramy sportowe inicjatywy i wynajem sal treningowych Pakiet zdrowotny – prywatna opieka, karta sportowa, ubezpieczenie i wsparcie psychologiczne (HearMe) Elastyczne benefity – sam decydujesz, na co przeznaczasz punkty w naszym systemie benefitowym Bezpłatne lekcje języka angielskiego – dopasowane do Twojego poziomu, idealne do pracy w międzynarodowym środowisku
Oracle Data Integration Engineer
Code & Pepper Sp. z o.o.
⚲ Warszawa
12 500–22 000 zł / mies. (zal. od umowy)
Wymagania
- PL/SQL
- Oracle
- SQL
Nasze wymagania: Co najmniej 3-letnie doświadczenie w administrowaniu i/lub wdrażaniu/projektowaniu integracji danych w oparciu o PL/SQL, Oracle Data Integrator (ODI) oraz Oracle Warehouse Builder Praktyczne, przekrojowe doświadczenie w: Projektowaniu i implementacji procesów ETL/ELT w ODI Integracji danych z różnych źródeł (strukturalnych i niestrukturalnych) Konfiguracji połączeń do baz danych i innych źródeł danych Optymalizacji wydajności procesów ETL/ELT Monitorowaniu procesów integracyjnych oraz rozwiązywaniu problemów wydajnościowych i błędów Pracy z ODI Scheduler Pracy z Oracle GoldenGate Projektowaniu topologii i architektury rozwiązań integracyjnych Zarządzaniu Load Planami Tworzeniu i optymalizacji kodu PL/SQL oraz SQL Umiejętność projektowania rozwiązań integracyjnych w środowiskach produkcyjnych Samodzielność i odpowiedzialność za jakość oraz stabilność przetwarzania danych O projekcie: W Code & Pepper wspieramy klientów z branż, gdzie nie ma miejsca na półśrodki – FinTech, HealthTech i AI. Pomagamy im skalować zespoły, rozwijać platformy i dowozić funkcje wtedy, kiedy naprawdę mają znaczenie. Zakres obowiązków: Tworzymy produkty z obszaru FinTech, HealthTech i AI (choć nie zamykamy się w sztywnych ramach). Pracujemy w modelach Team Augmentation, Full Outsourcing oraz end-to-end, głównie dla klientów spoza Polski. Nie opowiadamy historii o „innowacjach” ani „dynamicznym środowisku”. Interesuje nas konkret: kod, architektura i decyzje, które dowożą. Budujemy działające produkty, które przechodzą audyty, skalują się i realnie zdobywają rynek — nie kolejne slajdy ani sprinty do odhaczenia. Stawiamy na odpowiedzialność, techniczne myślenie i sensowną współpracę. A przy okazji - po prostu dobrze się u nas pracuje! Oferujemy: Współpracę B2B lub umowę o pracę — Ty wybierasz 100% pracy zdalnej Budżet szkoleniowy do 2500 zł netto rocznie MacBooka i komplet niezbędnych narzędzi pracy Kartę Multisport Plus Prywatną opiekę medyczną (Luxmed)
Oracle BI Engineer
Code & Pepper Sp. z o.o.
⚲ Warszawa
12 500–22 000 zł / mies. (zal. od umowy)
Wymagania
- Oracle
- SQL
- Microsoft Power BI
- Microsoft SQL Server
Nasze wymagania: Doświadczenie w pracy z zaawansowanymi funkcjami Oracle Business Intelligence Suite Enterprise Edition (analizy, dashboardy, agenci, alerty) Umiejętność zarządzania metadanymi w RPD (model fizyczny, BMM, warstwa prezentacyjna) oraz projektowania warstwy semantycznej Doświadczenie w projektowaniu hierarchii, agregacji i funkcji analitycznych Umiejętność integracji z różnymi źródłami danych (Oracle Database, SQL Server) oraz tworzenia modeli ETL Doświadczenie w instalacji, konfiguracji i parametryzacji środowiska Umiejętność automatyzacji raportów oraz zarządzania bezpieczeństwem i uprawnieniami Doświadczenie w projektowaniu architektury rozwiązania O projekcie: W Code & Pepper wspieramy klientów z branż, gdzie nie ma miejsca na półśrodki – FinTech, HealthTech i AI. Pomagamy im skalować zespoły, rozwijać platformy i dowozić funkcje wtedy, kiedy naprawdę mają znaczenie. Zakres obowiązków: Tworzymy produkty z obszaru FinTech, HealthTech i AI (choć nie zamykamy się w sztywnych ramach). Pracujemy w modelach Team Augmentation, Full Outsourcing oraz end-to-end, głównie dla klientów spoza Polski. Nie opowiadamy historii o „innowacjach” ani „dynamicznym środowisku”. Interesuje nas konkret: kod, architektura i decyzje, które dowożą. Budujemy działające produkty, które przechodzą audyty, skalują się i realnie zdobywają rynek — nie kolejne slajdy ani sprinty do odhaczenia. Stawiamy na odpowiedzialność, techniczne myślenie i sensowną współpracę. A przy okazji - po prostu dobrze się u nas pracuje! Oferujemy: Współpracę B2B lub umowę o pracę — Ty wybierasz 100% pracy zdalnej Budżet szkoleniowy do 2500 zł netto rocznie MacBooka i komplet niezbędnych narzędzi pracy Kartę Multisport Plus Prywatną opiekę medyczną (Luxmed)
ML/Data Scientist
NESS SOLUTION sp. z o.o.
⚲ Warszawa
140–170 zł netto (+ VAT) / godz.
Wymagania
- Python
- Pandas
- SQL
- matplotlib
- seaborn
- ggplot2
- Emblem
- Radar
- SAS
- Git
- AWS
- Microsoft Azure
Nasze wymagania: Biegłość w Pythonie w zakresie analizy danych i modelowania. Dobra znajomość metod uczenia maszynowego, analityki predykcyjnej oraz wnioskowania statystycznego. Doświadczenie w pracy z narzędziami do przetwarzania danych (np. pandas, SQL) oraz wizualizacji danych (np. matplotlib, seaborn, ggplot2). Umiejętność pracy z wykorzystaniem repozytorium kodu. Silne umiejętności rozwiązywania problemów i pasja do odkrywania wniosków płynących z danych. Umiejętność współpracy w interdyscyplinarnych zespołach. Mile widziane: Znajomość narzędzi pricingowych WTW (Emblem, Radar). Znajomość branży ubezpieczeniowej. Znajomość narzędzi SAS. Znajomość systemów kontroli wersji (Git). Znajomość środowisk chmurowych (AWS, Azure). O projekcie: 💼Projekt: Projekt polega na tworzeniu i wdrażaniu modeli statystycznych oraz uczenia maszynowego wspierających procesy aktuarialne, opartych na analizie dużych zbiorów danych, automatyzacji procesów i ścisłej współpracy z ekspertami biznesowymi w celu dostarczania praktycznych rekomendacji decyzyjnych. 🏢 Tryb pracy: hybrydowy (Warszawa) 3 dni pracy w biurze, 2 dni pracy zdalnej 📈 Branża: Ubezpieczeniowa Zakres obowiązków: Opracowywanie, wdrażanie i utrzymywanie modeli statystycznych oraz uczenia maszynowego wspierających funkcje aktuarialne. Analiza dużych i złożonych zbiorów danych w celu uzyskania praktycznych wniosków wspierających proces podejmowania decyzji. Przeprowadzanie eksploracyjnej analizy danych i tworzenie cech (feature engineering) dla poprawy jakości modeli i ich interpretowalności. Wspieranie automatyzacji i optymalizacji procesów aktuarialnych z wykorzystaniem nowoczesnych narzędzi i frameworków data science. Ścisła współpraca z aktuariuszami, underwriterami i zespołami likwidacji szkód w celu przekładania wyzwań biznesowych na rozwiązania analityczne. Przygotowywanie prezentacji wyników i rekomendacji w sposób zrozumiały dla odbiorców technicznych. Oferujemy: Projekt o realnym wpływie na dane w dużej organizacji. Nowoczesne technologie i środowisko chmurowe. Stabilna współpraca (B2B). Elastyczny model pracy (hybrydowy, zdalny w uzgodnionym zakresie).
Koordynatorka / Koordynator BI
GRUPA PZU
⚲ Warszawa
Nasze wymagania: Doskonała organizacja pracy i zarządzanie priorytetami Doświadczenie w pracy w obszarze zarządzania projektami Znajomość metodyk zarządzania projektami (PRINCE2, PMP lub APM, Agile) Wykształcenie wyższe (informatyka, telekomunikacja, zarządzanie, ekonomia, itp.) Znajomość języka angielskiego na poziomie komunikatywnym Dodatkowym atutem będzie znajomość technologii i zagadnień HD/BI/Data Governance Dodatkowym atutem będzie znajomość procesu realizacji i wdrożeń zmian w systemach PZU Zakres obowiązków: Prowadzenie oraz nadzór nad realizacją zlecanych zadań i inicjatyw jako PM odpowiedzialny za obszar Zarządzania Informacją Współpraca oraz zapewnienie płynnej komunikacji z obszarem biznesowym, technologicznym i otoczeniem HD w ramach zleconych, inicjatyw, projektów, zadań Przygotowanie i weryfikacja dokumentacji zarządczej w zleconych inicjatywach Raportowanie wyników prac Współpraca z dostawcami w zakresie planowania, zamawiania i zlecania prac Zarządzanie ryzykiem związanym z realizacją zleconych inicjatyw, komunikacja ryzyka Oferujemy: Umowa o pracę na czas określony i atrakcyjny tryb pracy hybrydowej: 4 dni z biura w miesiącu Praca w centrum kompetencyjnym BI – niezależnej jednostce łączącej funkcje biznesowe, analityczne Współpraca z ponad 100 specjalistami IT w ponad 20 technologiach naszej Hurtowni Danych Motywujący system wynagrodzeń Pracowniczy Program Emerytalny w wysokości 7% opłacany przez pracodawcę Opieka medyczna w PZU Zdrowie Zniżka pracownicza do 50% na ubezpieczenia (m. in. PZU DOM, PZU AUTO) Platforma benefitowa m.in. karta sportowa, bilety do kin i teatrów, vouchery zakupowe Elastyczna oferta grupowego ubezpieczenie na życie w wielu wariantach Dostęp do bazy szkoleń cyfrowych oraz nowoczesnych platform edukacyjnych Szkolenia i programy rozwojowe dla pracowników i menedżerów Coroczne konferencje i inicjatywy promujące rozwój kompetencji przyszłości, z udziałem uznanych prelegentów Programy i działania wellbeingowe dla pracowników 2 dni w roku na wolontariat pracowniczy (możesz zrealizować autorski projekt wolontariacki lub wziąć udział w akcji zorganizowanej przez Fundację PZU) Możliwość rozwoju pasji sportowych w ramach 18 sekcji PZU Sport Team (od Badmintona – po Żeglarstwo) Najbardziej zielone biuro w Warszawie (PZU Park) ze strefami relaksu i siłownią
Junior data consultant (K/M)
AVENTUS BIZNES SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Białystok, Warszawa, Wola
Wymagania
- SQL
- Python
- Power BI
Nasze wymagania: Wykształcenie wyższe lub student ostatnich lat w zakresie matematyki, statystyki, ekonomii lub kierunków technicznych Doświadczenie z narzędziami BI Dobra znajomość SQL i Pythona Znajomość języka angielskiego na poziomie min. B2 Umiejętność pracy z dużymi zbiorami danych Logiczne myślenie systemowe Zdolność szybkiego dostosowywania się do nowych warunków, dbałość o szczegóły Mile widziane: Power BI Zakres obowiązków: Projektowanie, rozwój i optymalizacja pipeline’ów ETL (oraz ELT) do ekstrakcji, transformacji i ładowania danych z różnych źródeł danych Przygotowanie hurtowni danych dla modelowania statystycznego Kompleksowe przygotowanie raportowania zarządczego i operacyjnego Wsparcie analityczne i inżynieryjne przy integracji nowych źródeł danych Rozwój zaawansowanej automatyzacji standardowych zadań w całej grupie Efektywna współpraca z pozostałymi departamentami Oferujemy: Rozwój kariery: Dołącz do ekscytujących międzynarodowych projektów i miej realny wpływ w dynamicznym środowisku fintech
Junior Vendor Data Analyst
Randstad Polska Sp. z o.o.
⚲ Kraków
Wymagania
- SAP
Nasze wymagania: awareness in technology and eagerness to work with various systems and Excel analytical thinking, problem-solving skills, strong attention to detail good English communication skills responsibility, flexibility, customer oriented attitude knowledge of SAP and Vendor Master Data maintenance would be an asset ability to build relationships and work collaboratively across functions innovative and "can do" approach Zakres obowiązków: processing individual and bulk vendor master data creation and maintenance requests managing stakeholder email communication vendor Master Data governance and maintenance participating in process optimization and database modernization projects Oferujemy: work in an international and well-known tobacco company benefit system (OK system, Medical package) funding for the canteen - 250 PLN monthly flexible working hours temporary contract, with possibility of extention hybrid work (office in Cracow, Czyżyny)
Junior Data Scientist
CLOUDFIDE SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Warszawa, Praga-Południe
Wymagania
- Microsoft Azure
- Python
- SQL
- Databricks
- PySpark
- Azure ML
- PostgreSQL
- Microsoft SQL Server
- Apache Spark
- Azure DevOps
- Apache Airflow
- OpenCV
- LangChain
Nasze wymagania: Ongoing or completed degree in Computer Science, Mathematics, Physics, Statistics, or a related technical field. Solid foundations in Python and a genuine passion for machine learning and data science. Basic understanding of machine learning concepts - supervised/unsupervised learning, model evaluation, neural networks. Familiarity with or strong interest in computer vision, LLMs, or NLP. Good communication and presentation skills - able to demo work and explain technical concepts to non-technical audiences. English at B2 level or above - our daily working language with international clients and teams. A proactive, curious mindset and the drive to learn independently in a fast-paced environment. Mile widziane: Hands-on experience with Azure ML, Databricks, or cloud platforms. Familiarity with OpenCV, LangChain, or Databricks Asset Bundles. Experience with structured output techniques for LLMs. Participation in ML competitions, hackathons, or university research projects. Any personal or academic projects involving model development - you'll be asked to present one as part of the technical interview. O projekcie: Why Join Us At Cloudfide, we engineer solutions where data truly becomes an accelerator for innovation. We build and evolve large-scale Big Data and cloud-native platforms for global clients, including leaders in retail and the Fortune 500. We process massive, complex datasets, operate fully in the cloud ecosystem, and work with the latest technologies, including AI, ML, MLOps, and modern data architectures. Our projects have measurable, real‑world impact - from enhancing customer experiences at scale to empowering data-driven decision-making in high‑visibility global organizations. As we continue to grow, you'll have the opportunity to shape solutions, mentor others, drive architecture decisions, and take ownership of strategic initiatives. Opportunity Overview As a Junior Data Scientist, you'll take your first professional steps in a cloud-native, AI-forward environment, working with cutting-edge technologies including Azure, Databricks, and Large Language Models. You don't need to have commercial experience - what matters is your passion for data science and a genuine curiosity for building models that solve real problems. Expect hands-on exposure to machine learning, computer vision, and LLMs across high-visibility projects for international organizations and Fortune 500 clients. You'll join a team of passionate engineers and data scientists who value technical excellence, collaboration, and continuous growth. Zakres obowiązków: Developing and deploying machine learning models in cloud-native environments using Azure and Databricks. Working with LLMs, structured outputs, and LangChain to build intelligent, data-driven solutions. Applying computer vision techniques using OpenCV and related tools across real client projects. Collaborating with senior data scientists and engineers to translate business problems into model-ready tasks. Presenting and explaining your work clearly to stakeholders and clients - demos, walkthroughs, and technical summaries. Managing code and model versioning using Git and Databricks Asset Bundles. Continuously learning and staying up to date with emerging trends in AI, ML, and MLOps. Oferujemy: Benefits: MyBenefit / Multisport Enel‑Med private medical care Professional Growth: Annual 2,000 PLN development budget Access to premium e-learning platforms Real opportunities to grow your responsibilities and transition to mid-level roles Work Environment: Long-term collaboration (UZ or B2B) Remote-first, work from anywhere (workation) Flexible hours & focus on work-life balance Work with experienced engineers who support your development Flat structure — you have a voice and contribute directly to how we work Culture & Integration: Company-wide trips (including international offsites) Team integration budgets Friendly, supportive, and collaborative team environment
Junior AI/ML Developer (f/m/x)
Sii Sp. z o.o.
⚲ Katowice, Łódź, Śródmieście
Wymagania
- Snowflake
- Data Built Tool
- ETL
- SLA (Service Level Agreement)
- Observability
- Machine Learning
- lineage
- Data Mesh
- DataOps
- Microsoft Power BI
Nasze wymagania: Min. 1 rok doświadczenia w obszarze Data Engineering Praktyczna realizacja pipeline’ów i data products w AWS, Snowflake, dbt, Azure, Witboost i Dreamio Znajomość nowoczesnych podejść ELT/ETL, testów automatycznych oraz procesów CI/CD w środowiskach danych Rozumienie zasad Data Mesh, DataOps oraz podstaw modelowania i data governance Bardzo dobra znajomość języka angielskiego – poziom min. B2 Proaktywne podejście, gotowość do współpracy i wysoka orientacja na jakość rozwiązań Wymagane przebywanie na terenie Polski oraz płynna znajomość języka polskiego O projekcie: Dołącz do projektu realizowanego dla dostawcy rozwiązań transportowych, który obejmuje rozwój nowoczesnych produktów danych w środowisku Data Mesh. Kluczowym celem jest dostarczanie skalowalnych, dobrze udokumentowanych i produkcyjnych rozwiązań obejmujących pełen cykl życia danych. Najciekawszym aspektem projektu jest praca w dojrzałym ekosystemie opartym o AWS, Snowflake, dbt, Azure, Witboost i Dreamio. Zakres obowiązków: Tworzenie i rozwijanie źródłowych oraz analitycznych data products w środowisku chmurowym Implementacja pipeline’ów zgodnie z obowiązującymi standardami, wzorcami i procesami CI/CD Współpraca w zespołach cross‑functional i udział w pair‑programmingu z zespołami domenowymi Przekazywanie wiedzy oraz wspieranie domen w przejmowaniu odpowiedzialności za produkty danych Zapewnianie operacyjności rozwiązań: jakość danych, lineage, SLA, koszty, monitorowanie i observability Oferujemy: Tytuł Great Place to Work od 2015 roku - to dzięki opiniom pracowników otrzymujemy tytuł i wdrażamy nowe pomysły Stabilność zatrudnienia – 2,1 MLD PLN przychodu, brak długów, od 2006 roku na rynku Dzielimy się zyskiem z pracownikami - od 2022 roku przeznaczyliśmy na ten cel już ponad 76 milionów PLN Bogaty pakiet benefitów - prywatna opieka zdrowotna, platforma kafeteryjna, zniżki na samochody i więcej Komfortowe miejsce pracy - pracuj w naszych biurach klasy A lub zdalnie Dziesiątki fascynujących projektów dla prestiżowych marek z całego świata – możesz je zmieniać dzięki aplikacji Job Changer 1 000 000 PLN rocznie na Twoje pomysły - taką kwotą wspieramy pasje i akcje wolontariackie naszych pracowników Stawiamy na Twój rozwój - meetupy, webinary, platforma szkoleniowa i blog technologiczny – Ty wybierasz Fantastyczna atmosfera stworzona przez wszystkich Sii Power People
Inżynier Danych Chmurowych (k/m) MODIVO PLATFORM
MODIVO PLATFORM
⚲ Warszawa
Wymagania
- SQL
- Python
- Git
- Google Cloud Platform
- Google Analytics
Nasze wymagania: Posiadają minimum 2 lata doświadczenia komercyjnego na podobnym stanowisku i potrafią skutecznie wykorzystywać swoje umiejętności w środowisku produkcyjnym. Wykazują się dużą dokładnością i umiejętnością samodzielnego rozwiązywania problemów. Są komunikatywne, zorientowane na cel i zdeterminowane, by znaleźć najlepsze rozwiązanie dla każdego wyzwania. Mają doświadczenie w pracy z bazami danych (np. BigQuery), znają bardzo dobrze SQL, Python i procesy ELT oraz narzędzie orkiestracji zadań – Airflow. Mają doświadczenie z Git i wersjonowaniem kodu. Znajomość podstaw modelowania danych. Znajomość Google Cloud Platform lub chęć intensywnej nauki GCP (np. BigQuery, Cloud Storage, Cloud Composer, Cloud Build). Mile widziane: Znajomość lub chęć nauki działania narzędzi e-commerce i marketingowych, takich jak Google Analytics, Appsflyer, Google Ads API, Facebook/Meta Ads API i inne API źródeł danych marketingowych. Znajomość dbt, GitOps. Znajmość Databricks. Znajomość ADK. Zakres obowiązków: Tworzenie i rozwój procesów ELT integrujących dane z narzędzi takich jak Google Analytics, Appsflyer, Google Ads, API sieci afiliacyjnych, itp. Utrzymywanie i rozwijanie hurtowni danych w środowisku Google Cloud Platform (BigQuery, Cloud Composer) wraz z tworzeniem i utrzymywaniem przepływów z innych hurtowni danych (Azure, Oracle, MySql, Databricks). Zapewnienie bezpieczeństwa danych, czyli znajomość dobrych praktyk w zakresie zarządzania dostępami oraz przechowywania i przetwarzania danych osobowych. Współpraca z zespołem analityków i specjalistów marketingu przy dostarczaniu danych do raportów i dashboardów. Monitorowanie jakości danych i wspieranie procesów związanych z ich czyszczeniem, standaryzacją i walidacją. Udział w projektach związanych z segmentacją klientów, marketing mix modeling, budowanie agentów AI. Oferujemy: Pracę w zgranym, wspierającym zespole, nastawionym na wymianę wiedzy i wspólny rozwój. Realny wpływ na procesy testowe oraz rozwój narzędzi automatyzacji w organizacji. Pracę w silnej i dynamicznie rosnącej firmie o polskich korzeniach i międzynarodowym zasięgu. Możliwość kreowania znanych i cenionych brandów z naszego portfolio: CCC, eobuwie, HalfPrice, Boardriders. Nowoczesne środowisko pracy wpisane w omnichannelowy model biznesowy. Stabilną współpracę w operacie o współpracę B2B. Zniżki pracownicze na zakupy w naszych brandach: CCC, eobuwie, HalfPrice, Modivo. Program poleceń pracowniczych z bonusem finansowym. Możliwość kreowania własnej ścieżki kariery w strukturach Grupy CCC na wiele sposobów i w kierunku zgodnym z Twoim potencjałem. Swobodny dress code - pracujemy w modzie, a Ty pracuj w swoim stylu, więc noś to, w czym czujesz się dobrze i zostań ambasadorem naszych marek. Zespół nastawiony na działanie, stawiający na współpracę i różnorodność! Jesteśmy firmą otwartą na zatrudnianie osób z niepełnosprawnościami.
F/M: Kafka Platform Engineer / Streaming Engineer
PEOPLEVIBE SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Warszawa
Wymagania
- Apache Kafka
- Kubernetes
- Git
- Kafka Streams
- Kafka Connect
- Schema Registry
- Java
- Scala
- Python
- Prometheus
- Grafana
- Strimzi Operator
- Debezium
- GitOps
- ArgoCD
- PostgreSQL
- Oracle
- Redis
- Data Lake
- Avro
- Schema evolution
Nasze wymagania: Doświadczenie w pracy z Apache Kafka (platforma, development lub integracje) Znajomość Kafka Streams, Kafka Connect lub Schema Registry Doświadczenie z Kubernetes i konteneryzacją Dobra znajomość Java, Scala lub Python Doświadczenie z architekturą event-driven (EDA) i systemami rozproszonymi Znajomość narzędzi monitoringu (np. Prometheus, Grafana) Doświadczenie z narzędziami CI/CD i repozytoriami Git Umiejętność pracy w środowisku Agile Mile widziane: Doświadczenie z Strimzi Operator Znajomość Debezium (CDC) Doświadczenie z GitOps / ArgoCD Praca z systemami danych (PostgreSQL, Oracle, Redis, Data Lake) Znajomość Avro / Schema evolution Doświadczenie z bezpieczeństwem platform danych (certyfikaty, auth, secrets) O projekcie: Dołączysz do zespołu odpowiedzialnego za rozwój i utrzymanie dużej platformy event streaming opartej o Apache Kafka. Platforma obsługuje setki topiców, konsumentów i konektorów, umożliwiając integrację systemów oraz przetwarzanie danych w czasie rzeczywistym. Projekt koncentruje się na architekturze event-driven, mikroserwisach opartych o Kafka Streams oraz integracji z różnymi systemami danych (m.in. bazy danych, data lake, systemy biznesowe). Całość działa w środowisku Kubernetes z wykorzystaniem Strimzi Operator i podejścia GitOps. Zespół pracuje w metodyce Agile i rozwija platformę zapewniającą wysoką skalowalność, bezpieczeństwo i niezawodność przetwarzania danych. 📍 Lokalizacja: 100% zdalnie (projekt międzynarodowy) 🌐Angielski: C1 Zakres obowiązków: Projektowanie i rozwijanie rozwiązań opartych o Apache Kafka i event-driven architecture Tworzenie i rozwijanie stream-based microservices (Kafka Streams) Zarządzanie konfiguracją platformy Kafka (topics, partitions, security, schema) Rozwijanie integracji przy użyciu Kafka Connect i Debezium Praca ze Strimzi Operator na Kubernetesie Projektowanie topologii przetwarzania danych (source → stream processing → target) Dbanie o wydajność, skalowalność i monitoring platformy streamingowej Wspieranie wdrożeń oraz utrzymania środowiska produkcyjnego Współpraca z architektami i zespołami integracyjnymi przy projektowaniu systemów rozproszonych Oferujemy: Pracę przy dużej platformie event streaming w skali enterprise Możliwość rozwoju w obszarze Kafka, Kubernetes i architektury event-driven Współpracę z międzynarodowym zespołem ekspertów Realny wpływ na architekturę i rozwój platformy danych Stabilny, długoterminowy projekt technologiczny
Ekspert Microsoft Fabric - 0,5 FTE (k/m/x)
SQUARE ONE RESOURCES sp. z o.o.
⚲ Warszawa, Mokotów
150–180 zł netto (+ VAT) / godz.
Wymagania
- Microsoft Fabric
- Microsoft SQL Server
Nasze wymagania: 5-7 lat doświadczenia w migracji danych, pracy z MS SQL i Microsoft Fabric. Znajomość platformy DMS, ETL i procesów migracji danych. Doświadczenie w refaktoryzacji i optymalizacji hurtowni danych. Umiejętność współpracy z zespołem developerskim i komunikacji z klientem. O projekcie: Poszukujemy doświadczonego Eksperta ds. Migracji DMS do wsparcia w migracji i refaktoryzacji Data Warehouse (hurtowni danych) dla platformy DMS z bazy MS SQL na platformę Fabrica. Zatrudniona osoba będzie odpowiedzialna za przeprowadzenie migracji, zapewnienie zgodności z najlepszymi praktykami oraz wsparcie zespołu deweloperskiego w FCU. Zakres obowiązków: Migracja danych: Przygotowanie oraz przeprowadzenie migracji Data Warehouse z bazy MS SQL na Fabrica. Refaktoryzacja danych: Optymalizacja struktury danych i zapewnienie zgodności z najlepszymi praktykami. Wsparcie zespołu: Doradztwo i wsparcie dla zespołu deweloperskiego w FCU w zakresie migracji oraz refaktoryzacji. Zapewnienie jakości: Dbałość o jakość procesu migracji oraz zgodność z wymaganiami klienta. Dokumentacja: Przygotowanie niezbędnej dokumentacji technicznej i procesowej. Oferujemy: Współpracę w modelu B2B W pełni zdalną pracę Elastyczne godziny (tylko 4–5h tygodniowo!)
Dział Serwisu Systemów Napędowych - Program Praktyk Letnich 2026
ABB Sp. z o.o.
⚲ Aleksandrów Łódzki
Nasze wymagania: Student / Studentka 3 roku na kierunku Informatyka, Informatyka stosowana, Inżynieria danych, Automatyka i Robotyka, Analityka danych Mile widziana specjalizacja z AI, machine learning, systemów informatycznych lub analizy danych Język angielski Znajomość MS Office Zakres obowiązków: Wsparcie zespołu w usprawnianiu oraz podnoszeniu jakości danych w aplikacjach służących do zarządzania bazą zainstalowanych urządzeń (Installed Base) Analiza i porządkowanie informacji dotyczących bazy zainstalowanych urządzeń, w tym identyfikacja braków i niespójności danych Usystematyzowanie informacji o portfolio usług serwisowych oferowanych w dziale Serwisu Systemów Napędowych Przygotowanie uporządkowanych materiałów i zestawień wspierających zespół sprzedaży usług serwisowych w bieżącej pracy
Database Engineer
Lufthansa Systems
⚲ Gdańsk, Oliwa
8 000–21 000 zł brutto / mies.
Wymagania
- SQL
- Azure Database Services
- Windows Server
- Linux
- PowerShell
- Python
Nasze wymagania: Minimum 2 years of experience in a similar role. Strong experience with SQL and query performance tuning. Hands-on experience with Azure Database services. Solid understanding of backup and recovery strategies. Familiarity with monitoring tools or experience in building custom monitoring solutions. Basic knowledge of Windows, Linux, and TCP/IP networking. Understanding of security, auditing, RBAC, and Entra ID. Certification: Azure Database Administrator Associate (DB‑300). Readiness to work in a hybrid model: 2 days in the office in Gdańsk. Mile widziane: Scripting experience (PowerShell, Python, Unix shell). Knowledge of Azure networking or hybrid cloud environments. O projekcie: Lufthansa Systems Poland is looking for a Database Engineer to support and maintain enterprise database platforms used across the Lufthansa Group. The role focuses on designing, operating and troubleshooting database environments that support critical business systems, with strong emphasis on stability, performance and availability. In this role, you will be responsible for the ongoing support and operation of database services for corporate customers. Day to day work involves handling real production issues, from incidents and performance degradation to nonstandard problems in complex, distributed environments. This requires solid technical experience, fast root cause analysis and the ability to make decisions under pressure. The outcome of this work is reliable, stable database platforms supporting business critical airline systems. You will be part of an experienced team that has been delivering database services for years, working close to production systems and dealing with challenges where ready made solutions often do not exist. Zakres obowiązków: Manage, optimize, and enhance SQL databases and Azure Database services. Monitor performance, analyze execution plans, and fine-tune SQL for maximum efficiency. Design and implement robust backup and disaster recovery solutions in Azure. Develop and improve monitoring tools for full visibility and proactive issue detection. Support end-to-end data migrations: planning, execution, validation, and troubleshooting. Promote and maintain strong security practices using RBAC and Entra ID. Oferujemy: An international working environment, atmosphere that stimulates development. Individual career path. Lufthansa Group membership benefits. Flexible working time and place adjusted to employee’s needs. Possibility of starting your workday between 07:00 and 11:00. Support for your passion for sports within the local activity group and co-financing Multisport cards. Private medical care for employees and their family members. Life insurance. Stable employment under an employment contract. Modern office in Oliwa – great location and comfortable workspace. Atmosphere – small teams, high independence, real impact on the project.
Data/AI Engineer
Scalo
⚲ Katowice
32 760 - 34 440 PLN (B2B)
Wymagania
- Python
- ETL
- Java
- Spark
- GCP
- Airflow
- Git
- Terraform
O projekcie: Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Co dla Ciebie mamy: - Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt - Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych - Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób - Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort - Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci - Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Wymagania: Ta oferta jest dla Ciebie, jeśli: - jesteś Data Engineerem z co najmniej 5-7-letnim doświadczeniem zawodowym, - masz solidne doświadczenie w projektach migracyjnych (ze środowiska on premise na chmurę) - bardzo dobrze znasz język Python (pod względem procesów ETL, pipeline'ow danych, automatyzacji), - dobrze znasz Java (szczególnie w kontekście przetwarzania danych, m.in. Spark, Beam), - posiadasz doświadczenie w projektowaniu i realizacji złożonych pipeline'ów danych (batch i streaming) w środowiskach produkcyjnych, - potrafisz tworzyć architekturę rozwiązań danych w GCP z uwzględnieniem skalowalności, bezpieczeństwa i kosztów, - możesz pochwalić się praktyczną znajomością narzędzi orkiestracji, CI/CD i automatyzacji (Airflow, Git, Terraform lub podobne), - Twój poziom języka angielskiego pozwala na swobodną komunikację (najlepiej poziom C1), - posiadasz doświadczenie w pracy w środowisku międzynarodowym oraz w projektach realizowanych z udziałem zewnętrznych partnerów technologicznych, - masz doświadczenie w analizie istniejących rozwiązań legacy i rekomendowaniu docelowych architektur w chmurze, - posiadasz wiedzę niezbędną do rozumienia zagadnień Data Governance, bezpieczeństwa danych i kontroli dostępu w środowiskach chmurowych, - lubisz samodzielną pracę i nie boisz się podejmować ważne decyzje techniczne, ale cenisz też sobie pracę zespołową, - wyróżniają Cię wysokie kompetencje komunikacyjne. Codzienne zadania: - uczestnictwo w projekcie dotyczącym kompleksowej migracji platformy danych z Cloudera (on premise) do nowoczesnej architektury opartej o Google Cloud Platform oraz wdrożenia nowych rozwiązań Data/AI w chmurze w bankowości, - analiza i inwentaryzacja istniejących rozwiązań legacy w Cloudera, - wytyczanie ścieżki migracji (m.in. praca nad strategią, podejściem, rekomendacjami technicznymi), - przeniesienie oraz modernizacja procesów do usług GCP, - implementacja rozwiązań Data/AI z wykorzystaniem Dataproc, Dataflow, BigQuery, Cloud Composer i narzędzi automatyzacji, - współpraca z zespołem Data oraz partnerami Klienta w środowisku międzynarodowym, - praca w modelu zdalnym (warto jednak wziąć pod uwagę 2-3 dni onboardingu w Katowicach i sporadyczne warsztaty), - stawka do 205 zł/h przy B2B w zależności od doświadczenia.
Data Scientist AI Risk
Trans.eu Group S.A.
⚲ Wrocław, Krzyki
Wymagania
- AWS
- Git
- SQL
- Python
- Keras
- TensorFlow
- PyTorch
Nasze wymagania: Minimum 2 lata doświadczenia w budowie i uprodukcyjnianiu modeli ML w sektorze finansowym – koniecznie w obszarze ryzyka kredytowego lub detekcji fraudów (MUST HAVE). Ekspercka wiedza w zakresie technik modelowania stosowanych w obszarze ryzyka oraz umiejętność przekładania złożonych zagadnień na zrozumiały język dla różnych grup odbiorców. Bardzo dobra znajomość algorytmów i metod ML (np. CatBoost, XGBoost, LightGBM, scikit-learn, Keras, TensorFlow, PyTorch). Doświadczenie w budowie i wdrażaniu modeli NLP. Biegła znajomość Pythona oraz narzędzi kontroli wersji (Git). Znajomość relacyjnych i nierelacyjnych baz danych oraz języka SQL. Umiejętność pracy z dużymi wolumenami danych. Doświadczenie w pracy z technologiami chmurowymi – szczególnie AWS i Snowflake. Umiejętność jasnej i przejrzystej komunikacji z interesariuszami biznesowymi. O projekcie: Dołączając do zespołu AI Risk & Compliance Models, będziesz odpowiadać za pełny cykl życia modeli predykcyjnych i decyzyjnych wspierających procesy oceny ryzyka oraz zgodności regulacyjnej. Obejmuje to m.in. modele oceny wiarygodności kredytowej klientów oraz systemy detekcji nadużyć (fraud detection). Twoją rolą będzie projektowanie, budowa, wdrażanie oraz ciągła ewaluacja modeli, które realnie wpływają na decyzje biznesowe i bezpieczeństwo transakcji. Doświadczenie w obszarze ryzyka lub fraudów (detekcja nadużyć) to kluczowy i niezbędny warunek – poszukujemy osoby, która pracowała z modelami ryzyka lub fraud detection i zna specyfikę tych obszarów. Zakres obowiązków: Projektowanie, budowa i wdrażanie modeli uczenia maszynowego, ze szczególnym naciskiem na modele oceny wiarygodności kredytowej. Tworzenie modeli klasyfikacyjnych, regresyjnych i segmentacyjnych działających zarówno on-line, jak i off-line. Wykorzystanie różnorodnych technik ML, w tym modeli boostingowych, deep learningowych oraz rekomendacyjnych. Prowadzenie analiz eksploracyjnych i formułowanie rekomendacji dla obszarów biznesowych. Przetwarzanie dużych zbiorów danych z wykorzystaniem Snowflake i AWS. Tłumaczenie wymagań biznesowych na konkretne rozwiązania Data Science. Monitorowanie, utrzymanie i optymalizacja istniejących modeli. Dzielenie się wiedzą ekspercką z zespołem Data Science. Samodzielne prowadzenie projektów analitycznych oraz wdrażanie rozwiązań na środowiska produkcyjne. Oferujemy: Prywatna opieka zdrowotna w LuxMed, bezpłatne badania profilaktyczne, masaże odciążające kręgosłup. Budżet na wyposażenie zdalnego stanowiska pracy i bony upominkowe. Śniadania w formie bufetu w biurze, przygotowywane codziennie ze świeżych produktów. Wyjazdy integracyjne i rodzinne do prywatnego ośrodka wypoczynkowego nad jeziorem. Dofinansowanie karty Multisport.
Data Scientist - Central Query Understanding
Allegro
⚲ Poznań, Wilda
Wymagania
- Python
- Google Cloud Platform
Nasze wymagania: Have a degree strongly related to statistical/mathematical modeling. Possess at least 2 years of experience in data analysis and building machine learning solutions that have been released to production. Have a strong understanding of statistical and machine learning methods, specifically for forecasting and decision tree-based algorithms. Are proficient in Python and efficient in using basic development tools. Can process massive datasets (terabytes of data) using Google Cloud Platform solutions, working with tabular, spatial, natural language, image, and time-series data. Know English at a B2 level and Polish at a C1 level. Demonstrate core competencies in Analytical Thinking, Learning Agility, Cooperation, and Continuous Improvement & Innovation. O projekcie: In the Consumer domain, we create and maintain customer-facing applications that help millions of clients each day to complete their purchases. We are looking for a mid-level Data Scientist to join our team and help move our search engine beyond simple keyword matching toward a Domain-Aware Hybrid Search (integrating LLMs, Semantic Search, and Knowledge Graphs). In this role, you will be responsible for supporting the development of the Central Query Understanding mechanism and implementing Predictive & Assistive Discovery to reduce the "cost of search" through automated intent recognition. Zakres obowiązków: Designing, developing, and deploying models that solve complex business problems, including predictive, segmentation, forecasting, and recommendation models. Developing query-to-category and query-to-product matching models to enhance the search experience. Building internal AI Engineering competence, including fine-tuning small, efficient models. Taking an active part in all Data Science project phases: from problem formulation and data exploration to modeling, automation, release, and monitoring. Using a wide range of model types, including boosting, Bayesian methods, causal inference, optimization methods, deep learning, and forecasting models. Collaborating across teams, partnering with business stakeholders, analytics, and data engineering teams on experiment setup and deployment. Ensuring models reflect business processes' specificity and staying up-to-date with GenAI challenges. Oferujemy: Flexible working hours in the hybrid model (4/1) - working hours start between 7:00 a.m. and 10:00 a.m. We also have 30 days of occasional remote work. Well-located offices (with e.g. fully equipped kitchens, bicycle parking, terraces full of greenery) and excellent work tools (e.g., raised desks, ergonomic chairs, interactive conference rooms). A 16" or 14" MacBook Pro or corresponding Dell with Windows (if you don't like Macs) and all the necessary accessories. A wide selection of fringe benefits in a cafeteria plan - you choose what you like (e.g., medical, sports or lunch packages, insurance, purchase vouchers). English classes that we pay for related to the specific nature of your job. A training budget, inter-team tourism (see more here), hackathons, and an internal learning platform where you will find multiple trainings. An additional day off for volunteering, which you can use alone, with a team, or with a larger group of people connected by a common goal. Social events for Allegro people - Spin Kilometers, Family Day, Fat Thursday, Advent of Code, and many other occasions we enjoy.