Oferty pracy
Filtry
Data Catalog & Governance Specialist
CLOUDFIDE SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Warszawa, Praga-Południe
Wymagania
- Microsoft Azure
- SQL
- Atlan
- Alation
- Collibra
- IBM Cloud or Watson
- Databricks
Nasze wymagania: 1+ year of commercial experience in a data catalog, data governance, data stewardship, or closely related role. Hands-on experience with at least one enterprise data catalog platform - Atlan, Alation, Collibra, IBM Watson Knowledge Catalog, or equivalent. Solid SQL skills - comfortable querying, validating, and exploring data across different environments. Familiarity with low-code workflow logic within governance or catalog tools. Self-sufficient and reliable - able to navigate unfamiliar platforms quickly, identify what's needed, and engage the right people without hand-holding. A quick learner with a proactive mindset and strong attention to detail. Good communication skills and the ability to work effectively across technical and business teams. Fluent English - our daily working language with international clients and teams. Mile widziane: High-level knowledge of Databricks Unity Catalog and data governance in lakehouse environments. Familiarity with Azure or GCP cloud platforms. Awareness of agentic AI technologies and their application in data management and automation. Experience working in data-heavy or enterprise-scale environments. O projekcie: Why Join Us At Cloudfide, we engineer solutions where data truly becomes an accelerator for innovation. We build and evolve large-scale Big Data and cloud-native platforms for global clients, including leaders in retail and the Fortune 500. We process massive, complex datasets, operate fully in the cloud ecosystem, and work with the latest technologies, including AI, ML, MLOps, and modern data architectures. Our projects have measurable, real‑world impact - from enhancing customer experiences at scale to empowering data-driven decision-making in high‑visibility global organizations. As we continue to grow, you'll have the opportunity to shape solutions, mentor others, drive architecture decisions, and take ownership of strategic initiatives. Opportunity Overview As a Data Catalog & Governance Specialist, you will play a key role in helping our clients bring order, visibility, and trust to their data ecosystems. You'll work hands-on with enterprise data catalog platforms - such as Atlan, Alation, Collibra, or IBM Watson Knowledge Catalog - administering and configuring them to support data discovery, lineage, and governance workflows across large-scale cloud environments. This is not a data engineering role - it's for someone who is platform-savvy, detail-oriented, and self-sufficient, comfortable navigating complex tools, identifying the right stakeholders, and keeping things moving independently. You'll join a team of passionate engineers and data specialists who value technical excellence, collaboration, and continuous growth. Zakres obowiązków: Administering and configuring data catalog platforms (Atlan, Alation, Collibra, IBM Watson Knowledge Catalog, or similar) to support data governance initiatives across client environments. Supporting the implementation and maintenance of data governance and data stewardship workflows, including ownership assignment, metadata management, and policy enforcement. Navigating the data catalog platform independently - understanding what's happening across datasets, identifying gaps, and coordinating with the right teams to resolve issues. Writing and executing SQL queries to support data validation, lineage checks, and governance reporting tasks. Building and maintaining low-code workflow logic within catalog or governance platforms to automate stewardship processes. Staying up to date with agentic AI technologies and their emerging role in data governance and catalog automation. Collaborating with data engineers, architects, and business stakeholders to ensure data assets are well-documented, discoverable, and trusted. Oferujemy: Benefits: MyBenefit platform / Multisport Enel‑Med private medical care Professional Growth: Annual 2,000 PLN development budget Access to e‑learning platforms Real opportunities to expand responsibility and lead initiatives - most of our Leads come from internal promotions As the company continuously grows, you get real opportunities to expand your responsibilities, explore new areas, and even take ownership of your own initiatives. Work Environment: Long-term cooperation: UZ or B2B (we value stable, lasting relationships) Remote-first, work from anywhere in the world (workation) Flexible hours & strong focus on work-life balance Collaboration with top engineers you can truly learn from Flat structure - every voice counts, and you help shape the company Culture & Integration: Company-wide trips (including international ones) Team integration budgets Open communication and supportive, passionate teams
Data Architect
Link Group
⚲ Remote
33 600 - 35 280 PLN (B2B)
Wymagania
- Data Architecture
- Data modeling
- System design
- SQL
- Python
- AWS Data services
- S3
- Glue
- Lambda
- DMS
- Snowflake
- Kafka
- Terraform
- CI/CD
- DevOps
- ETL/ELT
- CDC
- Data governance
- GraphQL (nice to have)
O projekcie: We are looking for an experienced and forward-thinking Data Architect to join a team building modern, scalable data platforms. This is a key role for someone who wants to have a real impact on how data is structured, governed, and used across the organization. We are looking for a senior-level Data Architect who will take ownership of shaping and evolving a modern data ecosystem at scale. This role goes beyond designing solutions—you will define architectural direction, influence technology choices, and drive how data is leveraged across the organization. Wymagania: - Strong experience in data architecture, data modeling, and system design - Advanced SQL and solid Python skills - Hands-on experience with AWS data services (e.g., S3, Glue, Lambda, DMS) - Experience designing scalable data platforms (batch + real-time) - Strong understanding of data warehousing (e.g., Snowflake) - Experience with streaming technologies (e.g., Kafka or similar) - Knowledge of Infrastructure as Code (e.g., Terraform) - Understanding of CI/CD and modern DevOps practices - Experience with ETL/ELT, CDC, and data integration patterns - Strong grasp of data governance, security, and access control - Experience with large-scale data modeling and multi-source environments - 10+ years in data engineering / data architecture roles. Nice to have: - Experience with GraphQL APIs - Exposure to complex, distributed data ecosystems - Experience working in global or large-scale environments
Data Analyst
Devire
⚲ Remote
18 480 - 21 840 PLN (B2B)
Wymagania
- SQL
- Power BI
- GA4
- Metabse
- Jira (nice to have)
- Confluence (nice to have)
O projekcie: Devire Outsourcing IT to forma współpracy dedykowana dla specjalistów z branży IT, oparta na zasadach własnej działalności gospodarczej - B2B, realizująca projekty dla wiodących Klientów prowadzących innowacyjne i nowoczesne projekty. Obecnie, dla naszego Klienta działającego w branży mediowej, poszukujemy osoby na stanowisko Data Analyst. - Kontrakt B2B via Devire (110-130zł/h net + VAT) - Projekt długofalowy - Model zdalny (okazjonalne wizyty w biurze w Warszawie) Wymagania: - Minimum 2 letnie doświadczenie na stanowisku Data Analyst - Dobra znajomość tworzenia zapytań SQL - Umiejętność definiowania zakresu danych niezbędnych do odpowiedzenia na potrzeby biznesowe w danych raportach - Wiedza o najlepszych e-commerce’owych metrykach pozwalających najskuteczniej zaprezentować dane zagadnienia - Znajomość systemów BI: GA4, Power Bi, Metabase - Samodzielność, zaangażowanie i silne poczucie odpowiedzialności - Znajomość języka angielskiego na poziomie B2 Mile widziane: - Doświadczenie w branży e-commerce - Doświadczenie w pracy w zespołach zwinnych - Doświadczenie w pracy z Jira, Confluence Codzienne zadania: - Projektowanie i tworzenie na potrzeby interesariuszy biznesowych raportów oraz metryk m.in. z zakresu zachowań behawioralnych użytkownika - Utrzymanie oraz monitorowanie stworzonych raportów - Informowanie o zmianach w trendach wraz z rekomendacją oraz wyjaśnieniem co jest powodem zaistniałej zmiany - Rekomendowanie działań produktowych na podstawie zmian trendów - Organizacja cyklicznych statusów - Ścisła współpraca z zespołem produktowym w tworzeniu nowego produktu
Backend Developer
CLOUDFIDE SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Warszawa, Praga-Południe
Wymagania
- Microsoft Azure
- Python
- SQL
- Power BI
- PostgreSQL
- Microsoft SQL Server
- Databricks
- PySpark
- GitHub Actions
Nasze wymagania: 2+ years of commercial experience as a Backend Engineer or in a closely related engineering role. Solid proficiency in Python - scripting, automation, and backend API development. Hands-on experience with REST API design and implementation (FastAPI or similar frameworks). Practical knowledge of relational and NoSQL databases and SQL - comfortable designing schemas and writing complex queries. Experience with GitHub Actions for CI/CD, release automation, and workflow management. Familiarity with Databricks and PySpark - or strong motivation to develop these skills rapidly. Working knowledge of Azure services - particularly Key Vault, Azure Repos, and Azure Active Directory. Understanding of Power BI semantic models and programmatic interaction via REST APIs or XMLA endpoints is a plus. Strong analytical thinking, communication skills, and adaptability in dynamic, evolving project environments. Fluent English communication, able to collaborate effectively across international teams. Mile widziane: Experience with Databricks Unity Catalog and data governance practices. Familiarity with Power Platform - Power Apps, Power Automate, or Dataverse. Exposure to Docker and containerized deployments. Knowledge of OAuth2 / Azure AD authentication flows for API security. Experience working in data engineering or MLOps adjacent environments. O projekcie: Why Join Us At Cloudfide, we engineer solutions where data truly becomes an accelerator for innovation. We build and evolve large-scale Big Data and cloud-native platforms for global clients, including leaders in retail and the Fortune 500. We process massive, complex datasets, operate fully in the cloud ecosystem, and work with the latest technologies, including AI, ML, MLOps, and modern data architectures. Our projects have measurable, real‑world impact - from enhancing customer experiences at scale to empowering data-driven decision-making in high‑visibility global organizations. As we continue to grow, you'll have the opportunity to shape solutions, mentor others, drive architecture decisions, and take ownership of strategic initiatives. Opportunity Overview As a Mid Backend Engineer, you will design and build backend services and automation workflows that power data-driven applications and Power BI semantic model management for our international clients. Your work spans backend API development, data pipeline automation via Databricks, and cloud infrastructure integration - all within a modern Azure-first, cloud-native environment. Expect high-visibility solutions used across global organizations and Fortune 500 clients, and a team that values ownership, precision, and continuous improvement. You'll join a team of passionate engineers who value technical excellence, collaboration, and continuous growth. Zakres obowiązków: Building and maintaining backend services for web applications using Python and REST APIs, ensuring reliability, scalability, and clean architecture. Designing and automating GitHub Actions workflows for CI/CD, release management, and deployment automation across environments. Developing Databricks pipelines using PySpark and Unity Catalog to automate data refresh flows and manage Power BI semantic models programmatically. Writing Python scripts to automate operational tasks, data processing, and integration workflows. Designing and managing relational and NoSQL databases - including logging processing statuses, tracking pipeline runs, and supporting operational monitoring. Integrating with Azure services - Key Vault for secrets management, Azure Repos for version control, and Azure Active Directory for authentication and authorization. Collaborating with data engineers, BI developers, and business stakeholders to translate requirements into robust backend and automation solutions. Following best practices in API design, security, code quality, and documentation. Oferujemy: Benefits: MyBenefit platform / Multisport Enel‑Med private medical care Professional Growth: Annual 2,000 PLN development budget Access to e‑learning platforms Real opportunities to expand responsibility and lead initiatives - most of our Leads come from internal promotions As the company continuously grows, you get real opportunities to expand your responsibilities, explore new areas, and even take ownership of your own initiatives. Work Environment: Long-term cooperation: UZ or B2B (we value stable, lasting relationships) Remote-first, work from anywhere in the world (workation) Flexible hours & strong focus on work-life balance Collaboration with top engineers you can truly learn from Flat structure - every voice counts, and you help shape the company Culture & Integration: Company-wide trips (including international ones) Team integration budgets Open communication and supportive, passionate teams
Senior Data Scientist, Risk and Fraud Management, Growth Alliance
HelloFresh
⚲ Warszawa
Wymagania
- Python
- Pandas
- AWS
- Git
- Docker
Nasze wymagania: Bachelors, Masters or PhD in statistics, physics, economics, mathematics, computer science, data science or similar 3+ years work experience as a (senior) data scientist, preferably in e-commerce, fintech, or fraud detection Strong experience with classification and regression models; familiarity with uplift modeling is a plus Fluency in Python (Numpy, Pandas, Scikit-learn, XGBoost, LightGBM) and experience with Spark/PySpark, Databricks Experience with AWS services (SageMaker), workflow orchestration (Airflow/Prefect), and feature stores (Tecton is a plus) In-depth knowledge of handling imbalanced datasets, optimizing precision/recall trade-offs, and evaluating models in production Experience with real-time model inference, A/B testing, and measuring business impact of ML models Familiarity with software development practices (Git, Docker, CI/CD pipelines) Strong communication and collaboration capabilities with technical and non-technical stakeholders Zakres obowiązków: Work on fraud detection and risk assessment models from data collection to production, collaborating closely with cross-functional teams (engineering, product, finance, operations) Build, deploy, and maintain machine learning models for: Ship & Collect: Offline batch inference for recurring payment risk assessment and subscription fulfillment decisions Voucher Fraud Prevention: Real-time inference at checkout to detect and prevent voucher abuse patterns Payment Fraud Prevention: Real-time inference at checkout to detect and block fraudulent payment attempts Monitor model performance, detect anomalies, and communicate insights and recommendations to technical and non-technical stakeholders Leverage classification, regression, and uplift methodologies to continuously improve fraud prevention and risk assessment solutions Proactively utilize Generative AI tools to accelerate development cycles, improve code quality, and drive innovative solutions to complex challenges Oferujemy: Global collaboration at scale: Collaborate with experienced engineers and product partners across HelloTech’s international teams, in a culture of active knowledge sharing. Technology with real-world impact: Build and operate modern systems at global scale, supporting 6+ millions of customers and complex supply chain operations. Technical/Product/Design leadership: Drive best practices and influence architecture/design, quality, and ways of working in an autonomous, product-led setup. End-to-end development/delivery: Drive decisions from problem definition to production, improving systems and enabling long-term scalability. Access to workspace at Warsaw Centre Point. The hub offers modern facilities including showers, breakout zones, outdoor space, cycle parking, and refreshments (coffee, soft drinks, and fruit).
Senior Data Scientist (Azure, Databricks)
DS STREAM
⚲ Warsaw, Kraków, Wrocław, Poznań
28 560 - 30 240 PLN (B2B)
Wymagania
- Python
- PySpark
- Azure
- Darabricks
- Computer vision (nice to have)
- GCP (nice to have)
- LLM (nice to have)
Wymagania: Key Requirements - Strong proficiency in Python and ML libraries (scikit-learn, TensorFlow/PyTorch). - Experience with predictive modeling, recommendation systems, and optimization techniques. - Advanced SQL skills and ability to handle large, complex datasets. - Full ML lifecycle expertise (data prep, training, validation, tuning, evaluation). - Proven ability to communicate technical findings to non-technical audiences. - Experience with Azure and Databricks You will get - 100% remote work with the possibility to use an office in Warsaw - Flexible working hours and engaging company events - Access to Azure, GCP and Databricks certifications - Possibility to use an in-house incubator to develop your own ventures - A supportive community of 50+ senior data consultants with extensive experience in Data Warehouse and Big Data - and much more! Codzienne zadania: - Build and maintain machine learning models for predictive analytics, optimization, and forecasting. - Develop recommendation systems and algorithms to support data-driven decisions. - Process and enhance datasets, including feature engineering and computer vision tasks (e.g., image analysis). - Conduct data quality audits, ensure dataset integrity, and prepare data for modeling. - Design and run proof-of-concept experiments to validate assumptions and key performance indicators. - Collaborate with teams and stakeholders to refine requirements, interpret results, and deliver actionable insights.
Senior Data Engineer – Python, Spark, AWS
Link Group
⚲ Warszawa
35 000 - 40 000 PLN (PERMANENT)
Wymagania
- Python
- AWS
- Cloud
- Spark
- PySpark
- Scala
- Kubernetes
- MongoDB
- NoSQL
- Microservices
- Communication skills
- Machine learning (nice to have)
- AI (nice to have)
- Data science (nice to have)
O projekcie: We’re looking for a Senior Data Engineer to join a highly skilled team responsible for building a scalable, multitenant data platform that powers data ingestion, transformation, cataloging, and distribution for internal and external stakeholders. This role is central to designing robust data pipelines, integrating modern data lakehouse components, and supporting the company’s AWS-based infrastructure. Wymagania: - 5+ years of experience in Python and strong software engineering skills - Solid knowledge of AWS cloud services and best practices - Experience building scalable Spark pipelines in PySpark or Scala - Practical experience with Spark Streaming for low-latency pipelines - Familiarity with Delta Lake and modern data lakehouse architectures - Hands-on experience with Kubernetes and container orchestration - Experience with MongoDB and other NoSQL data stores - Understanding of microservices and event-driven architecture - Excellent communication skills and ability to work in a collaborative, global team - Commitment to high standards of ethics, quality, and delivery Nice to Have: - Familiarity with Machine Learning, AI models, or Data Science workflows Codzienne zadania: - Design and build scalable data ingestion pipelines in AWS - Work extensively with Databricks, including Unity Catalog, streaming, Delta Lake, and data transformation tools - Lead technical delivery and implementation of core platform components across raw, normalized, operational, and historical layers - Collaborate with engineering managers and cross-functional teams across the US and Poland - Drive technical excellence by improving team processes, architecture standards, and engineering best practices - Support and consult with stakeholders to ensure successful delivery of data-driven solutions - Contribute to the growth and maturity of the team’s cloud and data engineering capabilities
Senior Data Engineer
HSBC Service Delivery (Polska) Sp. z o.o.
⚲ Kraków, Dębniki
17 391–26 083 zł brutto / mies.
Wymagania
- SQL
- Python
- Java
- AWS
Nasze wymagania: Proven (3+ years) hands-on experience in SQL querying and optimization of complex transformation in BigQuery, focusing on cost-efficiency, concurrency, and data integrity. Proven (3+ years) hands-on experience in SQL Data Transformation, ETL/ELT pipeline development, testing, and implementation, ideally in GCP Datafusion. Experience in Data Vault modelling and implementation. Hands on experience in Cloud Composer/Airflow, Cloud Run, and Pub/Sub. Development experience in Python, Terraform, including proficiency in Git for version control and CI/CD pipeline creation and maintenance using DevOps tools like Ansible/Jenkins for could-based applications (ideally GCP). Experience working in DataOps model and Agile environment with corresponding toolsets. Strong problem-solving, analytical, and organisational skills with the ability to adapt, learn, and develop technical and soft skills rapidly and independently. Collaborative team player who embraces teamwork and mutual support. O projekcie: HSBC Markets and Securities is an emerging markets-led and financing-focused investment banking and trading business that provides tailored financial solutions to major government, corporate and institutional clients worldwide. In IT we provide HSBC with a genuine competitive advantage across the globe. Global Business Insights (GBI) provide critical metrics and reports to Markets and Securities Services Operations to enable them to monitor the health of their business and make data-driven decisions. The GBI Transformation is a large and complex data integration program spanning all of MSS Ops globally. We serve a diverse audience of users and data visualisation requirements from Exco down, and over 80 data sources in multiple time-zones across Middle Office, Post-Trade and Securities Services IT and elsewhere. We are a critical enabler for the Rubix 2025 Strategy and the MSS control agenda, providing operational KPI and KRI metrics which allow senior management to measure the success of their BAU and CTB investment dollars. We are looking for a GCP developer who can design, develop, test and deploy ETL/SQL pipelines connected to a variety of on-prem and Cloud data sources - both data stores and files. We will be using mainly GCP technologies like Cloud Store, BigQuery, and Data Fusion. You will also need to work with our devops tooling to deliver continuous integration/deployment capabilities, automated testing, security, and IT compliance. Zakres obowiązków: Design, build, test and deploy Google Cloud data models and transformations in BigQuery environment (e.g. SQL, stored procedures, indexes, clusters, partitions, triggers, etc.). Create and manage ETl/ELT data pipelines to model raw/unstructured data into Data Vault universal model, enriching, transforming and optimizing data into for end-user consumption. Review and refine, interpret, and implement business and technical requirements. Ensure applications meet non-functional requirements, IT standards, and security, compliance, scalability, reliability, and cost-efficiency needs. Monitor and optimize data pipelines for failure, performance issues, and scalability, implementing fixes or improvements as needed. Integrate data from multiple sources, ensuring consistency and accuracy. Manage code artefacts and CI/CD using tools like Git, Jenkins, Google Secrets Manager, etc. Address defects, enhance development, and transition knowledge, code, and support responsibilities to the support team. Oferujemy: Competitive salary. Annual performance-based bonus. Additional bonuses for recognition awards. Multisport card. Private medical care. Life insurance. One-time reimbursement of home office set-up (up to 800 PLN). Corporate parties & events. CSR initiatives. Nursery discounts. Financial support with trainings and education. Social fund. Flexible working hours. Free parking.
Reporting Specialist
DCG Sp. z o.o
⚲ Łódź, Gdynia, Gdańsk, Warszawa
21 840 - 24 360 PLN (B2B)
Wymagania
- Excel
- Power Query
O projekcie: We are looking for a detail-oriented and highly responsive WS2 Reporting Specialist to support data-driven decision-making and reporting across the workstream. This role plays a critical part in ensuring accurate, timely, and high-quality reporting for senior stakeholders, while continuously improving data governance and accessibility. You will act as a key point of contact for ad-hoc reporting requests, ensuring rapid turnaround without compromising data integrity. At the same time, you will contribute to maintaining and enhancing automated data processes, supporting the overall reporting framework, and enabling effective progress tracking across initiatives. Wymagania: - Minimum 8 years of experience in reporting, data analysis, or similar roles within complex environments - Fluent English (both written and spoken) - Strong experience in stakeholder communication and executive-level reporting - Advanced Excel skills, including Power Query, data modeling, and complex formulas - Excellent written and verbal communication skills with strong attention to detail - Proven ability to work in a structured, deadline-driven environment - Strong analytical and critical thinking skills, with the ability to translate data into actionable insights - Experience in coordinating reporting processes across multiple stakeholders and workstreams - High level of ownership, accountability, and ability to work collaboratively in cross-functional teams - Ability to handle ad-hoc requests efficiently while maintaining high quality and accuracy Codzienne zadania: - Deliver timely and high-quality responses to ad-hoc requests from leadership and senior stakeholders - Maintain and optimize data governance structures, ensuring consistency, accuracy, and accessibility of reporting data - Support the Reporting Coordinator in preparing and coordinating regular progress reports across WS2 - Ensure alignment and visibility of activities across the workstream through structured reporting and communication - Manage and enhance automated data processes, including data modeling and transformation - Coordinate reporting inputs across multiple stakeholders, ensuring adherence to timelines and reporting cadences - Perform analytical deep-dives and provide actionable insights based on data - Ensure high standards of data quality, validation, and reporting consistency
Regular Data Scientist – Generative AI / LLM Specialist
SQUARE ONE RESOURCES sp. z o.o.
⚲ Warszawa, Mokotów
100–140 zł netto (+ VAT) / godz.
Wymagania
- Generative AI
- NLP
- Deep Learning
- NumPy
- HuggingFace
- LangChain
- LLM
- Python
- Databricks
- Google Cloud Platform
- Azure DevOps
Nasze wymagania: Solid understanding of deep learning concepts. Experience in Machine Learning, particularly in Generative AI (LLM/LMM), with focus on NLP or multimodal models. Experience gathering business requirements and translating them into technical plans, data processing, feature engineering, model evaluation, hypothesis testing, and model deployment. Strong Python and object-oriented programming skills; working knowledge of SQL and vector databases. Experience with Azure or GCP cloud platforms. Knowledge of Deep Learning and GenAI libraries: NumPy, PyTorch, HuggingFace, LangChain, LangGraph, and GenAI APIs (OpenAI, Gemini). Hands-on experience designing or operating MCP servers/clients for LLM agents. Mile widziane: Experience working with Databricks. Proven commercial experience in Generative AI, NLP, or Computer Vision projects. Familiarity with microservice architectures. Experience with code repositories and code assistants. Strong business acumen and ability to propose creative solutions for client problems. Ability to mentor and lead junior team members. O projekcie: We are looking for a Data Scientist to join our AI team and support clients in building end-to-end Talk-To-Data (TTD) solutions powered by LLMs and GenAI models. The AI team focuses on cutting-edge aspects of Generative AI and LLMs with applications such as RAG, summarization, multi-agent workflows, and model fine-tuning. With deep, PhD-level expertise in GenAI, NLP, and Computer Vision, this is an excellent environment for professionals eager to push their skills to new heights. We are seeking candidates for long-term engagement in GenAI and related domains. Zakres obowiązków: Develop end-to-end GenAI applications such as chatbots, voicebots, and Talk-to-Data systems, including data ingestion, retrieval layers, orchestration (e.g., LangChain, LlamaIndex, LangGraph), API/backend, and simple UI where needed. Design and implement RAG pipelines with vector databases, hybrid search, rerankers, query transformation, and evaluation frameworks for relevance and robustness. Perform model selection, prompting strategies, and fine-tuning (LoRA/QLoRA/SFT) for text, code, and multimodal models, including guardrails, output evaluation, and A/B testing. Design, integrate, and optimize LLM interactions with external tools, APIs, and data sources using Model Context Protocol (MCP) connectors. Understand business requirements and translate them into technical goals, define success metrics, audit data feasibility, and align stakeholder expectations. Support project delivery and pre-sales initiatives.
Python Engineer, Data Platform
Link Group
⚲ Warszawa
27 000 - 39 000 PLN (PERMANENT)
Wymagania
- Python
- SQL
- Cloud
- Kubernetes (nice to have)
- Kafka (nice to have)
- Grafana (nice to have)
- Prometheus (nice to have)
- CloudWatch (nice to have)
- AWS (nice to have)
- Cloud platform (nice to have)
- AI (nice to have)
O projekcie: Join the Data Platform team to build and maintain data-driven applications, including AI-powered data access tools. Work on a mix of legacy, improved, and greenfield projects with firm-wide impact. Why join: - High-visibility, high-impact role across the firm - Shape AI-driven development and data access practices - Work on cutting-edge tech in institutional finance - Collaborative culture with competitive compensation Wymagania: What we’re looking for: - 3+ years in software engineering, Python and SQL experience - Experience with data systems, cloud technologies, or AI-assisted tools is a plus - Product-oriented mindset, comfortable navigating ambiguity, and impact-focused Nice to have: - Experience with Kubernetes, Kafka, or federated query engines (e.g., Trino) - Familiarity with monitoring/observability tools like Grafana, Prometheus, CloudWatch - Experience with AWS or other cloud platforms - Hands-on experience with AI coding assistants (Copilot, Claude Code, Codex, etc.) Codzienne zadania: - Develop and enhance solutions for data and metadata access - Build reliable, scalable applications and operational processes - Experiment with AI-assisted development tools and share best practices - Collaborate in a distributed team, taking ownership of impactful projects
Programista Hurtowni Danych (k/m)
Devire
⚲ Warszawa
18 480 - 23 520 PLN (B2B)
Wymagania
- Microsoft SQL Server
- T-SQL
- SSIS
- SSAS
- Hurtownie Danych
- SVN
- Git
- Python (nice to have)
- Kreatywność (nice to have)
- Rozwiązywanie problemów (nice to have)
O projekcie: Devire Outsourcing IT to forma współpracy dedykowana dla specjalistów z branży IT, oparta na zasadach własnej działalności gospodarczej - B2B, realizująca projekty dla Klientów prowadzących innowacyjne i nowoczesne projekty. Dla naszego klienta, z branży ubepiczeniowej poszukujemy osoby na stanowisko Programisty/Programistki Hurtownii Danych. - Lokalizacja: Zdalnie (2 dni w miesiącu z Warszawy) - Stawka: 110-140 PLN netto+VAT/h B2B - Kontrakt B2B za pośrednictwem Devire - Współpraca zdalna - Elastyczne godziny pracy - Pakiet benefitów Wymagania: Wymagania techniczne - Bardzo dobra znajomość Microsoft SQL Server. - Bardzo dobra znajomość T‑SQL. - Doświadczenie w SSIS i SSAS. - Zrozumienie koncepcji Hurtowni Danych (fakty, wymiary, modele danych). - Doświadczenie z systemami kontroli wersji (SVN, GIT). - Mile widziane: Python. Kompetencje miękkie - Kreatywne i nieszablonowe podejście do problemów. - Samodzielność i inicjatywa w proponowaniu rozwiązań. - Umiejętność pracy zespołowej i dzielenia się wiedzą. - Dobra znajomość języka angielskiego. - Chęć ciągłego rozwoju Codzienne zadania: - Rozwijanie Hurtowni Danych (miary, wymiary) zgodnie z wymaganiami biznesowymi. - Optymalizacja procesów ładowania danych i zapewnienie SLA. - Realizacja projektów przetwarzania danych (ETL, modelowanie). - Obsługa dużych zbiorów danych (>10 TB). - Analiza i naprawa błędów produkcyjnych (2 linia wsparcia). - Migracje rozwiązań Oracle → SQL Server. - Udoskonalanie narzędzi CI/CD oraz code review.
Programista Hurtowni Danych (He/She)
ASTEK Polska
⚲ Wrocław
12 600 - 15 750 PLN (B2B)
Wymagania
- ETL
- SQL
- PL/SQL
- ETL / DWH
- doświadczenie w bankowości (nice to have)
O projekcie: Dołącz do jednego z wiodących banków i rozwijaj rozwiązania oparte na danych w środowisku o wysokiej skali i znaczeniu biznesowym. Pracując w branży bankowej, będziesz mieć realny wpływ na jakość informacji zarządczej, raportowanie oraz procesy decyzyjne organizacji. Poszukujemy osoby, która chce rozwijać się w obszarze hurtowni danych i nowoczesnych technologii, współtworząc kluczowe systemy wspierające funkcjonowanie banku. Model pracy: Hybrydowy z Wrocławia (1-2 dni pracy w biurze/ tydzień) Długodalowa współpraca Branża: bankowa Wymagania: - posiadasz wykształcenie wyższe (informatyka lub kierunki pokrewne) - masz min. rok doświadczenia w pracy z hurtowniami danych - bardzo dobrze znasz SQL i PL/SQL - masz doświadczenie z narzędziami ETL (np. Ab Initio, IBM InfoSphere DataStage, Informatica, Talend) - znasz zagadnienia relacyjnych baz danych i hurtowni danych (DWH) - potrafisz modelować dane i optymalizować zapytania SQL - chcesz rozwijać się w obszarze ETL / DWH - interesuje Cię praca z nowoczesnymi technologiami (m.in. Ab Initio, Oracle 19) Codzienne zadania: - rozwój i utrzymanie środowiska Hurtowni Danych - integracja i konsolidacja danych z systemów zewnętrznych - rozwój narzędzi wspierających system informacji zarządczej (przetwarzanie, prezentacja i dystrybucja danych) - projektowanie oraz budowa repozytoriów danych wykorzystywanych przez inne systemy IT - rozwój narzędzi do kontroli jakości danych
Presales Solution Consultant – Data and AI
EPAM Systems (Poland) sp. z o.o.
⚲ Kraków, Grzegórzki
Wymagania
- Databricks
- Snowflake
- AWS
- Microsoft Azure
- Google Cloud Platform
- Microsoft Power BI
- Tableau
Nasze wymagania: Extensive experience in presales, solution architecture, or consulting, with a focus on Data/AI technologies and related business use cases Strong technical knowledge of data platforms (e.g., Databricks, Snowflake, AWS/Azure/GCP Data Services), ETL processes, data modeling, BI tools, and data visualization frameworks (e.g., Power BI, Tableau) Familiarity with data science techniques and proficiency in analyzing client needs to align with technical solutions Excellent communication and storytelling skills—able to translate complex technical concepts into clear, client-friendly narratives Proven track record in engaging with senior stakeholders and delivering impactful presentations or pitches Experience in creating detailed proposals, RFP responses, and pricing/engagement models for data-related services or projects Understanding of strategic consulting principles and the ability to develop future-state recommendations and roadmaps for client success Strong organizational, leadership, and project scoping abilities, with a proven ability to manage complex tasks in a fast-paced environment Bachelor's or master's degree in data science, Computer Science, Business Analytics, or a related field (or equivalent professional experience) Excellent English communication skills, with the ability to clearly and effectively explain technical concepts to diverse audiences O projekcie: We are seeking a highly motivated and experienced Presales Solution Consultant to join our growing Data & AI practice. This role bridges technology with business value, helping clients harness the power of data to drive transformative business results. You will play a pivotal role in crafting innovative data solutions, supporting sales efforts, and delivering exceptional value to our clients through strategic consulting and technical expertise. The ideal candidate combines technical prowess with strong consulting and interpersonal skills, thrives in dynamic environments, and can align client requirements with modern data and analytics capabilities. This is an exciting opportunity to work with cutting-edge technologies and make a tangible impact across global industries. Zakres obowiązków: Work closely with sales, delivery, and expert teams to align client needs with data-driven solutions, effectively connecting business challenges to our offerings Own the end-to-end presales process, including opportunity qualification, solution design, proposal development, demos, and client presentations Lead workshops and meetings with clients to gather business objectives and technical requirements, ensuring alignment between client goals and our solutions Architect tailored data solutions, encompassing cloud-native platforms, data integration, advanced analytics, and AI/ML models, to provide actionable business insights Develop competitive proposals, pricing models, and value propositions to successfully close opportunities and secure engagements Stay updated on emerging trends in Data & Analytics, Cloud, and AI, providing strategic advice to clients and supporting innovation within the practice Contribute to the development of reusable solution frameworks, accelerators, and methodologies to drive operational efficiency Act as a mentor and knowledge-sharer across the team, supporting skill-building and best practice dissemination Oferujemy: Engineering community of industry professionals Friendly team and enjoyable working environment Flexible schedule and opportunity to work remotely within Poland Chance to work abroad for up to 60 days annually Business-driven relocation opportunities Outstanding career roadmap Leadership development, career advising, soft skills, and well-being programs Certification (GCP, Azure, AWS) Unlimited access to LinkedIn Learning, Get Abstract, Cloud Guru English language classes Stable income (Employment Contract or B2B) Participation in the Employee Stock Purchase Plan Benefits package (health insurance, multisport, shopping vouchers) Strategically located offices featuring entertainment and relaxation zones, table tennis and football, free snacks, fantastic coffee, and more Referral bonuses Corporate, social and well-being events
PL/SQL Developer (f/m/x)
Sii Sp. z o.o.
⚲ Białystok, Centrum, Bydgoszcz, Gdańsk, Oliwa, Katowice, Kraków, Podgórze, Lublin, Łódź, Śródmieście, Piła, Poznań, Wilda, Rzeszów, Szczecin, Toruń, Warszawa, Mokotów, Wrocław, Fabryczna
Wymagania
- SQL
- BigQuery
- Python
- Google Cloud Platform
- Oracle Applications
- Git
- SAS
- Google Cloud Dataform
- Vertex AI
Nasze wymagania: At least 3 years of professional experience in mass data processing Strong proficiency in SQL, with hands‑on experience in BigQuery and/or Oracle Knowledge of Dataform on GCP or practical experience with similar transformation tools or a strong willingness to learn Dataform Experience with Google Cloud Platform (GCP) and Git Python skills applied in data analytics or data engineering contexts Fluent English (both spoken and written) Fluent Polish required Residing in Poland required O projekcie: We are looking for a PL/SQL Developer to join our team on a project for a globally recognized leader in the digital payments industry. In this role, you will become part of a strategic Data Transformation team within Analytics, focused on migrating data and analytics processes to the Google Cloud Platform (GCP). This role offers a unique opportunity to combine hands-on data engineering with collaboration across technical and business teams, while co-creating high engineering and data standards for the entire department and driving cloud modernization initiatives. Zakres obowiązków: Migrate existing analytics and data processes from Oracle, Python, and SAS on-prem environments to Google BigQuery, leveraging Dataform Design, develop, and maintain data pipelines and analytical solutions using BigQuery, SQL, Python, Dataform, and Vertex AI Contribute to the modernization of the Analytics Data Platform, helping to build a new, cloud native environment on GCP using modern architectural concepts and technologies Participate in department-wide standards development, quality assurance best practices, and architectural discussions; proactively propose improvements and optimizations Provide technical support to team members, collaborating closely with analytics, data engineering, and business teams to translate business needs into scalable technical solutions Oferujemy: Great Place to Work since 2015 - it’s thanks to feedback from our workers that we get this special title and constantly implement new ideas Employment stability - revenue of PLN 2.1BN, no debts, since 2006 on the market We share the profit with Workers - over PLN 76M has already been allocated for this aim since 2022 Attractive benefits package - private healthcare, benefits cafeteria platform, car discounts and more Comfortable workplace – class A offices or remote work Dozens of fascinating projects for prestigious brands from all over the world – you can change them thanks to Job Changer application PLN 1 000 000 per year for your ideas - with this amount, we support the passions and voluntary actions of our workers Investment in your growth – meetups, webinars, training platform and technology blog – you choose Fantastic atmosphere created by all Sii Power People
Oracle APEX Developer (f/m/x)
Sii Sp. z o.o.
⚲ Białystok, Centrum, Bydgoszcz, Gdańsk, Oliwa, Katowice, Kraków, Podgórze, Lublin, Łódź, Śródmieście, Piła, Poznań, Wilda, Rzeszów, Szczecin, Toruń, Warszawa, Mokotów, Wrocław, Fabryczna
Wymagania
- Apex
- PL/SQL
- Oracle Databases
- Python
- Bash Shell
- Bash
- Linux
- AWS
- Google Cloud Platform
Nasze wymagania: Minimum 4 years of professional experience in Oracle APEX development Strong knowledge of SQL and PL/SQL Experience with scripting in Shell or Python Knowledge of Linux operating systems is an advantage Fluent English (both spoken and written) Openness to working from the Warsaw office once a month Fluent Polish required Residing in Poland required Mile widziane: Experience with cloud platforms (GCP, AWS, or similar) O projekcie: We are looking for an Oracle APEX Developer to join our team working on a project supporting ongoing business operations for a globally operating organization. The role focuses on addressing day-to-day queries and ensuring the smooth functioning of core processes. A key aspect involves actively contributing to the optimization and improvement of applications, with a strong emphasis on innovation and proposing effective, scalable solutions. An important part of the project is the maintenance and further development of an internal application built on Oracle APEX. Zakres obowiązków: Developing and maintaining applications using Oracle APEX Writing and optimizing SQL and PL/SQL code, automating processes using scripting languages (Shell / Python) Collaborating with technical teams on implementation and maintenance Analyzing business requirements and translating them into technical solutions Performing testing, debugging, and performance optimization Oferujemy: Great Place to Work since 2015 - it’s thanks to feedback from our workers that we get this special title and constantly implement new ideas Employment stability - revenue of PLN 2.1BN, no debts, since 2006 on the market We share the profit with Workers - over PLN 76M has already been allocated for this aim since 2022 Attractive benefits package - private healthcare, benefits cafeteria platform, car discounts and more Comfortable workplace – class A offices or remote work Dozens of fascinating projects for prestigious brands from all over the world – you can change them thanks to Job Changer application PLN 1 000 000 per year for your ideas - with this amount, we support the passions and voluntary actions of our workers Investment in your growth – meetups, webinars, training platform and technology blog – you choose Fantastic atmosphere created by all Sii Power People
ML/AI Solution Expert
TUiR WARTA S.A.
⚲ Warszawa, Wola
Nasze wymagania: Bardzo dobra znajomość Pythona oraz doświadczenie w pracy z modelami ML lub rozwiązaniami opartymi o LLM Doświadczenie w przetwarzaniu danych (analiza, przygotowanie, transformacja) oraz wykorzystywaniu ich do budowy rozwiązań AI/ML Umiejętność przekładania problemów biznesowych na rozwiązania oparte o zaawansowaną analitykę danych uczenia maszynowego i sztuczną inteligencję Umiejętność szybkiego budowania prototypów (notebooki, API, integracje) Znajomość zagadnień MLOps/DevOps (zarządzanie cyklem życia modeli, wdrożenia, monitoring, automatyzacje procesów wytwórczych, testy - w tym end-to-end, wdrożenia modeli i aplikacji, monitoring oraz autoskalowanie) Doświadczenie w pracy w środowiskach kontenerowych oraz chmurowych w projektach AI/ML Wysoka samodzielność, proaktywność oraz gotowość do ciągłego rozwoju i dzielenia się wiedzą – również umiejętność pracy w podejściu eksperymentalnym Wykształcenie wyższe (informatyka lub kierunki pokrewne – techniczne, matematyczne, statystyczne) Mile widziane: Doświadczenie w sektorze ubezpieczeniowym lub finansowym O projekcie: Poszukujemy Eksperta/ki AI, który/a będzie wspierać organizację w realizacji inicjatyw z obszaru sztucznej inteligencji – od identyfikacji pomysłów, przez budowę proof of concept aż po rekomendację dalszych działań. To rola dla osoby, która potrafi łączyć świat biznesu i technologii oraz szybko weryfikować, czy dane rozwiązanie AI ma sens i wartość. Dołącz do naszego zespołu jako Ekspert/ka AI/ML i twórz innowacyjne rozwiązania, które realnie wpływają na biznes. Zakres obowiązków: Współpraca z biznesem i zespołami IT w identyfikacji oraz doprecyzowaniu use case’ów AI Wsparcie w szybkim weryfikowaniu hipotez biznesowych z wykorzystaniem AI poprzez budowę PoC i w wypracowywaniu rekomendacji Projektowanie koncepcji rozwiązań AI (dobór technologii, podejście do danych, architektura) Szybkie prototypowanie rozwiązań (Python, modele ML/LLM, integracje API) Ocena wykonalności, ryzyk oraz potencjalnej wartości biznesowej Rekomendowanie kierunków dalszego rozwoju (wdrożenie, rezygnacja) Współpraca z zespołami Data Science, DevOps oraz architektami przy przejściu z PoC do produkcji Utrzymanie i rozwój komponentów wspierających rozwiązania AI/ML Monitorowanie działania modeli oraz optymalizacja ich jakości i stabilnosci Konfiguracja i rozwój narzędzi Dev Ops / ML Ops (np. MLflow, Kubeflow), Automatyzacja czynności i procesów wchodących w skład CI/CD (Jenkins, Argo CD) Utrzymywanie i rozbudowa istniejącej bazy kodu w języku Python Poszukujemy Eksperta/ki AI, który/a będzie wspierać organizację w realizacji inicjatyw z obszaru sztucznej inteligencji – od identyfikacji pomysłów, przez budowę proof of concept aż po rekomendację dalszych działań. To rola dla osoby, która potrafi łączyć świat biznesu i technologii oraz szybko weryfikować, czy dane rozwiązanie AI ma sens i wartość. Oferujemy: pracę w stabilnej organizacji będącej częścią jednej z największych międzynarodowych grup ubezpieczeniowo-finansowych pracę w modelu hybrydowym: min. 1 dzień w tygodniu z biura w Warszawie prócz wynagrodzenia podstawowego – premię roczną dostęp do platformy benefitowej (m.in. karnet sportowy, opieka medyczna, dofinansowania do wypoczynku, rabaty i wiele innych) platformę wellbeingową (webinary, podcasty, czat ze specjalistami itp.) możliwość dołączenia do ubezpieczenia grupowego zniżki na produkty ubezpieczeniowe Warty różnorodne szkolenia wewnętrzne (online) garaż rowerowy
Database Developer (PostgreSQL)
Scalo
⚲ Warszawa, Wrocław, Poznań
20 160 - 21 840 PLN (B2B)
Wymagania
- PostgreSQL
- Kafka (nice to have)
- Python (nice to have)
- Go (nice to have)
- Java (nice to have)
- Citus (nice to have)
O projekcie: Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Co dla Ciebie mamy: - Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt - Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych - Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób - Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort - Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci - Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Wymagania: Ta oferta jest dla Ciebie, jeśli: - posiadasz głęboką, praktyczną znajomość PostgreSQL (wersje 14–17+), - pracujesz z: 1. Replikacją logiczną: – swobodnym projektowaniem i wdrażaniem replikacji logicznej (publication/subscription), – rozwiązywaniem konfliktów, zarządzaniem dużymi zmianami (large objects, DDL), transformacjami kolumn, – migracjami zero-downtime z użyciem logical replication. 2. Postgres_fdw: – zaawansowanym użyciem postgres_fdw w scenariuszach distributed queries, shardingu, data federation, – optymalizacją pushdown (aggregations, joins, WHERE), partition-wise joins przez FDW, – rozwiązywaniem problemów z transakcjami rozproszonymi i wydajnością. 3. Partycjonowaniem deklaratywnym: – projektowaniem i utrzymaniem dużych tabel partycjonowanych (range, list, hash, subpartitioning), – partition pruning, partition-wise join/aggregate, attach/detach w produkcji, – strategiami migracji istniejących tabel na partycjonowane bez downtime’u. 4. Posiadasz wiedzę ekspercką z obszaru indeksów, – mile widzimy doświadczenie z: HA (Patroni/pg_auto_failover), Kafka, Python/Go/Java, Citus. Codzienne zadania: - projekt dotyczący rozproszonej platformy danych, opartej o PostgreSQL, obsługującej kluczowe systemy o wysokiej dostępności. Systemy działają bez okien serwisowych, wymagają federacji danych, migracji bez przestojów oraz optymalizacji przetwarzania na dużą skalę, - projektowanie i wdrażanie replikacji logicznej (publication/subscription) oraz migracji zerodowntime, - zaawansowana praca z PostgreSQL: distributed queries, sharding, data federation, optymalizacja pushdown, - projektowanie i utrzymanie partycjonowania (range/list/hash), procesy attach/detach w produkcji, migracje na partycjonowane struktury, - optymalizacja wydajności: indeksy (Btree, GIN, GiST, BRIN), analiza planów zapytań, tuning SQL, - rozwiązywanie problemów transakcji rozproszonych i wydajności międzyserwisowej, - projektowanie architektury wysokiej dostępności oraz wsparcie zespołów backendowych, - praca zdalna i 2 x w miesiącu z jednego z biur w: Warszawie, Wrocławiu lub Poznaniu, - stawka do 130 zł/h przy B2B.
Database Developer (PostgreSQL)
Scalo Sp. z o.o.
⚲ Warszawa
130 zł netto (+ VAT) / godz.
Wymagania
- PostgreSQL
- Kafka
- Python
- Go
- Java
- Citus
Nasze wymagania: posiadasz głęboką, praktyczną znajomość PostgreSQL (wersje 14–17+), pracujesz z: 1. Replikacją logiczną: – swobodnym projektowaniem i wdrażaniem replikacji logicznej (publication/subscription), – rozwiązywaniem konfliktów, zarządzaniem dużymi zmianami (large objects, DDL), transformacjami kolumn, – migracjami zero-downtime z użyciem logical replication. 2. Postgres_fdw: – zaawansowanym użyciem postgres_fdw w scenariuszach distributed queries, shardingu, data federation, – optymalizacją pushdown (aggregations, joins, WHERE), partition-wise joins przez FDW, – rozwiązywaniem problemów z transakcjami rozproszonymi i wydajnością. 3. Partycjonowaniem deklaratywnym: – projektowaniem i utrzymaniem dużych tabel partycjonowanych (range, list, hash, subpartitioning), – partition pruning, partition-wise join/aggregate, attach/detach w produkcji, – strategiami migracji istniejących tabel na partycjonowane bez downtime’u. 4. Posiadasz wiedzę ekspercką z obszaru indeksów, – mile widzimy doświadczenie z: HA (Patroni/pg_auto_failover), Kafka, Python/Go/Java, Citus. O projekcie: W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom. Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie. Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Zakres obowiązków: projekt dotyczący rozproszonej platformy danych, opartej o PostgreSQL, obsługującej kluczowe systemy o wysokiej dostępności. Systemy działają bez okien serwisowych, wymagają federacji danych, migracji bez przestojów oraz optymalizacji przetwarzania na dużą skalę, projektowanie i wdrażanie replikacji logicznej (publication/subscription) oraz migracji zerodowntime, zaawansowana praca z PostgreSQL: distributed queries, sharding, data federation, optymalizacja pushdown, projektowanie i utrzymanie partycjonowania (range/list/hash), procesy attach/detach w produkcji, migracje na partycjonowane struktury, optymalizacja wydajności: indeksy (Btree, GIN, GiST, BRIN), analiza planów zapytań, tuning SQL, rozwiązywanie problemów transakcji rozproszonych i wydajności międzyserwisowej, projektowanie architektury wysokiej dostępności oraz wsparcie zespołów backendowych, praca zdalna i 2 x w miesiącu z jednego z biur w: Warszawie, Wrocławiu lub Poznaniu, stawka do 130 zł/h przy B2B. Oferujemy: stabilną współpracę i różnorodne projekty (Software, Embedded, Data, Cloud Services), możliwość rozwoju kompetencji jako Ambasador Scalo - doskonal skille techniczne i presalesowe w społeczności naszych ekspertów, wpływaj na rozwój organizacji, wspieraj innych, przestrzeń do budowania marki osobistej - twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako prelegent na wydarzeniach (np. ProMeet), prywatną opiekę medyczną - Luxmed, kafeteryjny system benefitów - Motivizer, dostęp do karty Multisport, program poleceń pracowniczych z nagrodami, integracje i wydarzenia firmowe.
Data Scientist, gTech Ads
⚲ Warszawa, Śródmieście
Wymagania
- Python
- SQL
Nasze wymagania: Bachelor's degree in Statistics, Data Science, Mathematics, Physics, Economics, Operations Research, Engineering, or a related quantitative field. 1 year of experience in a data science field. Mile widziane: 2 years of experience using Python, SQL to solve messy, open-ended business problems. Experience taking Machine Learning (ML) insights directly to customers or stakeholders including initial problem scoping and model selection to interpretation and driving business action. Understanding of statistical models and their application in a commercial context. Understanding of statistical algorithms typically used in marketing analytics e.g. experimentation (A/B testing), causal inference, and attribution modeling. O projekcie: gTech Ads is responsible for all support and media and technical services for customers big and small across our entire Ad products stack. We help our customers get the most out of our Ad and Publisher products and guide them when they need help. We provide a range of services from enabling better self help and in-product support, to providing better support through interactions, setting up accounts and implementing ad campaigns, and providing media solutions for customers business and marketing needs and providing complex technical and measurement solutions along with consultative support for our large customers. These solutions range from bespoke and customized ones for our customers to scalable support for millions of customers worldwide. Based on the evolving needs of our ads customers, we partner with Sales, Product and Engineering teams within Google to develop better solutions, tools, and services to improve our products and enhance our client experience. As a cross-functional and global team, we ensure our customers get the best return on investment with Google and we remain a trusted partner. In this role, you will be responsible for applying best data science practices to solve our advertising customers marketing issues. You will be passionate about bringing the best of Google’s Machine learning (ML) capabilities to build solutions that address our customer's problem-space.You will be responsible for executing on gTech’s strategy and goal to deliver applied data science to Google's largest Ads customers.Google Ads is helping power the open internet with the best technology that connects and creates value for people, publishers, advertisers, and Google. We’re made up of multiple teams, building Google’s Advertising products including search, display, shopping, travel and video advertising, as well as analytics. Our teams create trusted experiences between people and businesses with useful ads. We help grow businesses of all sizes from small businesses, to large brands, to YouTube creators, with effective advertiser tools that deliver measurable results. We also enable Google to engage with customers at scale. Zakres obowiązków: Collaborate with internal and external stakeholders to unpack their issues and identify the best statistical techniques that can solve the issue; collaborate with colleagues on the development of end-to-end modeling framework. Own the full data science lifecycle from raw data extraction and model development to delivering the final solution. Ensure the technical excellence of the math and the business relevance of the output. Transform model results into "so-what" insights. Co-present findings to clients and work alongside them to ensure recommendations are integrated into their actual business processes. Contribute to the development of standardized, scalable modeling frameworks. Collaborate with DS peers to ensure our solutions aren't just one-offs, but can be scaled across multiple client engagements.
Data Engineer with GCP (f/m/x)
Sii Sp. z o.o.
⚲ Białystok, Centrum, Bydgoszcz, Gdańsk, Oliwa, Katowice, Kraków, Podgórze, Lublin, Łódź, Śródmieście, Piła, Poznań, Wilda, Rzeszów, Szczecin, Toruń, Warszawa, Mokotów, Wrocław, Fabryczna
Wymagania
- Python
- Java
- Apache Spark
- BigQuery
- Apache Beam
- Apache Airflow
- Google Cloud Platform
- Cloudera
- Hadoop
Nasze wymagania: Minimum 5 lat komercyjnego doświadczenia na stanowisku Data Engineer lub podobnym Bardzo dobra znajomość Google Cloud Platform, w szczególności Dataproc, Dataflow, BigQuery oraz Cloud Composer Wcześniejsza praca w projektach migracyjnych Doskonała znajomość Python - ETL, pipeline’y danych, automatyzacja Dobra znajomość Java, szczególnie w kontekście przetwarzania danych - Spark, Beam, batch/streaming Doświadczenie w projektowaniu i realizacji złożonych pipeline’ów danych w środowiskach produkcyjnych Praktyczna znajomość narzędzi orkiestracji, automatyzacji i CI/CD (np. Airflow, Git, Terraform) Umiejętność architektowania rozwiązań danych w GCP z uwzględnieniem bezpieczeństwa, data governance i kontroli dostępu Bardzo dobra znajomość języka angielskiego Samodzielność w podejmowaniu decyzji technicznych oraz umiejętność pracy zespołowej Wymagane przebywanie na terenie Polski oraz płynna znajomość języka polskiego Mile widziane: Doświadczenie w pracy z Cloudera lub podobnymi platformami Hadoop O projekcie: Dołącz do międzynarodowego projektu realizowanego w obszarze platform danych i rozwiązań AI, którego celem jest migracja środowiska danych z infrastruktury on-premise do Google Cloud Platform. Projekt obejmuje transformację istniejącej platformy opartej o technologie Hadoop do nowoczesnej, chmurowej architektury danych. Zakres obowiązków: Udział w migracji platformy danych z środowiska on-premise do Google Cloud Platform Analiza istniejących rozwiązań legacy oraz rekomendowanie docelowej architektury danych w chmurze Projektowanie i implementacja pipeline’ów danych (batch i streaming) w środowisku produkcyjnym Praca z usługami GCP, w szczególności Dataproc, Dataflow, BigQuery, Cloud Composer Automatyzacja procesów przetwarzania danych oraz orkiestracja workflow Współpraca z zespołami międzynarodowymi oraz zewnętrznym partnerem technologicznym Udział w warsztatach technicznych, przeglądach architektury i pracach koncepcyjnych Zapewnienie skalowalności, bezpieczeństwa oraz efektywności kosztowej rozwiązań Oferujemy: Tytuł Great Place to Work od 2015 roku - to dzięki opiniom pracowników otrzymujemy tytuł i wdrażamy nowe pomysły Stabilność zatrudnienia – 2,1 MLD PLN przychodu, brak długów, od 2006 roku na rynku Dzielimy się zyskiem z pracownikami - od 2022 roku przeznaczyliśmy na ten cel już ponad 76 milionów PLN Bogaty pakiet benefitów - prywatna opieka zdrowotna, platforma kafeteryjna, zniżki na samochody i więcej Komfortowe miejsce pracy - pracuj w naszych biurach klasy A lub zdalnie Dziesiątki fascynujących projektów dla prestiżowych marek z całego świata – możesz je zmieniać dzięki aplikacji Job Changer 1 000 000 PLN rocznie na Twoje pomysły - taką kwotą wspieramy pasje i akcje wolontariackie naszych pracowników Stawiamy na Twój rozwój - meetupy, webinary, platforma szkoleniowa i blog technologiczny – Ty wybierasz Fantastyczna atmosfera stworzona przez wszystkich Sii Power People
Data Engineer (GCP)
Capgemini Polska
⚲ Gdańsk, Katowice, Kraków, Lublin, Opole, Poznań, Warszawa, Wrocław
Wymagania
- SQL
- GCP
- Spark
Nasze wymagania: 3+ years of experience in data engineering Strong knowledge of data engineering tools and technologies, including SQL, and GCP Experience with big data processing frameworks, such as Spark or Hadoop Experience with data warehousing solutions : BigQuery, GCP, Dataform and Composer Strong data security and privacy knowledge and experience Experience with agile development methodologies is a plus O projekcie: You will be responsible for designing, building, and maintaining our data infrastructure, ensuring data quality, and enabling data-driven decision-making across the organization. Zakres obowiązków: Design, build, and maintain our data infrastructure, including data pipelines, warehouses, and databases Ensure data quality and integrity by implementing data validation, testing, and monitoring processes Collaborate with cross-functional teams to understand data needs and translate them into technical requirements Develop and implement data security and privacy policies and procedures Optimize data processing and storage performance, ensuring scalability and reliability Stay up-to-date with the latest data engineering trends and technologies Oferujemy: Practical benefits: private medical care with Medicover with additional packages (e.g., dental, senior care, oncology) available on preferential terms, life insurance and 40+ options on our NAIS benefit platform, including Netflix, Spotify or Multisport. Access to over 70 training tracks with certification opportunities (e.g., GenAI, Excel, Business Analysis, Project Management) on our NEXT platform. Dive into a world of knowledge with free access to Education First languages platform, Pluralsight, TED Talks, Coursera and Udemy Business materials and trainings. Award-Winning Stability & Culture: Become part of an organization celebrated as "Top Employer Poland 2024" - in the audit our stable and supportive work environment scored 100%!
Data Analytics Manager / Data Governance Lead
Edge One Solutions Sp. z o.o.
⚲ Warszawa
Wymagania
- Google Cloud Platform
- SQL
- Microsoft Power BI
- Looker
Nasze wymagania: Wykształcenie wyższe, najlepiej na kierunkach ilościowych, analitycznych lub informatycznych Minimum 5 lat doświadczenia w analityce danych, mile widziane w branży retail lub consultingu Co najmniej 3 lata doświadczenia w zarządzaniu zespołem Bardzo dobrze znajomość środowisko GCP, w szczególności BigQuery i Airflow, a także SQL oraz narzędzia BI, takie jak Power BI i/lub Looker Praktyczna wiedza z zakresu data wrangling, modelowania danych, budowy pipeline’ów oraz statystyki Skuteczne przekładanie potrzeb biznesowych na rozwiązania techniczne i swobodnie komunikowanie się z kadrą zarządzającą Znajomość języka angielskiego na poziomie minimum B2/C1 O projekcie: Nasz Klient to firma z branży handlowej, działająca w sektorze materiałów budowlanych i remontowych. Specjalizuje się w sprzedaży produktów przeznaczonych do budowy, wykończenia oraz modernizacji wnętrz. Swoją ofertę kieruje zarówno do klientów indywidualnych, jak i do profesjonalistów związanych z branżą budowlaną. Tryb pracy Praca hybrydowa (biuro Klienta w Warszawie) Zakres obowiązków: Zarządzanie zespołem oraz projektami analitycznymi, w tym prowadzenie warsztatów służących zbieraniu wymagań biznesowych Implementacja reguł i wytycznych grupy w zakresie Data Governance oraz aktywna współpraca regionalna w celu budowania spójnej strategii danych Tworzenie, rozwijanie i utrzymywanie skalowalnych raportów oraz dashboardów w narzędziach Power BI i/lub Looker Nadzór nad jakością danych, procesami MDM (Master Data Management) oraz logiką raportowania Integracja danych z obszarów HR, Finansów, Zakupów, Marketingu i Logistyki w celu dostarczania strategicznych insightów biznesowych Współpraca z interesariuszami biznesowymi oraz kadrą zarządzającą w zakresie przekładania potrzeb biznesowych na efektywne rozwiązania analityczne i technologiczne Oferujemy: Indywidualne wsparcie Service Delivery Managera, który pomoże Ci zaplanować ścieżkę kariery i zadba o komfort w projekcie Szkolenia, certyfikaty i konferencje - dofinansowujemy lub w pełni pokrywamy koszty rozwoju kompetencji technicznych SmartChange – umożliwiamy zmianę projektu i dobieramy kolejny zgodnie z Twoimi preferencjami Nie tylko praca – wyjścia, sport i nasze webinary #edge1talks Aktywność fizyczna – wspieramy sportowe inicjatywy i wynajem sal treningowych Pakiet zdrowotny – prywatna opieka, karta sportowa, ubezpieczenie i wsparcie psychologiczne (HearMe) Elastyczne benefity – sam decydujesz, na co przeznaczasz punkty w naszym systemie benefitowym Bezpłatne lekcje języka angielskiego – dopasowane do Twojego poziomu, idealne do pracy w międzynarodowym środowisku
Celonis Specialist
Link Group
⚲ Remote
20 160 - 28 560 PLN (B2B)
Wymagania
- SQL
- PQL
- O2C
- P2P
- ERP
- SAP
- Data structures
- Jira
- Kanban
- ETL
- BI
- Power BI
O projekcie: As a Celonis Specialist, you will act as a "Process Detective," bridging the gap between raw data and operational excellence. You will leverage the Celonis EMS (Execution Management System) to visualize, analyze, and optimize complex business processes. Your mission is to uncover hidden inefficiencies, reduce manual rework, and drive significant cost savings by providing a transparent, data-driven view of how the company actually operates. Wymagania: - Technical Proficiency: Strong expertise in SQL and PQL (Process Query Language). Experience with data transformation (ETL) and BI tools like Power BI or Tableau is a plus. - Process Knowledge: Deep understanding of core business cycles, such as Order-to-Cash (O2C), Purchase-to-Pay (P2P), or Accounts Payable. - Platform Experience: Hands-on experience with the Celonis EMS platform (Studio, Analysis, Data Integration). - System Awareness: Familiarity with major ERP landscapes, particularly SAP (tables and data structures). - Analytical Mindset: Ability to navigate complex datasets, identify root causes, and communicate technical findings to non-technical audiences. - Agile Approach: Experience working in fast-paced, iterative environments (Jira, Scrum/Kanban). Codzienne zadania: - Data Engineering & Ingestion: Connect Celonis to source systems (SAP, Oracle, Salesforce) and use SQL/PQL to transform raw event logs into actionable process maps. - Process Analytics: Build and maintain interactive dashboards to track KPIs, identify bottlenecks, and perform conformance checking to spot deviations from standard procedures. - Optimization & Value Discovery: Quantify the financial impact of process inefficiencies (e.g., revenue leakage, late payments) and present findings to senior stakeholders. - Automation Deployment: Configure the Celonis Action Engine to trigger real-time alerts and automated workflows that correct process errors before they impact the business. - Stakeholder Collaboration: Partner with Department Leads (P2P, O2C, Supply Chain) to translate analytical insights into strategic process improvement initiatives.
Azure Data Engineer
Capgemini Polska
⚲ Gdańsk, Kraków, Poznań, Warszawa, Wrocław
Wymagania
- Azure
Nasze wymagania: Strong experience in data engineering, including working with Azure Strong Python for data processing and automation. Hands-on experience with one of the following: Databricks, Snowflake, or Microsoft Fabric. Strong communication skills and very good English language skills. Mile widziane: Strong SQL skills and experience with database optimization. Knowledge of DevOps practices, CI/CD pipelines, and Infrastructure as Code (IaC) tools (Terraform, Bicep). Familiarity with key Azure services: Data Lake, Event Hub, Data Factory, Synapse Analytics, Azure Functions. Exposure to containerization (Docker, Kubernetes) and cloud security best practices. Experience in real-time data processing and streaming technologies like Kafka or Spark Streaming. Hands-on experience with PySpark. Certifications such as DP-900, DP-203, AZ-204, or AZ-400. O projekcie: YOUR TEAM Insights & Data is a dynamic team of over 400 professionals delivering cutting-edge data solutions. We specialize in Cloud & Big Data engineering, building scalable systems for complex datasets across AWS, Azure, and GCP. Our expertise spans the full Software Development Life Cycle (SDLC), utilizing modern data processing tools, advanced programming techniques, and DevOps best practices to create impactful solutions. Come on Board! Zakres obowiązków: Design and implement Azure-based data solutions for large-scale and unstructured datasets. Develop and optimize data pipelines using Azure Data Factory, Databricks, or Snowflake. Collaborate with solution architects to define and implement best practices in data engineering. Ensure data quality, scalability, and security across all Azure-based solutions. Oferujemy: Practical benefits: permanent employment contract from the first day; hybrid, flexible working model; equipment package for home office; private medical care with Medicover; life insurance; Capgemini Helpline; NAIS benefit platform; Access to 70+ training tracks with certification opportunities; platform with free access to Pluralsight, TED Talks, Coursera, Udemy Business and SAP Learning HUB Community Hub that will allow you to choose from over 20 professional communities that gather people interested in, among others: Salesforce, Java, Could, IoT, Agile, AI.
AWS Data Engineer
Capgemini Polska
⚲ Gdańsk, Oliwa, Kraków, Grzegórzki
Wymagania
- AWS
- Glue
- Redshift
- Lambda
- Athena
- S3
- Snowflake
- Docker
- Terraform
- CloudFormation
- Kafka
- Airflow
- Spark
- Python
- Scala
- Java
- Bash
- Spark Streaming
Nasze wymagania: Proven experience in Big Data or Cloud projects involving processing and visualization of large and unstructured datasets, across various phases of the SDLC. Hands-on experience with the AWS cloud, including Storage, Compute (and Serverless), Networking, and DevOps services. Solid understanding of AWS services, ideally supported by relevant certifications. Familiarity with several of the following technologies: Glue, Redshift, Lambda, Athena, S3, Snowflake, Docker, Terraform, CloudFormation, Kafka, Airflow, Spark. Basic proficiency in at least one of the following programming languages: Python, Scala, Java, or Bash. Very good command of English (German language skills would be an advantage). Mile widziane: Experience with orchestration tools (e.g., Airflow, Prefect). Exposure to CI/CD pipelines and DevOps practices. Knowledge of streaming technologies (e.g., Kafka, Spark Streaming). Experience working with Snowflake or Databricks in a production or development environment. Relevant certifications in AWS, data engineering, or big data technologies. O projekcie: Choosing Capgemini means choosing a company where you will be empowered to shape your career in the way you’d like, where you’ll be supported and inspired by a collaborative community of colleagues around the world, and where you’ll be able to reimagine what’s possible. Join us and help the world’s leading organizations unlock the value of technology and build a more sustainable, more inclusive world. YOUR ROLE Join our Insights & Data team, a community of over 400 professionals delivering impactful, data-driven solutions. We specialize in building scalable cloud-native data architectures and pipelines that power analytics and machine learning across various industries. Our work spans the full Software Development Life Cycle (SDLC), using modern data frameworks, agile practices, and DevOps principles. Zakres obowiązków: Design and implement solutions for processing large-scale and unstructured datasets (Data Mesh, Data Lake, or Streaming Architectures). Develop, optimize, and test modern DWH/Big Data solutions based on the AWS cloud platform within CI/CD environments. Improve data processing efficiency and support migrations from on-premises systems to public cloud platforms. Collaborate with data architects and analysts to deliver high-quality cloud-based data solutions. Ensure data quality, consistency, and performance across AWS services and environments. Participate in code reviews and contribute to technical improvements. Oferujemy: Practical benefits: yearly financial bonus, private medical care with Medicover with additional packages (e.g., dental, senior care, oncology) available on preferential terms, life insurance and access to NAIS benefit platform. Access to over 70 training tracks with certification opportunities (e.g., GenAI, Excel, Business Analysis, Project Management) on our NEXT platform. Dive into a world of knowledge with free access to Education First languages platform, Pluralsight, TED Talks, Coursera and Udemy Business materials and trainings. Cutting-Edge Technology: Position yourself at the forefront of IT innovation, working with the latest technologies and platforms. Capgemini partners with top global enterprises, including 145 Fortune 500 companies. Enjoy hybrid working model that fits your life - after completing onboarding, connect work from a modern office with ergonomic work from home, thanks to home office package (including laptop, monitor, and chair). Ask your recruiter about the details.
Specjalista ds. Zapewnienia Ciągłości Dostępu do Danych (K/M/N)
Adamed Pharma S.A.
⚲ Pabianice
Wymagania
- VMware
- AWS
- Google Cloud Platform
Nasze wymagania: Min 3 letnie doświadczenie w administracji systemami backupu z rodziny produktów Veritas/Commvault, Min. roczne doświadczenie w administracji bibliotek taśmowych (preferowane urządzenia Quantum), Min 3 letnie doświadczenie w administracji systemami pamięci masowej, w tym macierze blokowe, plikowe, obiektowe. Preferowane znajomość urządzeń marek IBM/Dell/HPE/Netapp, Praktyczna znajomość SAN, w tym także administracji sieciami fabric FC, Znajomość rozwiązań i zasad budowy wysokodostępnych rozwiązań backup/storage, Znajomość rozwiązań VMware vSphere, vSAN, w zakresie backup/storage, Dobra znajomość systemów operacyjnych Linux oraz Windows, Dobra znajomość narzędzi monitoringu rozwiązań backup/storage, Umiejętność i chęć do pracy w zespole specjalistów obszarowych, Znajomość języka angielskiego na poziomie komunikatywnym w mowie i piśmie. Mile widziane: Zaawansowana znajomość Brocade SAN, w tym narzędzia SAN Network Advisor, Doświadczenie w zarządzaniu platformą chmury publicznej lub hybrydowej (MS Azure, AWS, Google Cloud). O projekcie: Utrzymujemy i rozwijamy infrastrukturę Compute, Storage i Data Protection w oparciu o wiodące i innowacyjne rozwiązania rynkowe. Zapewniamy stabilne, wydajne i bezpieczne środowiska przetwarzania danych, zgodne z oczekiwaniami biznesu i wymogami branżowymi. Jesteśmy zespołem doświadczonych specjalistów, którzy stawiają na współpracę, otwartą komunikację i wzajemne zrozumienie. Wierzymy, że najlepsze rezultaty osiąga się poprzez merytoryczną argumentację, dlatego w codziennej pracy łączymy różne perspektywy i doświadczenia, aby dostarczać optymalne rozwiązania. Naszą siłą jest kultura zaufania, partnerstwa i wspólnej odpowiedzialności, dzięki czemu skutecznie wspieramy organizację w realizacji jej celów, dostarczając nie tylko technologię, ale i realną wartość biznesową. Zakres obowiązków: Administrowanie systemami backupu oraz storage w środowisku klasy enterprise, Dbanie o zgodność infrastruktury zgodnie z najlepszymi praktykami w zakresie budowania, administracji oraz bezpieczeństwa infrastruktury, Proaktywny monitoring infrastruktury oraz zapobieganie potencjalnym awariom i przestojom, Realizacja zleceń wewnętrznych i projektowych, Nadzorowanie nad wykorzystaniem zasobów i monitoring użycia SAN, Wprowadzanie zmian, poprawek i aktualizacji bezpieczeństwa, Współpraca z zespołami IT oraz zewnętrznymi dostawcami, Nadzór i prowadzenie dokumentacji administracyjnej i technicznej. Oferujemy: Umowę o pracę bezpośrednio z Pracodawcą, Premię roczną, Bezpłatną opiekę medyczną ENEL-MED dla pracownika i jego bliskich, Kartę sportową Multisport, Platformę do nauki języków obcych, Ubezpieczenie na życie współfinansowane przez pracodawcę, Dodatkowe świąteczne świadczenia pieniężne, Program Poleceń Pracowniczych - bonus do 4 000 zł brutto za polecenie osoby do pracy w Adamed, Program usprawnień KAIZEN - bonus do 600 zł brutto za każdy wprowadzony pomysł, Dodatkowy bonus pieniężny z okazji jubileuszu pracy zawodowej, Imprezy firmowe (Festiwal Wartości, spotkania świąteczne), Pakiet Zdrowie na 5 (akcje edukacyjne i profilaktyki zdrowotnej, szczepienia, program mental health).
Software Engineer Data & AI
PRETIUS SOFTWARE SP. Z O.O.
⚲ Warszawa, Włochy
160–200 zł netto (+ VAT) / godz.
Wymagania
- AI/ML
- Kotlin
- Java
- GCP
- Terraform
- BigQuery
- Apache Airflow
- Scala
Nasze wymagania: 3+ lat doświadczenia w Software Engineering Bardzo dobra znajomość Kotlin i Java Doświadczenie w pracy z Big Data (Scala, SQL, BigQuery) Praktyka z MongoDB oraz modelowaniem danych Doświadczenie z Apache Airflow / Cloud Composer Znajomość GCP i Terraform (IaC) Znajomość Python/Scala w analizie danych (np. Spark) Podstawowe doświadczenie z Vertex AI i cyklem życia ML Dobre rozumienie statystyki i procesów biznesowych Umiejętność komunikacji wyników analiz osobom nietechnicznym Znajomość języka angielskiego na poziomie min. B2 O projekcie: W Pretius poszukujemy Software Engineer Data & AI do rozwoju popularnej platformy eCommerce. Zakres obowiązków: Realizacja zadań w podziale 60% Software Engineering - rozwój aplikacji, 40% Data Science & Analytics - eksploracja danych, procesy AI/ML i prowadzenie eksperymentów analitycznych Rozwój i utrzymanie usług backendowych (Kotlin/Java) Przetwarzanie danych i Big Data (Scala, BigQuery) Projektowanie i utrzymanie potoków danych (Apache Airflow, Cloud Composer) Praca z infrastrukturą w GCP oraz automatyzacja zasobów (Terraform) Przygotowanie danych (data wrangling, feature engineering) Wsparcie trenowania i wdrażania modeli ML (Vertex AI) Analiza danych, testy A/B, wizualizacja i data storytelling Oferujemy: Stawiamy na długofalowe relacje oparte na uczciwych zasadach i rzetelności Dofinansowanie karty sportowej Multisport i opieki zdrowotnej Medicover Możliwość pracy w nowoczesnym biurze Imprezy integracyjne, szkolenia wewnętrzne, konferencje, certyfikacje
Senior SQL Server DBA
IN4GE sp. z o.o.
⚲ Kraków, Wrocław
160–200 zł netto (+ VAT) / godz.
Wymagania
- Microsoft SQL Server
- Microsoft Azure
- Azure SQL
Nasze wymagania: Doświadczenie w roli SQL Server DBA w środowiskach produkcyjnych. Bardzo dobra znajomość Microsoft SQL Server (MSSQL). Doświadczenie w pracy z Microsoft Azure (Azure SQL / SQL Server na Azure). Znajomość zagadnień performance tuning, monitoring, backup & recovery. Mile widziane: Certyfikaty Microsoft z obszaru Azure / SQL będą dodatkowym atutem. O projekcie: Dla naszego Klienta poszukujemy doświadczonej osoby w roli Senior SQL Server DBA, która wesprze zespół w projektach związanych z utrzymaniem i rozwojem środowisk bazodanowych opartych o Microsoft SQL Server w chmurze Azure. Rola obejmuje współpracę przy zapewnianiu stabilności, wydajności oraz bezpieczeństwa infrastruktury danych w środowisku enterprise. Zakres obowiązków: Administracja i utrzymanie baz danych Microsoft SQL Server (MSSQL). Monitorowanie wydajności oraz optymalizacja zapytań SQL. Zarządzanie backupem, recovery oraz dostępnością (HA/DR) środowisk bazodanowych. Wsparcie w projektach związanych z migracją i utrzymaniem baz w Azure. Współpraca z zespołami infrastruktury oraz developmentu przy rozwiązywaniu problemów produkcyjnych. Oferujemy: Współpracę B2B. Współpracę w modelu hybrydowym, około 2 dni w tygodniu z biura (Wrocław lub Kraków). Długofalowy projekt w międzynarodowym środowisku.
Senior Machine Learning / Data Engineer
IT SQUAD SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Warszawa, Wola
Wymagania
- Microsoft Azure
- AWS
- Large Language Models
- SQL
- NoSQL
- ETL
- ELT
- Google Cloud Platform
Nasze wymagania: Solidne doświadczenie jako Data Engineer lub ML Engineer (preferowane ok. 5-8 lat) Praktyczna wiedza w zakresie pracy z modelami LLM i ich integracji w przepływy danych Silne umiejętności w projektowaniu architektury backendowej i procesów przetwarzania danych Umiejętność pracy w warunkach niepewności (ambiguity), samodzielność w podejmowaniu decyzji projektowych oraz nastawienie na innowacje Doświadczenie w projektowaniu potoków danych (ETL/ELT) oraz biegłość w pracy z bazami SQL/NoSQL Bardzo dobra znajomość języka polskiego i angielskiego (praca z klientem) Mile widziane: Znajomość specyfiki kosztorysowania lub doświadczenie w projektach związanych z infrastrukturą Data Center Doświadczenie w tworzeniu modeli predykcyjnych opartych na parametrach technicznych Praktyczna znajomość rozwiązań chmurowych (Azure/AWS/GCP) w kontekście wdrażania prototypów ML Zakres obowiązków: Aktywne wsparcie w budowie i ewolucji innowacyjnego narzędzia do wyceny oraz tworzenia kosztorysów Dalszy rozwój bazowego modelu danych wspierającego rozwiązania kosztorysowe w branży technologicznej Adaptacja narzędzi do mapowania schematów danych opartych na dużych modelach językowych (LLM) do nowych kontekstów domenowych Prototypowanie i testowanie procesów wspierających wersjonowanie kosztorysów, predykcję parametryczną oraz analitykę porównawczą kosztów Kształtowanie wyłaniającej się architektury produktu, z naciskiem na elastyczność i innowacyjność (faza prototypu, nie utrzymanie produkcji) Ścisła współpraca z klientem oraz zespołem w celu przekładania złożonej logiki kosztorysowej na wydajne rozwiązania techniczne Oferujemy: Pracę przy projektach klienckich i produktach własnych Realny wpływ na rozwiązania biznesowe i technologiczne w ramach realizowanych projektów Eventy firmowe, dostęp do usług medycznych oraz pakietów sportowych Zatrudnienie na umowę B2B Pracę w trybie 100% zdalnym Proces rekrutacyjny składający się z rozmowy HR oraz dwóch rozmów technicznych
Senior Kafka Platform Engineer – Cloud and Kubernetes
ITDS Polska Sp. z o.o.
⚲ Kraków
20 160–26 880 zł / mies. (zal. od umowy)
Wymagania
- Kafka
- Jira
- Jenkins
- Ansible
- Puppet
- Prometheus
- Grafana
- AWS
- Microsoft Azure
- Google Cloud Platform
Nasze wymagania: At least 5 years of experience working with Kafka and streaming data technologies. Strong understanding of Kafka architecture and operational best practices. Hands-on experience with Kafka in Kubernetes environments. Proficiency in DevOps tools such as GitHub, JIRA, Jenkins, and automation platforms like Ansible or Puppet. Experience with observability tools like DataDog, Prometheus, Grafana, and monitoring of distributed systems. Solid problem-solving and analytical skills, with the ability to communicate complex technical concepts effectively to engineers and stakeholders. Mile widziane: Experience with Confluent Kafka ecosystem. Knowledge of cloud platforms such as AWS, Azure, or GCP. Certifications in Kafka or cloud technologies. O projekcie: As a Senior Kafka Platform Engineer, you will be working for our client, a leading financial services organization committed to operational excellence and technological innovation. In this role, you'll enhance and maintain the Kafka clusters operating within a Kubernetes environment, ensuring seamless data streaming and system reliability that empowers digital transformation across the enterprise. Ignite the future of real-time data - elevate Kafka infrastructure in a cloud-native environment! Krakow-based opportunity with hybrid work model (up to 3 days remote per week). Only candidates with an existing legal right to work in the European Union will be considered for this role. Zakres obowiązków: Provide expert-level support in Kafka brokers, Zookeepers, Kafka Connect, Schema Registry, KSQL, Rest proxy, and Kafka Control Center. Manage high-volume Kafka Connect deployments utilizing schema registry, ensuring optimal performance and uptime. Administer Kafka platforms, including provisioning, access control, Kerberos, and SSL configurations. Develop and maintain Kafka connectors such as MQ, Elasticsearch, JDBC, File Stream, and JMS, along with custom connectors using Kafka core APIs. Create topics, set up redundancy clusters, deploy monitoring tools, configure alerts, and develop stubs for producers, consumers, and consumer groups to onboard applications across various languages and platforms. Perform root cause analysis of production incidents, documenting findings, and implementing proactive measures to improve system robustness. Automate routine tasks with scripts or automation tools; conduct benchmarking, performance tuning, and capacity planning. Oferujemy: Stable and long-term cooperation with very good conditions Enhance your skills and develop your expertise in the financial industry Work on the most strategic projects available in the market Define your career roadmap and develop yourself in the best and fastest possible way by delivering strategic projects for different clients of ITDS over several years Participate in Social Events, training, and work in an international environment Access to attractive Medical Package Access to Multisport Program Access to Pluralsight Flexible hours
Senior IT Analyst
B2B.NET S.A.
⚲ Gdańsk
115–134 zł netto (+ VAT) / godz.
Wymagania
- SQL
- Hive
- ETL
- Big Data
- Data Quality
- Agile
- Microsoft SQL Server
- Spark
- Python
- CI/CD
Nasze wymagania: Minimum 10 lat doświadczenia jako IT Analyst / Data Analyst / Business Analyst w obszarze danych Zaawansowana, praktyczna znajomość SQL (wymaganie kluczowe) Doświadczenie z MS SQL Server w środowisku enterprise Praktyczne doświadczenie z Hive w środowisku Big Data Doświadczenie w pracy z dużymi zbiorami danych (Big Data) Znajomość procesów ETL Doświadczenie w testowaniu danych (data testing, data quality) Doświadczenie w zbieraniu i dokumentowaniu wymagań biznesowych Praca w środowisku Agile Bardzo dobre umiejętności komunikacyjne w języku angielskim Mile widziane: Znajomość Spark Umiejętność pisania skryptów w Python Doświadczenie w sektorze bankowym O projekcie: Osoba na tym stanowisku dołączy do zespołu pracującego nad budową lub przebudową strategicznej platformy danych (Data Platform) w dużej organizacji finansowej. Projekt ma charakter długofalowy i koncentruje się na tworzeniu nowoczesnego środowiska do przetwarzania, analizy oraz udostępniania danych w skali enterprise. Rola łączy analizę biznesową, pracę z danymi oraz współpracę z zespołem deweloperskim w środowisku Agile. Zakres obowiązków: Działanie jako pomost między biznesem a zespołami technicznymi Udział w budowie lub przebudowie Data Platform Praca z produktami danych (data products) Analiza jakości i spójności danych (data quality, data hygiene) Współpraca przy projektowaniu rozwiązań w obszarze Big Data Tworzenie i dokumentowanie wymagań (user stories, features) Zarządzanie zależnościami między zespołami Praca w cross-funkcjonalnym zespole Agile Oferujemy: Udział w strategicznym projekcie budowy Data Platform Realny wpływ na architekturę i kształt rozwiązań danych Pracę z technologiami Big Data (Hive, Spark, CI/CD) Środowisko Agile z dużą samodzielnością i ownershipem Współpracę w międzynarodowym zespole
Senior Database QA Automation Engineer, AVP
STATE STREET BANK INTERNATIONAL GMBH
⚲ Gdańsk, Oliwa
Wymagania
- Java
- C#
- SQL
- Python
- PowerShell
- Bash
Nasze wymagania: At least 5 years of experience in software testing in a process driven technology environment Demonstrated experience programming with any modern OOP language (like: Java, C#, SQL, Python) Very good knowledge about databases, including SQL query language. Demonstrated experience implementing and executing automation test scripts against web, native/desktop applications, APIs and batch applications. Demonstrated ability translating business requirements into comprehensive functional and technical test plans Demonstrated experience using test cases, scripts, and automated test tools for verifying requirements on multi-tier applications Demonstrated experience implementing automation tests with industry relevant tools. Effective written and verbal communication. Employees are expected to work from the from the office per country-specific company guidelines. B.S. degree (or foreign education equivalent) in Computer Science, Engineering, Mathematics, and Physics or other technical course of study or Business with an MIS background. MS degree strongly preferred. Mile widziane: Experience in contributing to Unit tests Experience working as a software tester in a database project (like data warehouse, data lake, ETL processes) Experience writing complex SQL queries for data validation. Experience in database performance testing and optimization. Understanding database security best practices Familiarity with AI tools like Copilot to increase productivity O projekcie: Who we are: Charles River Development (CRD) is the FinTech division of State Street. Together with State Street’s Middle and Back-office services, Charles River’s cloud-based Front Office technology forms the foundation of the State Street Alpha® Platform, the first front-to-back solution in the industry. Our vision is to be the world’s leading investment platform, shaping the future of the industry and driving new levels of technology-led innovation, resiliency, efficiency and growth for investors and the people they serve. CRD Engineering organization is innovating and transforming the platform by moving away from monolithic software to utilizing next generation cloud-based technology that leverages Microsoft Azure, Kafka, Snowflake, etc. Industry momentum has seen CRD grow over 135% in headcount over the last 5 years, and we continue to grow. As a digital innovation leader, we invest into our solutions, processes, systems, and talent. Summary: Work as a senior member of a Scrum team to execute the overall quality plan for one of Charles River’s products. Provide support and assistance to customers and other teams within Charles River. The candidate should be a sharp automation engineer with strong problem-solving skills and a solid software testing foundation. This role requires a talented, detail oriented, enthusiastic individual who is passionate about quality with the ability to grasp tough issues quickly and deliver well engineered, high-quality solutions. Financial services industry experience is preferred. Note: The role requires minimum of three days working from the office. Zakres obowiązków: Work closely with the scrum master, product owner, architect, business analysts, product specialists, developers and other project team members to assist in carrying out the software quality responsibilities of the Scrum team Create comprehensive test automation scripts from business requirements and functional specifications documents for product features of moderate complexity Execute manual and automated functional, integration, regression, and performance tests Maintain automated and manual test script libraries for functional, integration, regression, and performance testing Align with the Software Development Life Cycle practices, comply with Information Security and Data Governance practices Interpret results of automation tests and document software defects in issue tracking system; proactively communicate issues with developers and other project team members Provide testing leadership by identifying opportunities for improvement in the Scrum team’s QA methodology, innovate by researching and recommending new approaches to automation of testing, including use of Artificial Intelligence Adhere to a testing schedule to ensure efficient and effective product delivery Actively participate in the agile software development process by adhering to the CRD Scrum methodology including attending all daily standups, sprint planning, backlog grooming, and retrospectives Participate in “testathon” activities as required by releases Guide and mentor junior staff in proper creation of automated test scripts. Oferujemy: Permanent contract from day one Additional holidays (Birthday Day Off, 3rd and 5th year anniversary Day Off) Gold Medical Package for employees and their families (partner and children) Premium life insurance package and private pension plan Wide range of soft skills training, technical workshops, language classes and development programs Opportunities to volunteer your time to company-driven initiatives, employee networks or organizations of your choice Variety of well-being programs Additional benefits available depending on the seniority of the role
Senior Database Engineer, VP
STATE STREET BANK INTERNATIONAL GMBH
⚲ Kraków, Dębniki
Wymagania
- MS SQL Server
- Oracle
- Snowflake Data Cloud
Nasze wymagania: 10+ years of professional software engineering experience with enterprise applications backed with RDBMS databases or Snowflake 10+ years of experience as a Database Architect or in a similar role supporting enterprise applications Extensive hands-on experience in RDBMS and distributed data platforms as a database developer Strong analytical and problem-solving skills with ability to troubleshoot and resolve database related issues Proficiency in SQL performance tuning in MS SQL Server, Oracle, or Snowflake Strong track record of building high performance, production quality software on schedule Ability to work independently, handle multiple tasks simultaneously and adapt quickly to changes Excellent communication skills (verbal and written) with the ability to convey complex technical concepts to both technical and non-technical stakeholders Mile widziane: Expert experience with hardware sizing and configuration, operating systems, scripting, and database technologies Experience in NoSQL databases is preferred Experience with cloud database services such as Azure SQL Database or AWS RDS is a plus A minimum of 7 years working with an Agile development methodology strongly desired Experience with developing applications for the financial markets is a plus (Fixed Income, Trading, FX, Risk, Portfolio/Wealth Management, Market Data, FIX, etc. B.S. degree (or foreign education equivalent) in Computer Science, Engineering, Mathematics, and Physics or other technical course of study required. MS degree strongly preferred. O projekcie: Join us as a leading technical contributor to the enhancement and maintenance of one or more Charles River IMS modules or components of an agile scrum team. Be a part of strategic development projects and contribute to mission-critical optimization, resiliency, and performance improvement work for our clients. Collaborate with engineering, product, QA and sales teams to drive the platform innovation and modernization. This job is a hybrid role with at 3 days in the office per week, which you can perform from our offices in Krakow and Gdansk. Zakres obowiązków: Design and implement scalable, performant and highly available distributed database solutions Collaborate with peers across scrum teams to design and deliver database design conforming to database best practices and meet business and application requirements Create and maintain comprehensive documentation of database design, data models, configurations, and processes Write complex SQL queries, stored procedures, and script to support application development Optimize performance through indexing, SQL query optimization, and other database tuning techniques Monitor database performance metrics, analyze and identify bottlenecks, and recommend short-term and long-term solutions Collaborate with engineering teams to define performance test strategy, and develop toolsets to generate synthetic datasets for effective and repeatable performance tests Implement and manage database security, including access controls, encryption, and auditing Collaborate with production DBA team to troubleshoot and resolve database production issue in timely manner Monitor and maintain database health to ensure data integrity, availability, and disaster recovery Perform database installation, configuration, and upgrades in lower environments Provide thought leadership on the topic of database technologies and data modeling within and beyond the team’s scope of responsibility Collaborate with cross-functional teams, including engineering, SaaS Operation, support, and implementation, to ensure seamless integration of database systems Provide technical mentorship to junior database engineers Oferujemy: Permanent contract from day one Additional holidays (Birthday Day Off, 3rd and 5th year anniversary Day Off) Gold Medical Package for employees and their families (partner and children) Premium life insurance package and private pension plan Wide range of soft skills training, technical workshops, language classes and development programs Opportunities to volunteer your time to company-driven initiatives, employee networks or organizations of your choice Variety of well-being programs Additional benefits available depending on the seniority of the role
Senior Data Scientist – Generative AI / LLM Specialist
SQUARE ONE RESOURCES sp. z o.o.
⚲ Warszawa, Mokotów
160–180 zł netto (+ VAT) / godz.
Wymagania
- Generative AI
- NLP
- Deep Learning
- NumPy
- HuggingFace
- LangChain
- LLM
- Python
- Databricks
- Google Cloud Platform
- Azure DevOps
Nasze wymagania: Solid understanding of deep learning concepts. Experience in Machine Learning, particularly in Generative AI (LLM/LMM), with focus on NLP or multimodal models. Experience gathering business requirements and translating them into technical plans, data processing, feature engineering, model evaluation, hypothesis testing, and model deployment. Strong Python and object-oriented programming skills; working knowledge of SQL and vector databases. Experience with Azure or GCP cloud platforms. Knowledge of Deep Learning and GenAI libraries: NumPy, PyTorch, HuggingFace, LangChain, LangGraph, and GenAI APIs (OpenAI, Gemini). Hands-on experience designing or operating MCP servers/clients for LLM agents. Mile widziane: Experience working with Databricks. Proven commercial experience in Generative AI, NLP, or Computer Vision projects. Familiarity with microservice architectures. Experience with code repositories and code assistants. Strong business acumen and ability to propose creative solutions for client problems. Ability to mentor and lead junior team members. O projekcie: We are looking for a Data Scientist to join our AI team and support clients in building end-to-end Talk-To-Data (TTD) solutions powered by LLMs and GenAI models. The AI team focuses on cutting-edge aspects of Generative AI and LLMs with applications such as RAG, summarization, multi-agent workflows, and model fine-tuning. With deep, PhD-level expertise in GenAI, NLP, and Computer Vision, this is an excellent environment for professionals eager to push their skills to new heights. We are seeking candidates for long-term engagement in GenAI and related domains. Zakres obowiązków: Develop end-to-end GenAI applications such as chatbots, voicebots, and Talk-to-Data systems, including data ingestion, retrieval layers, orchestration (e.g., LangChain, LlamaIndex, LangGraph), API/backend, and simple UI where needed. Design and implement RAG pipelines with vector databases, hybrid search, rerankers, query transformation, and evaluation frameworks for relevance and robustness. Perform model selection, prompting strategies, and fine-tuning (LoRA/QLoRA/SFT) for text, code, and multimodal models, including guardrails, output evaluation, and A/B testing. Design, integrate, and optimize LLM interactions with external tools, APIs, and data sources using Model Context Protocol (MCP) connectors. Understand business requirements and translate them into technical goals, define success metrics, audit data feasibility, and align stakeholder expectations. Support project delivery and pre-sales initiatives.
Senior Data Scientist /AI Engineer (RL)
ACAISOFT POLAND Sp. z o.o.
⚲ Warszawa, Mokotów
25 200–38 640 zł netto (+ VAT) / mies.
Wymagania
- Python
- LLM
- LangChain
- AI
- Reinforcement Learning
Nasze wymagania: 5+ years of experience in Python software engineering. Minimum 3 years in a Data Scientist, Machine Learning/Environment Engineering position. Being able to work 2 p.m. - 10 p.m. Practical knowledge of AI frameworks (Langchain, Langraph, mcp-server ). Extensive practical experience in working with AI, including prompt engineering and vibe coding. Mile widziane: Knowledge of Codex or Claude Code. Experience in integrating AI with a system would be an advantage. Understanding of RL concepts - reward modeling, environment dynamics, verifiability, evaluation, and agent interaction loops. Familiarity with instrumentation, metrics, and data pipelines for RL evaluation. Expertise in planning your own work. O projekcie: You will be cooperating with a leading provider of AI evaluation and optimization solutions, trusted by multinational companies to optimize AI agents and detect performance issues in large language models. In this role, you’ll help develop advanced reinforcement learning (RL) environments and scalable evaluation systems that guide and shape the behavior of cutting-edge AI models. The company’s mission is to enable safe, verifiable, and aligned AGI through rigorous, real-world agent evaluation. Due to the client’s time zone, we would appreciate a candidate who can work 2 p.m. - 10 p.m. Join us and make a real impact! If you’re ready to broaden your horizons and work with an innovative company at the forefront of AI, we’d love to hear from you. You’ll help build the environments that shape how future AI systems are trained, evaluated, and aligned - and collaborate with world-class engineers and researchers on one of the most important technical challenges of our time. Zakres obowiązków: Design and implement RL environments that support large-scale agent evaluation and reinforcement learning experiments. Build task generation pipelines, dynamic datasets, and scripted environments with controlled complexity and stochasticity. Develop verifiers and reward models to automatically score trajectories and evaluate model reasoning. Collaborate with infrastructure and systems engineers to ensure environments are scalable, reproducible, and instrumented for detailed telemetry. Design APIs and orchestration frameworks for running, resetting, and evaluating agents across environments. Optimize environment performance, logging, and reward reproducibility across distributed setups.
Senior Data Engineer
Scalo Sp. z o.o.
⚲ Warszawa
20 160–25 200 zł netto (+ VAT) / mies.
Wymagania
- Oracle
- PostgreSQL
- Google BigQuery
- Informatica PowerCenter
- Linux
- Python
- Apache Airflow
- Rust
- Apache Spark
Nasze wymagania: posiadasz doświadczenie w projektowaniu i budowie nowoczesnych hurtowni danych, masz doświadczenie w budowie pipeline’ów ETL/ELT, bardzo dobrze znasz relacyjne bazy danych Oracle oraz PostgreSQL (projektowanie, budowa i tuning baz danych), znasz Google BigQuery, posiadasz doświadczenie z Informatica PowerCenter, znasz technologie wykorzystywane w architekturze event-driven (np. Kafka, Pub/Sub), pracujesz swobodnie w środowisku Linux, pracujesz w Pythonie. Mile widziane: doświadczenie z Apache Airflow, Rust, Apache Spark. O projekcie: W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom. Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie. Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Zakres obowiązków: uczestnictwo w projekcie związanym z budową i rozwojem platformy danych (Data Lake / Data Warehouse) z wykorzystaniem technologii takich jak Oracle, PostgreSQL, Google BigQuery, Informatica PowerCenter, Kafka, Pub/Sub, Python oraz narzędzi chmurowych GCP, praca w zespole data / data platform odpowiedzialnym za rozwój i utrzymanie procesów zasilania danych oraz architektury przetwarzania danych, zadania obejmujące m.in.: projektowanie i rozwój pipeline’ów ETL/ELT, budowę i rozwój hurtowni danych oraz Data Lake, analizę danych, modelowanie logiczne i fizyczne, optymalizację zapytań SQL, tworzenie procesów przetwarzania danych on-line i off-line, wsparcie testów oraz wdrożeń, a także rozwiązywanie incydentów i problemów produkcyjnych, praca w modelu hybrydowym: 1 raz w tygodniu praca z biura w Warszawie, stawka do 150 zł/h przy B2B w zależności od doświadczenia. Oferujemy: stabilną współpracę i różnorodne projekty (Software, Embedded, Data, Cloud Services), możliwość rozwoju kompetencji jako Ambasador Scalo - doskonal skille techniczne i presalesowe w społeczności naszych ekspertów, wpływaj na rozwój organizacji, wspieraj innych, przestrzeń do budowania marki osobistej - twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako prelegent na wydarzeniach (np. ProMeet), prywatną opiekę medyczną - Luxmed, kafeteryjny system benefitów - Motivizer, dostęp do karty Multisport, program poleceń pracowniczych z nagrodami, integracje i wydarzenia firmowe.
Senior Data Architect IT
OPTIVEUM SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Warszawa
24 000–29 000 zł netto (+ VAT) / mies.
Wymagania
- SQL
- RDBMS
- Airflow
- Prefect
- Redshift
- Snowflake
- BigQuery
- AWS
- Google Cloud Platform
- Microsoft Azure
- Python
- Pandas
- PySpark
- Docker
- Kubernetes
- Lambda
Nasze wymagania: 7+ years of experience in data architecture, data engineering, or related technical roles 5+ years designing and implementing cloud-based data architectures (AWS, GCP, or Azure) 5+ years writing complex SQL queries across RDBMSes 5+ years developing and deploying ETL/ELT pipelines using Airflow, Prefect, or similar tools Strong experience with DBT for data transformation, testing, and documentation Experience with data warehouse design: OLTP, OLAP, star schemas, snowflake schemas, dimensions, and facts Experience with data modeling tools and methodologies (conceptual, logical, physical models) Hands-on experience with cloud-based data warehouses such as Redshift, Snowflake, or BigQuery Experience implementing data validation frameworks, quality control processes, and automated testing for data pipelines Familiarity with how data architectures serve AI/ML workloads, including feature stores and vector-based retrieval patterns Strong understanding of data governance, data quality frameworks, and metadata management Bachelor's degree in Computer Science or equivalent — preferred Mile widziane: Python / Pandas / PySpark · Docker · Kubernetes · CI/CD Automation · AWS Lambdas / Step Functions · Data Partitioning · Databricks · Vector Databases (Pinecone, Weaviate, pgvector) · Data Mesh / Data Fabric · Graph Databases / Knowledge Graph Design · Cloud Certifications O projekcie: Our client is a US-based leader in AI-powered enterprise operations, delivering digital solutions and consulting services that transform high-growth businesses and private equity-backed platforms. With over a decade of deep domain expertise in private capital markets, the company operates an integrated ecosystem spanning PaaS, SaaS, and a Solutions & Consulting Suite. We are seeking a Senior Data Architect to join the company's growing Warsaw engineering centre. In this role you will own enterprise data architecture from strategy through execution — designing cloud-native data platforms, establishing governance standards, and enabling AI/ML-ready data infrastructure that powers business intelligence across the portfolio. This is a hybrid position — you will be expected to work from the Warsaw office at least 3 days per week. Zakres obowiązków: Design, develop, and maintain enterprise data architecture strategies, standards, and blueprints supporting operational, analytical, and AI/ML workloads Architect cloud-native data solutions on AWS (Redshift, RDS, Glue, Lake Formation) or equivalent platforms, ensuring scalability, security, and cost efficiency Define and enforce data modeling standards: dimensional modeling, denormalized schemas, OLTP/OLAP design patterns, and AI-friendly ontologies Architect and oversee data transformation layers using DBT, delivering modular, tested, and well-documented models across the analytics stack Lead design of data integration and orchestration patterns with Prefect and Airflow — batch ETL, real-time streaming, event-driven, and API-based data exchange Define and implement data validation, quality control, and automated testing frameworks across pipelines and warehouses Establish data quality SLAs, monitoring, and alerting standards; design automated reconciliation processes to catch issues before downstream impact Build and maintain data governance frameworks: data quality, lineage, cataloging, classification, and access control Collaborate with Data Engineers, Software Engineers, Product, and Analytics teams to translate business requirements into scalable designs Evaluate and recommend data technologies and tools; own technical decision-making for data infrastructure within assigned domains Design data partitioning, indexing, and optimization strategies for high-performance queries and big data workloads Ensure architectures support AI/ML consumption — feature stores, embedding pipelines, and model training datasets Perform architecture and code reviews to uphold data standards, optimal execution patterns, and long-term maintainability Mentor data engineers on best practices in modeling, architecture patterns, and cloud data design Assist with CI/CD processes and automated release management for data infrastructure deployments Oferujemy: B2B contract with monthly compensation up to $8,000 Strategic, high-ownership role in a fast-growing global fintech Direct influence over data infrastructure decisions and team direction Mentorship opportunities and clear career progression Collaborative, open, and ambitious team culture Hybrid model — minimum 3 days/week in the Warsaw office
Senior Analyst - Data Science
METRO Global Solution Center sp. z o.o.
⚲ Warszawa
Nasze wymagania: Bachelor’s degree in computer science, Data Science, Information Technology, or a related field 5+ years of experience in data engineering, advanced analytics, or ML/AI roles Strong experience with Excel, PowerPoint, SQL, and programming languages (ex: Java/Python, SAS, Polars, PySpark) and large-scale data processing tools Hands-on experience with GenAI, LLM-based applications, prompt engineering, and AI agents Experience working with SAP EWM / WM or similar ERP/WMS systems Proficiency with MicroStrategy, Looker studio and Power BI tools Experience with cloud platforms (GCP, Azure, BigQuery, Vertex AI) and modern Dana data lake architectures Strong understanding of indirect procurement, sourcing, supplier management, and category intelligence Execute analytical experiments to help solve problems across various domains like Retail, Wholesales, Warehouse, Marketing & Finance Preferred Qualifications: Experience across Indirect Procurement categories (IT, MRO, Facilities, Logistics, Professional Services) Familiarity with warehouse and supply chain performance metrics Exposure to MLOps, feature stores, and scalable AI deployment frameworks Zakres obowiązków: Data Science, Analytics & KPIs Design, build, and maintain stakeholder-specific BI dashboards and analytical reports for procurement, sourcing, and warehouse KPIs Define, develop, and evolve business-aligned KPIs supporting ML-driven products and procurement transformation initiatives Perform exploratory and advanced data analysis to identify trends, root causes, and improvement opportunities Identify and support resolution of data quality issues (ETL – Extract Transform Load) to ensure accurate, consistent, and reliable analytics Analyze the datasets from different systems to develop Indirect Procurement Spend cube Data Engineering & Data Lake Enablement Extract, integrate, and transform data from Finance systems, Warehouse Management Systems (SAP EWM / WM and similar platforms) to provide insights for supplier negotiations. Design and support scalable data pipelines using batch, CDC, API-based, and streaming ingestion mechanisms. Ensure data reconciliation, validation, and standardization across inbound, outbound, inventory, and exception datasets. Build and maintain feature-ready datasets in enterprise Dana data lakes to support analytics, ML, and AI models. Enable near-real-time analytics for warehouse performance, sourcing activities, and supplier monitoring. GenAI & LLMs for Sourcing Intelligence Design and deploy Generative AI solutions (Gemini, Claude, OpenAI) to support: Supplier discovery and evaluation Creation of Taxonomy and Categorization Sourcing strategy development Market and category intelligence Apply Large Language Models (LLMs) to analyze: RFQs, RFPs, and tender documents Supplier proposals and contracts Market reports, pricing indices, and benchmarks Automate generation of: Supplier shortlists Sourcing insights and risk summaries Executive-ready sourcing recommendations GCP Agentic AI & Market Intelligence Automation Build Agentic AI systems that autonomously: Scan public and paid data sources for supplier and category intelligence Track supplier pricing, capacity, and global market movements Monitor geopolitical, inflation, and logistics risk indicators Continuously refresh market intelligence and trigger alerts for sourcing risks or opportunities Collaboration & Delivery Partner closely with procurement leaders, supply chain stakeholders, product owners, and IT/data engineering teams. Translate business challenges into scalable analytics and AI solutions with measurable impact. Support deployment, monitoring, and continuous improvement of ML and AI models. Communicate insights through clear visualizations, reports, and executive presentations to facilitate decision-making at all levels of the organization. Oferujemy: Stable employment in an international corporation, which is constantly growing Opportunities to expand expertise across data science, AI, procurement, and supply chain domains. Private medical care and group insurance, also for family members Cash benefits as part of the Social Benefits Fund, i.e., Christmas allowance Co-financed sports card Team and company integrations after hours Hybrid work model Workplace based in Warsaw, Poland
Programista / Programistka Power BI
Jit Team sp. z o.o.
⚲ Warszawa
20 000–26 000 zł netto (+ VAT) / mies.
Wymagania
- SQL
- Oracle
- Python
- Azure
- Azure DevOps
- GitHub
- Microsoft Fabric
- Azure Data Factory
- PySpark
Nasze wymagania: Minimum 5 lat doświadczenia na podobnym stanowisku Wykształcenie wyższe z zakresu IT lub kierunków pokrewnych Doświadczenie w pracy z hurtowniami danych Zaawansowana znajomość SQL oraz relacyjnych baz danych (preferowany Oracle) Bardzo dobra znajomość Power BI (modele danych, DAX) Umiejętność rozwiązywania złożonych problemów w środowiskach hybrydowych (on-premise + chmura) Zaawansowana znajomość Python Bardzo dobra znajomość chmury publicznej (Azure) oraz praktyczne doświadczenie z Azure DevOps, GitHub, Microsoft Fabric, Azure Data Factory, PySpark Doświadczenie w modelowaniu danych (schemat gwiazdy, fakty/wymiary) Doświadczenie w pracy z systemami ETL Doświadczenie w metodykach Agile / Scrum Mile widziane: Znajomość technologii SAS Institute (SAS 4GL) O projekcie: Wynagrodzenie: 1000 - 1300 PLN/MD na B2B Tryb pracy: hybrydowy (min. 1 dzień w tygodniu z biura w Warszawie) Projekt obejmuje migrację danych oraz procesów ETL ze środowiska on-premise (Oracle) do chmury Azure z wykorzystaniem Microsoft Fabric. Celem inicjatywy jest modernizacja istniejącej architektury danych, budowa wydajnych modeli analitycznych oraz zapewnienie zgodności z regulacjami bezpieczeństwa i prywatności danych. Projekt realizowany jest w środowisku hybrydowym, z naciskiem na optymalizację wydajnościową oraz kosztową rozwiązań chmurowych. Zakres obowiązków: Migracja i modernizacja procesów ETL oraz struktur danych z Oracle (on-premise) do Azure (MS Fabric) Tworzenie i utrzymanie wydajnych modeli danych oraz modeli analitycznych w Power BI Monitorowanie i utrzymanie procesów zasilających Optymalizacja procesów pod kątem wydajności i kosztów Zapewnienie zgodności z regulacjami prywatności i bezpieczeństwa danych Integracja standardów bezpieczeństwa organizacji z rozwiązaniami Azure Współpraca z zespołami IT i dostawcami zewnętrznymi przy analizie i rozwiązywaniu problemów Oferujemy: Współpraca z doświadczonymi zespołami IT oraz dostawcami zewnętrznymi Praca w środowisku łączącym on-premise (Oracle) oraz nowoczesne rozwiązania chmurowe Realny wpływ na modernizację architektury danych i procesów ETL Udział w strategicznym projekcie migracji danych do chmury Azure (MS Fabric)
Model Risk Manager
Mindbox Sp. z o.o.
⚲ Kraków
30 000–36 000 zł netto (+ VAT) / mies.
Wymagania
- Python
- R
- Matlab
- C++
- VBA
Nasze wymagania: Market Risk (Traded Risk), Stress Testing, Pricing Modelling. Statistical and financial modelling techniques. Market Risk models and performance metrics (VaR, Stressed VaR, IRC, Expected Shortfall, DRC). Basel 2.5, FRTB frameworks, and capital requirements. Internal banking procedures related to risk management (advantage). Proficiency in at least one statistical modelling language: Python, R, Matlab, C++, VBA. Experience in model development and/or independent model validation. Handling requests from internal/external audit and regulators (beneficial). Excellent written and verbal communication. Strong team player with ability to work independently. Ability to mentor junior team members and peer-review work. O projekcie: Ready to take your quantitative skills to the next level? Join an international team and work on cutting-edge risk models in a dynamic environment! We are looking for an experienced Senior Model Validator to join the Model Risk Management team. This role focuses on Independent Model Validation for Market Risk models, ensuring compliance with regulatory requirements and internal risk management policies. Sounds like your kind of challenge? Zakres obowiązków: Perform independent model validations as part of a specialist quantitative team. Validate Market Risk models such as VaR, Stressed VaR, Incremental Risk Charge, Expected Shortfall, Default Risk Charge. Assess risks related to model input data quality, performance, and usage. Conduct back-testing, sensitivity analysis, and stress testing to evaluate model performance. Ensure compliance with Basel III, OCC guidelines, and internal policies. Provide critical opinions on conceptual soundness and adequacy of models for intended use. Collaborate with model developers, treasury, and risk management teams to mitigate model risk. Note: Detailed project information will be shared during the recruitment process. Oferujemy: Flexible cooperation model – choose the form that suits you best (B2B, employment contract, etc.) Hybrid work setup – remote days available depending on the client’s arrangements Collaborative team culture – work alongside experienced professionals eager to share knowledge Continuous development – access to training platforms and growth opportunities Comprehensive benefits – including Interpolska Health Care, Multisport card, Warta Insurance, and more High quality equipment – laptop and essential software provided
Lead Data Platform Architect
Next Technology Professionals Sp. z o.o.
⚲ Warszawa
235–280 zł netto (+ VAT) / godz.
Wymagania
- SQL
- NoSQL
Nasze wymagania: Wieloletnie doświadczenie w projektowaniu złożonych, wysokowydajnych systemów danych. Praktyczna znajomość baz danych oraz baz danych analitycznych zorientowanych kolumnowo. Doświadczenie w obszarze technologii chmurowych. Doświadczenie w pracy z dużymi wolumenami danych i złożonymi obliczeniami. Gotowość do podejmowania długoterminowych decyzji architektonicznych i brania za nie odpowiedzialności. Znajomość angielskiego na poziomie B2/C1. O projekcie: Projekt: Stworzenie nowej generacji platformy chmurowej typu Enterprise SaaS dedykowanej sektorowi med-tech (Asset Management). Nasz klient to firma z Londynu, która buduje w Warszawie centrum inżynieryjne, aby zrewolucjonizować rynek przy użyciu AI i nowoczesnej architektury. Jest to projekt typu "greenfield"- bez długu technologicznego, nastawiony na wydajność, skalowalność i obsługę krytycznych procesów biznesowych. Stack technologiczny: 🛠️ Distributed SQL / HTAP Data Lakehouse & Analytics Platforms Event-driven Architecture / Streaming High-performance Computing Cloud-native Ecosystem, PostgreSQL, Public Cloud, column-oriented analytics databases, Kafka. Zespół: 👥 Kameralna grupa ekspertów, w tym założyciele i inżynierowie poziomu Principal, nastawiona na rozwiązywanie najtrudniejszych problemów architektonicznych. Wynagrodzenie: 💰 235 - 280 PLN netto + VAT/h. Tryb pracy: 100% zdalnie. Zakres obowiązków: Projektowanie i budowa fundamentów architektury danych dla platformy o wysokiej wydajności. Podejmowanie kluczowych decyzji dotyczących modelowania danych, schematów oraz doboru technologii bazodanowych (SQL/NoSQL). Zapewnienie skalowalności poziomej oraz niskich opóźnień w dostępie do danych. Opracowanie strategii integracji z systemami zewnętrznymi oraz usługami AI/ML. Dbanie o jakość, spójność i obserwowalność danych (observability) w całym ekosystemie. Oferujemy: Realny wpływ na kształt powstającego produktu i jego fundamenty technologiczne. Pracę w środowisku wolnym od "legacy code", z wykorzystaniem najnowszych standardów. Możliwość współpracy bezpośrednio z twórcami platformy i doświadczonymi liderami technicznymi. Udział w budowie rozwiązania, które ma ambicję stać się nowym standardem w branży globalnej.
Lead Data Engineer (m/k)
TEAM UP RECRUITMENT SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Wrocław
Wymagania
- Python
- SQL
- AWS
- Microsoft Azure
- Java
Nasze wymagania: Degree in Computer Science, AI, Data Science, Software Engineering, or equivalent experience 8+ years in software engineering, including 5+ years of backend development with Python (production level) Strong experience designing and scaling complex data systems Hands-on experience with AI technologies and cloud platforms (AWS or Azure) Solid knowledge of Python, SQL (Java is a plus) Experience with APIs, data integration, automation tools, and data governance Strong understanding of data security and compliance standards Proven leadership and mentoring experience Excellent communication skills in English and Polish (min. B2); German is a plus O projekcie: We are looking for an experienced Lead Data Engineer to drive AI and cloud-based data solutions within a global technology organization. In this role, you will lead data initiatives, shape scalable architectures, and collaborate with both technical teams and senior stakeholders to deliver secure and high-performing systems. Zakres obowiązków: Act as the main point of contact for data access and system-related topics with senior stakeholders Lead and mentor data engineers, promoting best practices and technical excellence Design, build, and maintain scalable cloud infrastructure and data pipelines Ensure data quality, security, compliance, and governance across the full lifecycle Develop secure and reliable cloud architectures (AWS/Azure) for AI and enterprise applications Implement monitoring, alerting, disaster recovery, and business continuity solutions Take technical ownership of applications within a DevOps environment Drive automation and self-service capabilities Support AI initiatives (e.g., AI Agents, RAG, MCP) with focus on quality and scalability Stay updated on emerging technologies and advise on strategic data direction Oferujemy: Opportunity to work in a global, international environment Real impact on AI and cloud solutions in a large-scale organization Access to training platforms and professional development programs Hybrid work model with flexible hours (modern office in central Wroclaw) Comprehensive benefits package (medical & dental care, sports card, life insurance, mental health program) Cafeteria benefits platform with monthly points CSR initiatives, integration events, and employee passion clubs
Junior Data Engineer Geospatial - e-Xperience Program Associate
Allegro
⚲ Warszawa
Nasze wymagania: Can write SQL queries and want to gain more experience working with geospatial databases and technology (like PostgreSQL + PostGIS) Program in Python and are comfortable using basic development tools Would like to gain experience working with large datasets and comprehending database design and data structures Are eager to learn about geospatial technologies from Esri and develop skills in this area Enjoy creating appealing and informative digital map visualizations O projekcie: Start your career with Allegro e-Xperience 2026 - a talent program running from 1 July to 31 December 2026. During the program, you’ll gain hands-on experience, work on real projects and learn from teams shaping one of the largest e-commerce platforms in the region. After the initial period, candidates may be considered for future permanent opportunities at Allegro, depending on business needs and performance. You can find full details about the recruitment process and timeline here. Ready to take your first professional step? Apply now and shape the future of e-commerce with us! For this role, we’re looking for 1 Associate. Zakres obowiązków: You will assist in transforming Allegro's rich data resources, along with external data, into innovative Big Geodata products You will implement data pipelines and automated workflows using SQL/Python required for Data and AI tools and processes You will work with Esri ArcGIS environment web services and applications helping us embrace the world of spatial technologies and geospatial data You will monitor and enhance the quality and integrity of data You will be responsible for creating metadata aggregation processes, integrated with Allegro's Data and AI platform to support tools and processes in the areas of: Data Quality, Data Lineage and Data Governance Oferujemy: Flexible working hours in the hybrid model (4/1) - working hours start between 7:00 a.m. and 10:00 a.m. The opportunity to learn, work on exciting challenges, collaborate with amazing people and have an unforgettable adventure Mentorship and support from your buddy throughout your entire program Additionally, you will be part of a supportive, inclusive culture that fosters personal growth, career development, and the building of meaningful connections with colleagues A wide selection of fringe benefits in a cafeteria plan - you choose what you like (e.g. medical, sports or lunch packages, insurance, purchase vouchers) The necessary tools for work Working in a team you can always count on - we have on board top-class specialists and experts to learn from Hackathons/Open days, workshops, guilds, meetups and internal knowledge sharing Internal learning platform (including training courses on work organization, means of communication, motivation to work and various technologies and subject-matter issues)
Inżynier danych / Inżynierka danych
B2B.NET S.A.
⚲ Warszawa
20 680–23 520 zł netto (+ VAT) / mies.
Wymagania
- Kafka
- ETL
- GCP
- Python
- CI/CD
- Neo4j
- Apache Spark
- Apache Airflow
- AutomateNow
- Rust
Nasze wymagania: Praktyczne doświadczenie w pracy z bazą grafową Neo4j Dobra znajomość koncepcji teorii grafów Doświadczenie w modelowaniu grafów oraz optymalizacji wydajności zapytań Znajomość środowiska chmurowego Google Cloud Platform (GCP) Znajomość zagadnień związanych z budową pipeline’ów zasilających ETL/ELT Doświadczenie w pracy z architekturą sterowaną zdarzeniami (Kafka, Pub/Sub) Znajomość rozwiązań Big Data wykorzystujących możliwości GenAI Znajomość Google BigQuery Znajomość języka Python Znajomość narzędzi CI/CD Mile widziane: Apache Spark – preferowane środowisko GCP Dataproc Apache Beam – preferowane środowisko GCP Dataflow AutomateNow Apache Airflow Rust Zakres obowiązków: Projektowanie, budowa oraz rozwój rozwiązań opartych o bazy grafowe Neo4j Modelowanie grafów danych zgodnie z wymaganiami biznesowymi oraz optymalizacja ich wydajności Tworzenie i utrzymanie zapytań grafowych oraz analiza zależności danych Projektowanie i implementacja pipeline’ów ETL/ELT zasilających rozwiązania grafowe Integracja danych z różnych źródeł w środowisku chmurowym GCP Tworzenie rozwiązań w architekturze sterowanej zdarzeniami z wykorzystaniem Kafka i Pub/Sub
Data Solutions Business Analyst – Data Analytics & Cloud Integration
ITDS Polska Sp. z o.o.
⚲ Kraków
16 800–23 520 zł / mies. (zal. od umowy)
Wymagania
- Google Cloud Platform
- Hadoop
Nasze wymagania: Minimum of 3 years of experience in Business Analysis, Data Analytics, or Data Platform roles. Strong understanding of ESG data and the data lifecycle in general. Proven experience delivering technically focused analysis for change initiatives involving multiple organizations. Solid knowledge of cloud platforms, particularly Google Cloud, Hadoop, or related big data tools. Hands-on experience with data integration solutions and third-party data sources. Excellent communication skills to engage both technical and non-technical audiences. Experience working within Agile delivery teams. Fluent in English, with excellent communication skills. Mile widziane: Certifications related to Data Analytics, Cloud Technologies, or Agile methodologies. O projekcie: As a Data Solutions Business Analyst – Data Analytics & Cloud Integration, you will be working for our client, an international leader in innovative data management and analytics. You will lead initiatives to enhance data ingestion, data quality, and integration with platforms like Google Cloud and Hadoop, enabling smarter business decisions and driving digital transformation. This role offers an exciting opportunity to shape data-driven strategies in a dynamic environment. Unleash the future of data — drive transformative insights through scalable cloud solutions. Krakow-based opportunity with hybrid work model. Zakres obowiązków: Elicit requirements using interviews, workshops, and process analysis to translate complex business needs into effective data solutions. Collaborate with stakeholders to define project scope, objectives, and deliverables aligned with strategic goals. Work closely with data engineers, project teams, and business users to ensure clear communication, documentation, and successful project execution. Analyze, manipulate, and document data, creating technical specifications and data dictionaries for seamless implementation. Support project delivery with testing, organizational tasks, and requirement traceability, ensuring high quality standards. Use Agile methodologies to foster collaborative and flexible project execution across cross-functional teams. Maintain data governance standards, ensuring data definitions, lineage, and quality controls are integrated into project solutions. Produce comprehensive documentation including business requirements, source-to-target mappings, process flows, and user guides. Oferujemy: Stable and long-term cooperation with very good conditions Enhance your skills and develop your expertise in the financial industry Work on the most strategic projects available in the market Define your career roadmap and develop yourself in the best and fastest possible way by delivering strategic projects for different clients of ITDS over several years Participate in Social Events, training, and work in an international environment Access to attractive Medical Package Access to Multisport Program Access to Pluralsight Flexible hours
Data Quality Engineer (m/k/n)
UPVANTA SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Wrocław, Fabryczna
Wymagania
- Snowflake
- SQL
- dbt
- Apache Airflow
- Python
- GitLab
- AWS
Nasze wymagania: Doświadczenie w pracy z hurtowniami danych w środowisku cloud Bardzo dobra znajomość: Snowflake, SQL, dbt, Apache Airflow, Python, GitLab oraz procesów CI/CD Podstawowa znajomość platformy AWS (S3, IAM) Umiejętność analizy wymagań biznesowych i projektowania procesów przetwarzania danych Doświadczenie w pracy zespołowej w metodykach zwinnych (Scrum) Umiejętność komunikacji w języku polskim oraz angielskim w środowisku międzynarodowym Mile widziane: Znajomość zagadnień z obszaru billingu, księgowości lub finansów Doświadczenie w migracji hurtowni danych ze środowiska on-premise do Snowflake O projekcie: Projekt dotyczy kontroli procesu naliczeń i billingu dla abonentów poprzez analizę i przetwarzanie danych w środowisku chmurowym. Jego celem jest monitorowanie przebiegu procesu naliczeń, prezentacja statystyk dla poszczególnych etapów oraz identyfikowanie ewentualnych nieprawidłowości. Rola obejmuje projektowanie i rozwój procesów przetwarzania danych wspierających analizę i kontrolę kluczowych procesów biznesowych. Zakres obowiązków: Zbieranie oraz analiza wymagań biznesowych od interesariuszy Projektowanie i implementacja procesów przetwarzania danych wspierających kontrolę procesu naliczeń i billingu dla abonentów Tworzenie rozwiązań umożliwiających prezentację statystyk dla poszczególnych etapów procesu naliczeń Identyfikowanie i wykrywanie nieprawidłowości w działaniu procesów naliczeniowych Rozwój i utrzymanie procesów ETL/ELT w środowisku chmurowym Współpraca w zespole pracującym w metodyce Scrum Współtworzenie i promowanie dobrych praktyk związanych z jakością danych („data quality by design”) Wdrażanie podejścia opartego na testowaniu danych i zapewnianiu ich spójności Współpraca z zespołami lokalnymi i międzynarodowymi Oferujemy: Stawka: 1000 - 1250 B2B MD netto + VAT Tryb pracy: 100% zdalny Okres współpracy: długoterminowy (minimum 1 rok) Godziny pracy: poniedziałek – czwartek: 8 godzin 30 minut i piątek: 6 godzin
Data Protection & Compliance Specialist (m/k/n)
UPVANTA SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Wrocław, Fabryczna
Nasze wymagania: - Bardzo dobra, praktyczna znajomość Microsoft 365 Modern Workplace - Doświadczenie w bezpośredniej współpracy z klientem - Głęboka wiedza w co najmniej jednym z poniższych obszarów: 🔑 Identity & Access Management - Azure AD / Entra ID - Protokoły uwierzytelniania - Zarządzanie dostępem uprzywilejowanym 🛡 Security & Compliance - Microsoft Purview - Ochrona informacji - Zarządzanie zgodnością i governance 🚨 Threat Protection & Monitoring - Bezpieczeństwo endpointów - Zarządzanie zagrożeniami - Operacje bezpieczeństwa (Security Operations) 🔄 Migration Services - Migracja danych i usług do Microsoft 365 📂 SharePoint Online - Zarządzanie, konfiguracja i dostosowywanie środowisk SharePoint Online 💻 Endpoint Management - Zarządzanie cyklem życia urządzeń - Konfiguracja i zabezpieczanie urządzeń sieciowych O projekcie: Stawka: 800-1100 PLN B2B netto MD Zakres obowiązków: Projektowanie, rozwój i wdrażanie rozwiązań z zakresu tożsamości oraz bezpieczeństwa opartych o technologie Microsoft w środowiskach hybrydowych i chmurowych Definiowanie architektury, planów wdrożeniowych oraz specyfikacji technicznych dla: Active Directory Domain Services (AD DS) Entra ID (Azure AD) Tożsamości hybrydowej Microsoft Information Protection (MIP) Data Loss Prevention (DLP) Implementacja i konfiguracja rozwiązań Microsoft 365 Modern Workplace Współpraca z klientami w zakresie analizy potrzeb, doradztwa technicznego oraz wdrożeń Ścisła współpraca z zespołami inżynieryjnymi, bezpieczeństwa, compliance oraz architektury Zapewnienie zgodnych z regulacjami i w pełni zintegrowanych rozwiązań ochrony danych w ekosystemie Microsoft 365 Udział w projektach migracyjnych (migracja danych i usług do Microsoft 365) Wsparcie w zakresie monitorowania zagrożeń oraz podnoszenia poziomu bezpieczeństwa środowisk IT
Data Engineer / Inżynier Analityki Danych
FarmaProm Spółka z ograniczoną odpowiedzialnością
⚲ Poznań, Grunwald
Wymagania
- SQL
- Git
- Python
- BigQuery
Nasze wymagania: Minimum 2-lata doświadczenia na stanowisku, które wymagało projektowania i/lub budowania potoków przetwarzania danych Praktyczna znajomość SQL (dowolny dialekt) Dobra znajomość koncepcji i praktyk z zakresu modelowania danych Znajomość koncepcji hurtowni danych (Data Warehousing) Doświadczenie w pracy z systemem kontroli wersji Git Samodzielność, umiejętność logicznego i analitycznego myślenia Komunikatywność i dobra organizacja czasu pracy Mile widziane: Doświadczenie w wykorzystywaniu narzędzi AI do rozwiązywania problemów z obszaru inżynierii danych, wspierania analiz i optymalizacji procesów Doświadczenie w integracji API (REST / SOAP) lub w pracy z danymi półustrukturyzowanymi Doświadczenie w przetwarzaniu danych wrażliwych (w sposób zgodny z GDPR/RODO) Znajomość zagadnień związanych z konteneryzacją Znajomość paradygmatów Data Observability i / lub Data Mesh Znajomość branży farmaceutycznej O projekcie: Masz doświadczenie w modelowaniu danych, a perspektywa zastąpienia istniejących systemów nowoczesnymi rozwiązaniami brzmi dla Ciebie jak ciekawe wyzwanie inżynierskie? Dołącz do FarmaProm i zaprojektuj nasz ekosystem od nowa. Twoja rola będzie dwuetapowa. Najpierw poznasz i przejmiesz odpowiedzialność za kluczowe, istniejące procesy, zapewniając ich bieżące utrzymanie. Na dalszym etapie, wykorzystując zdobytą w ten sposób wiedzę, zaprojektujesz i wdrożysz nową generację rozwiązań w oparciu o środowisko Google Cloud Platform. Jeśli potrafisz przełożyć wymagania biznesowe na konkretne modele danych, a przy tym jesteś dociekliwy i lubisz się uczyć, to aplikuj! Zakres obowiązków: Odpowiedzialność za stack technologiczny i ciągłość procesów ETL/ELT opartych m.in. na MS SQL Server oraz skryptach batch Analiza i dokumentacja istniejących rozwiązań, w tym zrozumienie logiki biznesowej zapisanej w obecnych procesach i zapytaniach SQL, aby przygotować je do procesu modernizacji Projektowanie i wdrażanie nowoczesnej, chmurowej architektury danych, która docelowo zastąpi obecne rozwiązania Identyfikacja procesów manualnych (np. ręczne przetwarzanie danych z plików CSV, formularze papierowe itd.) i ich automatyzacja Tworzenie mechanizmów walidacji oraz integracji z rejestrami zewnętrznymi (np. GUS, CEIDG) w celu podniesienia jakości bazy lekarzy i instytucji Przygotowywanie i udostępnianie zestawów danych dla kluczowych klientów oraz obsługa techniczna procesów zasilających systemy CRM Oferujemy: Udział w rozbudowanym projekcie IT skierowanym do klientów branży farmaceutycznej w Polsce Realny wpływ na organizację i jej klientów poprzez rozwój jednego źródła danych zasilającego różne produkty i usługi FarmaProm Opcję pracy hybrydowej po okresie wdrożeniowym Wsparcie lidera przy wdrożeniu do zespołu Środowisko utalentowanych ludzi, od których można się wiele nauczyć
Data Engineer (Microsoft Fabric)
Mindbox Sp. z o.o.
⚲ Warszawa
20 000–24 000 zł netto (+ VAT) / mies.
Wymagania
- Microsoft Fabric
- Microsoft Power BI
- Lakehouse
- Synapse
- SQL
- Python
- PySpark
- Pandas
- Git
- Microsoft Azure
Nasze wymagania: 3–5+ years of experience as a Data Engineer in enterprise environments Strong knowledge of the Microsoft Fabric ecosystem: Data Factory, Lakehouse, Synapse, Power BI Proficiency in SQL and Python (PySpark / Pandas) Hands-on experience with data modeling and ETL/ELT design Understanding of cloud platforms (Azure preferred) Familiarity with DevOps/Git CI/CD for data projects Strong communication skills and ability to work in international teams O projekcie: We are looking for an experienced Data Engineer to join our team and work on data integration, modeling, and reporting solutions using the Microsoft Fabric ecosystem. You will design and develop ETL/ELT processes, build and optimize pipelines, and support reporting projects in Power BI. This role offers the opportunity to work in a collaborative environment with modern cloud technologies and best practices in data engineering. Sounds like your kind of challenge? Zakres obowiązków: Design and develop ETL/ELT processes using Microsoft Fabric Work with Lakehouse (Delta/Parquet, OneLake) and Synapse/Data Warehouse Build and optimize pipelines in Data Factory (orchestration, scheduling) Support Power BI reporting projects (dataset optimization, basic DAX is a plus) Apply data modeling best practices and ensure high-quality data solutions Collaborate with distributed and cross-functional teams in an international environment Note: Detailed project information will be shared during the recruitment process. Oferujemy: Flexible cooperation model – choose the form that suits you best (B2B, employment contract, etc.) Hybrid work setup – remote days available depending on the client’s arrangements Collaborative team culture – work alongside experienced professionals eager to share knowledge Continuous development – access to training platforms and growth opportunities Comprehensive benefits – including Interpolska Health Care, Multisport card, Warta Insurance, and more High quality equipment – laptop and essential software provided