Oferty pracy
Filtry
Power BI Consultant
BitPeak Sp. z o.o.
⚲ Warszawa, Bielany
Wymagania
- Microsoft Power BI
- SQL
- DAX
Nasze wymagania: 3+ years of hands-on experience with Power BI (Premium/Fabric capacity), designing visually compelling, intuitive, and user-centric reports and dashboards Strong proficiency in DAX, Power Query (M) and dimensional data modeling Familiarity with Microsoft Fabric and its core components Solid experience with SQL Good understanding of data warehouse concepts and ETL/ELT methodologies Experience with administration of workspaces and applications in Power BI Service Knowledge of data visualization principles and storytelling in reporting Proven ability to gather requirements and communicate effectively with both technical and non-technical stakeholders Ability to manage multiple client engagements simultaneously and work independently Very good knowledge of English (B2+) allowing you to work in an international environment Nice to have: Relevant Microsoft certifications e.g., PL-300, DP-600, DP-700 O projekcie: We are looking for a skilled BI Consultant with deep expertise in Microsoft Power BI to join our growing team. You will work closely with clients to design, develop, and deliver end-to-end business intelligence solutions from data ingestion and modeling to visualization and adoption. Zakres obowiązków: Gather business requirements, translate business needs into technical deliverables Design BI architectures, data ingestion, and capacity planning Develop and optimize semantic models using DAX and Tabular Editor Analyze and troubleshoot query performance using DAX Studio Build interactive, user-friendly Power BI reports and dashboards Act as trusted advisor to clients and project team, present solutions, lead workshops Implement best practices and governance standards across BI projects Oferujemy: Global cloud projects - we work with clients from all over the world based on modern cloud technologies Certification reimbursement - we fund exams, certifications from Microsoft, AWS, Databricks Time to learn - 60 paid hours per year Flexible approach - you can choose to work from home or meet at our offices Personalized benefits - medical care, subsidized sports packages, language tuition, new employee referral bonus (up to PLN 15,000) as well as annual and media bonus
Główny Specjalista / Główna Specjalistka ds. Systemów Kredytowych
Bank Ochrony Środowiska S.A.
⚲ Warszawa
Wymagania
- SQL
- VBA
Nasze wymagania: znajomość języka zapytań SQL (Microsoft, Oracle), znajomość języka VBA, umiejętność analitycznego myślenia, umiejętność dostosowania się do zmieniających się priorytetów, umiejętność identyfikowania i rozwiązywania problemów, komunikatywność, samodzielność i dobra organizacja pracy. Zakres obowiązków: implementowanie zmian w procesach kredytowych / oceny ryzyka kredytowego na platformach typu low-code (np. Achitekt), udział w projektach Banku związanych z budową i rozwojem narzędzi wpierających ocenę ryzyka kredytowego, zbieranie wymagań, analiza i opis istniejących rozwiązań informatycznych, tworzenie i przeprowadzanie przypadków testowych oraz wsparcie testów akceptacyjnych, tworzenie dokumentacji produktu oraz dokumentacji projektowej, utrzymywanie i rozwój systemów i narzędzi kredytowych. Oferujemy: atrakcyjne warunki zatrudnienia, możliwość rozwoju w jedynej takiej instytucji z misją ekologiczną o ugruntowanej pozycji na rynku, dofinansowanie zajęć sportowych, prywatna opieka medyczna, dofinansowanie szkoleń i kursów, ubezpieczenie na życie na preferencyjnych warunkach, program rekomendacji pracowników, inicjatywy dobroczynne, projekty wolontariackie/ekologiczne, trzy dni wolnego z tytułu wolontariatu, upominki świąteczne, świadczenia świąteczne, sekcje sportowe, program kafeteryjny, wczasy pod gruszą, programy wellbeingowy, atrakcyjne lokalizacje biur i oddziałów banku, system premiowy.
GCP Data Engineer (m/k) - IT Contracting
Michael Page
⚲ Warszawa
120–145 zł netto (+ VAT) / godz.
Nasze wymagania: Minimum 5 lat doświadczenia w budowie złożonych rozwiązań przetwarzania danych Co najmniej 3 lata praktycznego doświadczenia z Google Cloud Platform Bardzo dobra znajomość BI/ETL/Big Data Technologies (np. Dataflow, Dataproc, BigQuery, Pub/Sub) Głęboka znajomość technik projektowania relacyjnych baz danych i architektur big data Doświadczenie w przetwarzaniu danych w czasie rzeczywistym oraz w budowie hurtowni danych Zrozumienie koncepcji data fabric, data mesh, data vault Umiejętność prowadzenia dyskusji projektowych i prezentowania decyzji architektonicznych Bardzo dobra znajomość języka angielskiego w mowie i piśmie. Mile widziana znajomość języka francuskiego na poziomie B1 Zakres obowiązków: Projektowanie, budowa i rozwój skalowalnych rozwiązań danych w środowisku GCP Implementacja procesów ETL/ELT oraz integracja danych z różnych źródeł Tworzenie i optymalizacja hurtowni danych oraz rozwiązań big data Projektowanie i wdrażanie strumieniowego przetwarzania danych w czasie rzeczywistym Utrzymanie, monitorowanie i optymalizacja istniejących pipeline'ów danych Udział w projektowaniu architektury danych oraz podejmowaniu decyzji technologicznych Współpraca z zespołami analitycznymi, biznesowymi i architektonicznymi w celu zrozumienia wymagań Zapewnienie wysokiej jakości danych, standardów bezpieczeństwa i zgodności z dobrymi praktykami Oferujemy: Współpraca w 100% zdalna, świadczenie usług na własnym sprzęcie Kontrakt B2B z Michael Page Współpraca długofalowa (pierwszy kontrakt na 6-12 miesięcy z dużą możliwością przedłużenia)
GCP Data Engineer
Lingaro
⚲ Warszawa
Wymagania
- GCP
- BigQuery
- SQL
- Python
Growth through diversity, equity, and inclusion. As an ethical business, we do what is right — including ensuring equal opportunities and fostering a safe, respectful workplace for each of us. We believe diversity fuels both personal and business growth. We're committed to building an inclusive community where all our people thrive regardless of their backgrounds, identities, or other personal characteristics. Tasks: • You will be a part of the team accountable for design, model and development of whole GCP data ecosystem for one of our Client’s (Cloud Storage, Cloud Functions, BigQuery). • Involvement throughout the whole process starting with the gathering, analyzing, modelling, and documenting business/technical requirements will be needed. The role will include direct contact with clients. • Modelling the data from various sources and technologies. Troubleshooting and supporting the most complex and high impact problems, to deliver new features and functionalities. • Designing and optimizing data storage architectures, including data lakes, data warehouses, or distributed file systems. Implementing techniques like partitioning, compression, or indexing to optimize data storage and retrieval. Identifying and resolving bottlenecks, tuning queries, and implementing caching strategies to enhance data retrieval speed and overall system efficiency. • Identifying and resolving issues related to data processing, storage, or infrastructure. Monitoring system performance, identifying anomalies, and conducting root cause analysis to ensure smooth and uninterrupted data operations. • Train and mentor less experienced data engineers, providing guidance and knowledge transfer. Must have: • At least 4 years of experience as a Data Engineer working with GCP cloud-based infrastructure & systems. • Deep knowledge of Google Cloud Platform and cloud computing services. • Extensive experience in design, build, and deploy data pipelines in the cloud, to ingest data from various sources like databases, APIs or streaming platforms. • Proficient in database management systems such as SQL (Big Query is a must), NoSQL. Candidate should be able to design, configure, and manage databases to ensure optimal performance and reliability. • Programming skills (SQL, Python, other scripting). • Proficient in data modeling techniques and database optimization. Knowledge of query optimization, indexing, and performance tuning is necessary for efficient data retrieval and processing. • Knowledge of at least one orchestration and scheduling tool (Airflow is a must). • Experience with data integration tools and techniques, such as ETL and ELT Candidate should be able to integrate data from multiple sources and transform it into a format that is suitable for analysis. • Knowledge of modern data transformation tools (such as DBT, Dataform). • Excellent communication skills to effectively collaborate with cross-functional teams, including data scientists, analysts, and business stakeholders. Ability to convey technical concepts to non-technical stakeholders in a clear and concise manner. • Ability to actively participate/lead discussions with clients to identify and assess concrete and ambitious avenues for improvement. • Tools knowledge: Git, Jira, Confluence, etc. • Open to learn new technologies and solutions. • Experience in multinational environment and distributed teams. Good to have: • Certifications in big data technologies or/and cloud platforms. • Experience with BI solutions (e.g. Looker, Power BI, Tableau). • Experience with ETL tools: e.g. Talend, Alteryx • Experience with Apache Spark, especially in GCP environment. • Experience with Databricks. • Experience with Azure cloud-based infrastructure & systems. Missing one or two of these qualifications? We still want to hear from you! If you bring a positive mindset, we'll provide an environment where you feel valued and empowered to learn and grow. We offer: • Stable employment. On the market since 2008, 1500+ talents currently on board in 7 global sites. • “Office as an option” model. You can choose to work remotely or in the office. • Workation. Enjoy working from inspiring locations in line with our workation policy. • Great Place to Work® certified employer. • Flexibility regarding working hours and your preferred form of contract. • Comprehensive online onboarding program with a “Buddy” from day 1. • Cooperation with top-tier engineers and experts. • Unlimited access to the Udemy learning platform from day 1. • Certificate training programs. Lingarians earn 500+ technology certificates yearly. • Upskilling support. Capability development programs, Competency Centers, knowledge sharing sessions, community webinars, 110+ training opportunities yearly. • Grow as we grow as a company. 76% of our managers are internal promotions. • A diverse, inclusive, and values-driven community. • Autonomy to choose the way you work. We trust your ideas. • Create our community together. Refer your friends to receive bonuses. • Activities to support your well-being and health. • Plenty of opportunities to donate to charities and support the environment. • Modern office equipment. Purchased for you or available to borrow, depending on your location.
GCP Data Engineer
Link Group
⚲ Remote
21 840 - 28 560 PLN (B2B)
Wymagania
- GCP
- Google cloud platform
- BI
- ETL
- Big data
- Spark
- Airflow
- dbt
- modern data warehousing
O projekcie: We are looking for a hands-on Data Engineer to build and maintain robust, scalable data solutions. Your primary focus will be developing complex data pipelines within the GCP ecosystem, ensuring high performance in both real-time and batch processing. You will work closely with architects to translate modern data strategies (like Data Mesh or Data Vault) into functional technical reality. Wymagania: - Professional Experience: 5+ years of hands-on experience in engineering complex, enterprise-grade data solutions. - GCP Expertise: Minimum 3 years of practical experience specifically within the Google Cloud Platform. - Tech Stack: Strong command of BI, ETL, and Big Data technologies (e.g., Spark, Airflow, dbt). - Data Design: Deep understanding of modern data warehousing, including real-time data flow and complex aggregations. Codzienne zadania: - Data Pipeline Development: Build, deploy, and optimize end-to-end ETL/ELT processes using GCP-native technologies (BigQuery, Dataflow, etc.). - Advanced Data Modeling: Implement sophisticated relational and Big Data structures tailored for high-volume environments. - Modern Architecture Implementation: Practically apply frameworks such as Data Fabric, Data Mesh, and Data Vault within the data platform. - Real-time Processing: Develop and maintain systems for stream processing and data warehousing aggregations to support instant analytics. - Technical Collaboration: Actively participate in design workshops, providing technical insights and ensuring the feasibility of architectural choices.
Forward Deployed AI Engineer (Sales / Backend) (German-speaking), Warszawa
Shelf
⚲ Warszawa
29 625 - 44 438 PLN (B2B)
Wymagania
- Python
- AI
- Data pipelines
- GCP
- Data science
- ETL
- Cloud
- AWS (nice to have)
- Azure (nice to have)
- ML (nice to have)
- Claude Code (nice to have)
- Cursor (nice to have)
- GitHub Copilot (nice to have)
- SaaS (nice to have)
- B2B SaaS (nice to have)
- Bachelor’s degree (nice to have)
O projekcie: What Shelf Offers: - Office in Warsaw, as occasional in-office presence will be required - Realistic, clearly communicated expectations - Team-wide aligned values and goals - Comprehensive healthcare package with the freedom to choose your preferred provider - Paid vacation, public holidays - Hardware: MacBook Pro. Job Description: The Sales Engineer will serve as a forward-deployed technical expert (FDE), directly engaging with enterprise customers and leading proof-of-value (POV) engagements. This role combines deep technical expertise in data modeling and ontology design with strong customer-facing skills and hands-on implementation capabilities. As a forward-deployed engineer, you will work closely with clients during intensive 3–5 day pilots, embedding within their teams to understand their data architectures, business challenges, and success criteria. You will be responsible not only for delivering high-quality technical solutions, but also for communicating clearly, building trust, and representing Shelf effectively from both a technical and business perspective. This role sits at the intersection of Sales Engineering, Backend Engineering, and Customer Success. We are looking for candidates who can seamlessly transition between building robust technical solutions and engaging confidently with stakeholders. The ability to translate complex technical concepts into business value is critical. You will design custom data models, configure reasoning agents, and rapidly iterate on solutions to demonstrate measurable impact. Working in close partnership with Account Executives and reporting to the Field CTO, you will take ownership of the technical evaluation phase and play a key role in converting prospects into customers. Beyond new customer acquisition, you will support expansion within existing accounts and collaborate closely with Engineering to develop reusable templates, best practices, and scalable solutions. The ideal candidate brings 5–10 years of experience across data platforms, backend systems, or data modeling, combined with strong communication and customer engagement skills. You are comfortable working independently in ambiguous environments, writing scripts, leveraging AI coding tools such as Claude Code, and delivering approximately 8–10 POVs per quarter. Experience with knowledge graphs, ontologies, or semantic technologies is highly preferred. What we are looking for: - Technical Depth - Strong data modeling, data platforms, and ETL/pipeline expertise; knowledge graphs and ontologies experience strongly preferred - Forward-Deployed Engineer - Comfortable operating independently with prospects, leading technical engagements with minimal supervision - Technical Problem Solver - Writes Python scripts, automates workflows, and leverages AI coding tools to rapidly build and iterate solutions during customer engagements - Customer-Facing Excellence - Exceptional communication skills with technical and business stakeholders; comfortable presenting and iterating with customers - Rapid Execution - Thrives in fast-paced 3-5 day pilot cycles; delivers value quickly and iterates based on feedback - Sales-Oriented Mindset - Understands enterprise sales cycles and is motivated by converting POVs to closed deals - Continuous Learner - Stays current with AI/GenAI trends, data technologies, and modern engineering practices About Shelf There is no AI Strategy without a Data Strategy. Getting GenAI to work is mission critical for most companies but 90% of AI projects haven't deployed. Why? We've helped some of the best brands like Amazon, Mayo Clinic, AmFam, and Nespresso solve their data issues and deploy their AI strategy with Day 1 ROI. Shelf is partnered with Microsoft, Salesforce, Snowflake, Databricks, OpenAI and other big tech players who are bringing GenAI to the enterprise. Our mission is to empower humanity with better answers everywhere. Wymagania: Requirements - 5+ years in technical pre-sales, data engineering, solutions architecture, or similar customer-facing technical roles - Strong expertise in data modeling, data platforms, and ETL/data pipelines - Proficiency in scripting and automation (Python preferred) - Hands-on experience with AI coding tools (Claude Code, Cursor, GitHub Copilot, etc.) - Deep understanding of enterprise data platforms and cloud architectures (AWS, Azure, GCP) - Proven track record in customer-facing technical roles with demonstrated sales impact - Strong English and German verbal and written communication Nice to have: - Experience with knowledge graphs, ontologies, or semantic technologies strongly preferred - Exceptional presentation and communication skills with technical and business audiences - Experience in B2B SaaS, AI/ML, or data quality solutions preferred - Bachelor's degree in Computer Science, Engineering, Data Science, or related field Success Metrics To be successful in this role, you should aim to achieve the following within the first 18 months: - POV Conversion Rate - Achieve 70%+ conversion rate from pilot to closed deal - POV Delivery Volume - Successfully deliver 8-10 high-quality POVs per quarter within 3-5 day timeframes - ARR Growth Contribution - Support overall company ARR growth through new customer acquisition and existing account expansion - Technical Quality - Consistently deliver well-designed ontologies and technical solutions that meet customer requirements Codzienne zadania: - Lead independent POV engagements with enterprise prospects, designing custom ontologies and configuring solutions within 3-5 day cycles - Conduct technical discovery and present solutions to Data Engineers, Enterprise Architects, and AI/ML Engineers - Support Account Executives throughout sales cycles with primary ownership during technical evaluation and POV phases - Work directly with Engineering on technical challenges and custom implementations during POVs - Continue engagement through deal closing and initial customer onboarding alongside Customer Success - Support existing customer expansion opportunities as part of land-and-expand strategy - Collaborate with Field CTO to build reusable ontology templates and POV best practices
Data and Reporting Developer
Mindbox Sp. z o.o.
⚲ Kraków
21 000 - 23 100 PLN (B2B)
Wymagania
- Data engineering
- SQL
- Relational database
- Google cloud platform
- Looker Studio
- Python
- T-SQL
- ETL
- Data modeling
- Data visualization
- Looker
- Qlik Sense
- Power BI
- Security
- PowerApps (nice to have)
- Alteryx (nice to have)
- Collibra (nice to have)
- DevOps (nice to have)
O projekcie: At Mindbox we connect top IT talents with technology projects for leading enterprises across Europe. We are looking for a Data and Reporting Developer to join the Data & Analytics Office (DAO) team. This role focuses on delivering data technology solutions, building data models, and creating reporting and visualization tools that support strategic decision-making across the organization. You will work with cutting-edge technologies, including Google Cloud Platform, BigQuery, Looker Studio, Qlik Sense, and Python, to design and implement secure, automated data pipelines and analytics solutions. Sounds like your kind of challenge? What you get in return - Flexible cooperation model – choose the form that suits you best (B2B, employment contract, etc.) - Hybrid work setup – remote days available depending on the client’s arrangements - Collaborative team culture – work alongside experienced professionals eager to share knowledge - Continuous development – access to training platforms and growth opportunities - Comprehensive benefits – including Interpolska Health Care, Multisport card, Warta Insurance, and more - High quality equipment – laptop and essential software provided Wymagania: - Proven experience in data engineering, reporting, and analytics development - Strong knowledge of SQL programming and relational database systems - Hands-on experience with Google Cloud Platform (BigQuery, Looker Studio) - Proficiency in Python and T-SQL - Familiarity with ETL tools, data modeling, and data lifecycle management - Experience with data visualization tools (Looker, Qlik Sense, Power BI) - Understanding of data governance, quality, and security principles - Excellent communication skills and ability to work in an Agile environment Nice to Have - Experience with PowerApps, Alteryx, Collibra - Knowledge of DevOps practices and automated deployment - Familiarity with data quality frameworks and monitoring tools Joining this project you’ll become part of Mindbox – a tech-driven company where consulting, engineering, and talent meet to build meaningful digital solutions. We’ll back you up every step of the way, accelerate your development, and ensure your skills make a difference. Codzienne zadania: - Develop and maintain data technology solutions for analytics and reporting - Build and optimize data models, data warehouses, and big data systems - Perform data ingestion, sourcing, aggregation, and feature engineering - Design and implement ETL processes and ensure secure data movement - Create and maintain data visualizations and dashboards in Looker Studio and other BI tools - Develop data pipelines and automated deployment processes - Implement data quality checks, monitoring, and alerting - Collaborate with data engineers, data scientists, and governance teams to improve data flows - Provide complex reporting solutions using Google Cloud and/or Microsoft SQL Server - Utilize Python, T-SQL, and other technologies for data processing and analytics - Document processes, create roadmaps, and maintain technical documentation - Identify and implement process improvements to enhance efficiency and quality
Data Engineer (Snowflake)
AVENGA (Agencja Pracy, nr KRAZ: 8448)
⚲ Remote
25 200 - 28 560 PLN (B2B)
Wymagania
- Python
- Data engineering
- Data modeling
- ETL
Wymagania: - 3+ years of experience in data engineering or data warehousing - Strong SQL skills - Hands-on experience with Snowflake - Understanding of data modeling (star schema, dimensional modeling) - Experience with ETL/ELT tools - Strong attention to detail and analytical thinking Codzienne zadania: - Design and maintain data models in Snowflake - Develop efficient SQL transformations and pipelines - Optimize query performance and data storage - Collaborate with analysts and business stakeholders - Ensure data integrity and governance standards - Support data warehousing best practices
Data Engineer
Link Group
⚲ Remote
20 160 - 25 200 PLN (B2B)
Wymagania
- Data engineering
- Azure Databricks
- Azure Functions
- Azure Event Hub
- ETL
- Python
- AI
O projekcie: What’s in it for you - Work on a modern Azure data stack with advanced analytics and AI-related use cases. - Own high-impact challenges in streaming, large-scale processing, and production integration. - Contribute to strategic initiatives with strong growth and innovation opportunities. Wymagania: - 3+ years of experience in Data Engineering or Software Engineering focused on data-intensive systems. - Hands-on experience with Azure Databricks, Azure Functions, and Azure Event Hubs. - Strong ETL/ELT pipeline development experience. - Strong Python programming skills. - Experience integrating APIs, analytics services, or LLM-based capabilities into pipelines. - Strong knowledge of distributed data processing, monitoring, resilience, and data quality. - Knowledge of Generative AI, RAG, and ML integration patterns. Nice to have - Experience integrating ML models or advanced analytics into production pipelines. - Familiarity with observability data formats such as metrics, traces, and logs. Codzienne zadania: - Build and optimize data pipelines supporting Custom Triage functionality. - Implement scalable ETL/ELT workflows for ingesting, transforming, and exposing processed data. - Integrate event-driven data sources with Azure-based processing environments. - Enable data consumption by platform services, analytics workloads, and AI-driven components. - Collaborate with architects and engineering teams to deliver reliable, scalable, and maintainable data solutions. - Improve observability, performance, resilience, and cost efficiency across the platform.
Data Engineer
AVENGA (Agencja Pracy, nr KRAZ: 8448)
⚲ Remote
25 200 - 28 560 PLN (B2B)
Wymagania
- SQL
- Git
- Python
- Data engineering
- pandas
- Spark (nice to have)
- Relational database (nice to have)
- Cloud platform (nice to have)
Wymagania: - 3+ years of experience in data engineering or backend development - Strong Python skills - Experience with data processing frameworks (e.g., Pandas, Spark is a plus) - Knowledge of SQL and relational databases - Familiarity with cloud platforms is a plus - Understanding of data pipeline concepts Codzienne zadania: - Build and maintain data pipelines and processing frameworks - Develop ETL/ELT processes using Python - Ensure data quality, reliability, and scalability - Collaborate with cross-functional teams to understand data needs - Optimize data workflows and performance - Support data integration from multiple sources
Data Engineer
Scalo
⚲ Warszawa
21 840 - 23 520 PLN (B2B)
Wymagania
- Big Data
- Spark
- Python
- R
- JSON
- Hive
- Kudu
- HBase
- SQL
- Jira
- Confluence
- Kanban
- Kubeflow (nice to have)
- CI/CD (nice to have)
O projekcie: Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Co dla Ciebie mamy: - Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt - Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych - Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób - Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort - Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci - Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Wymagania: Ta oferta jest dla Ciebie, jeśli: - masz minimum 3 lata doświadczenia na stanowisku Big Data Developer, - posiadasz wiedzę z zakresu Big Data, Hurtowni Danych i Zarządzania Danymi, - masz minimum 2-3 lata doświadczenia w programowaniu procesów Spark w Pythonie (lub Scali), - pracowałeś(-aś) z różnymi formatami danych: JSON, PARQUET, ORC, AVRO, - rozumiesz typy baz danych i scenariusze ich użycia (np. Hive, Kudu, HBase), - znasz SQL, - masz doświadczenie w integracji danych z wielu źródeł, - posiadasz praktyczną znajomość procesów i narzędzi Agile (Jira, Confluence, Kanban, Scrum) – mile widziane, - stosujesz dobre praktyki przetwarzania dużych zbiorów danych, w tym standardy kodowania, dokumentowania, testowania i wdrażania – mile widziane, - znasz platformę Kubeflow i masz praktyczne doświadczenie w automatyzacji CI/CD – mile widziane. Codzienne zadania: - uczestnictwo w projekcie dot. branży bankowej, - projektowanie architektury i wdrażanie nowoczesnych systemów przetwarzania danych w obszarze Big Data, - dbanie o wysoką jakość procesu rozwojowo-wdrożeniowego, - dbanie o wysoką jakość dokumentacji technicznej, - poszukiwanie nowych rozwiązań oraz ich implementację (R&D), - współpraca z innymi zespołami w celu wsparcia developmentu, - praca w modelu hybrydowym: 2 razy w miesiącu w biurze w Warszawie, - stawka do 140 zł/h przy B2B w zależności od doświadczenia.
Data Analyst
Santander Bank Polska
⚲ Poznań, Grunwald, Warszawa, Wola, Wrocław, Stare Miasto
Wymagania
- SQL
- Python
Nasze wymagania: masz minimum 4 lata doświadczenia w analizie danych (finanse, sprzedaż, ryzyko kredytowe, CRM, marketing), potrafisz myśleć analitycznie i rozwiązywać problemy, bardzo dobrze znasz SQL, swobodnie posługujesz się Excelem, chcesz nauczyć się Pythona, VBA lub Power BI – jeśli już je znasz, to dodatkowy atut, umiesz jasno przedstawiać zagadnienia techniczne dla biznesu, jesteś otwarty(-a) na rozwój – zarówno indywidualny, jak i zespołowy. O projekcie: prowadzenie zaawansowanych analiz danych, przygotowywanie rekomendacji biznesowych oraz wdrażanie rozwiązań optymalizujących procesy i wspierających rozwój organizacji poprzez współpracę z różnymi zespołami oraz wykorzystanie narzędzi analitycznych i nowoczesnych technologii. Zakres obowiązków: wyszukiwanie i pozyskiwanie informacji oraz tworzenie skutecznych zapytań SQL, analizowanie danych i wyciąganie wniosków zmieniających sposób działania firmy, wizualizowanie kluczowych informacji — tworzenie wykresów mówiących więcej niż długa prezentacja, współpraca z zespołami finansów, ryzyka kredytowego, CRM, eCommerce i z biznesem, tworzenie business case’ów i prognoz sprzedażowych dla nowych rozwiązań IT i procesowych, udział w planowaniu i monitorowaniu budżetów sprzedażowych produktów kredytowych, automatyzacja analiz i optymalizacja procesów — bo cenimy Twój czas i pomysły. Oferujemy: umowę o pracę (pierwszą na 12 miesięcy), pracę w trybie hybrydowym w (lokalizacja na początku oferty), prywatną opiekę medyczną Medicover (z możliwością wykupienia pakietu stomatologicznego), system kafeteryjny z punktami do wymiany na aktywności, np. wypoczynkowe, kulturalne, gastronomiczne lub dofinansowanie do przedszkola/żłobka/klubu dziecięcego, kartę Multisport, ofertę produktową banku oraz pożyczki na pracowniczych warunkach, aktywności wellbeingowe, np. Kluby Zainteresowań, webinary, ćwiczenia, podcasty; inicjatywy w biurach np. mammobus, profilaktyczne badanie wzroku, warsztaty z samoobrony, wyprawkę dla dzieci, benefity dla osób z niepełnosprawnościami: dodatek finansowy na cele prozdrowotne, dodatkowe 2 dni urlopu dla pracowników z lekkim stopniem niepełnosprawności, całkowita praca zdalna, jeśli charakter pracy na to pozwala, platformę ze szkoleniami zewnętrznymi i wewnętrznymi – np. programowanie czy analiza danych lub komunikacja, podejście strategiczne, negocjacje i inne, program poleceń pracowniczych – nagrodę pieniężną za polecenie osoby do pracy w banku.
Cyber Security Analyst
Intertek Poland Sp. z o.o.
⚲ Warszawa
Wymagania
- Application Security Risks
- SQL
- Web security
- CCNA
- CompTIASecurity+
Nasze wymagania: Bachelor’s degree required; Master’s degree desired Experience in security event analysis Good knowledge of IT security controls Knowledge of Application Security Risks (e.g. Open Web Application Security Project Top 10 list) and exploitation techniques Web security knowledge (e.g. web protocols, authentication and session management mechanisms) Knowledge of the basics of network security (e.g., encryption, firewalls, proxies, authentication, honey pots, perimeter protection) Knowledge of authentication, authorization, and access control methods Knowledge of cyber defence and vulnerability assessment tools and their capabilities Knowledge of cyber-attack stages (e.g., reconnaissance, scanning, enumeration, gaining access, escalation of privileges, maintaining access, network exploitation, covering tracks) Knowledge of incident response and handling methodologies Knowledge of cybersecurity and privacy principles Skill in collecting data from a variety of cyber defence resources Skill in using incident handling methodologies Skill in recognising and categorizing types of vulnerabilities and associated attacks Ability to apply techniques for detecting host and network-based intrusions using intrusion detection technologies Ability to apply cybersecurity and privacy principles to organizational requirements (relevant to confidentiality, integrity, availability, authentication, non-repudiation) Mile widziane: Experience with web security solutions desired One of industry certifications: CCNA, CompTIASecurity+ or an industry recognized incident response certification is an advantage O projekcie: Local, regional and global remit Context within cyber security architecture and risk management frameworks Zakres obowiązków: Perform security event analysis as part of the daily responsibilities Take part in the incident response activities within the region Support the web, network and email security solutions during the EMEA shift Become an expert in managing security technologies and participate in incident response process Help structure the analysis model and incident response process Monitoring and effective analysis of security events to identify anomalous activities and potential threats to organization resources Continuous, active monitoring of global systems and cyber defense tools to identify incidents Monitoring security alerts from web security platforms and managing user‑reported issues caused by web security controls Supporting the maintenance of the cybersecurity technology stack in this domain Documenting and escalating incidents that may cause ongoing and immediate impact to the environment Coordinating incident response functions and providing expert technical assistance to resolve incidents Supporting best-in-class security technologies and cooperating with technology vendors Contributing to vulnerability management activities, including cooperation with stakeholders to resolve vulnerability compliance issues Participating in SOC process improvement initiatives Assessing adequate access controls based on principles of least privilege and need-to-know Providing technical summary of findings in accordance with established reporting procedures Oferujemy: Access to best-in-class security training platform Eligibility for security certification on a regular basis Support hours: 40 hours (9-17) / 5 days per week Medicover Multisport
Business Analyst / Data Analyst (0,5 FTE)
AVENGA (Agencja Pracy, nr KRAZ: 8448)
⚲ Remote
21 840 - 26 880 PLN (B2B)
Wymagania
- SQL
- Business Analyst
- Data visualization
- Power BI
- Tableau
Wymagania: - 3+ years of experience as a Business Analyst or Data Analyst - Strong analytical and problem-solving skills - Proficiency in SQL - Experience with data visualization tools (e.g., Power BI, Tableau) - Excellent communication and stakeholder management skills - Ability to translate complex data into actionable insights Codzienne zadania: - Gather and analyze business and data requirements - Translate business needs into technical specifications - Work closely with stakeholders to define data use cases - Perform data analysis and create reports/dashboards - Support data-driven decision-making - Ensure alignment between business and technical teams
Big Data Engineer
KUBO
⚲ Gdańsk
160 - 190 PLN/h netto (B2B)
Wymagania
- CI/CD
- Azure Databricks
- Spark
- Kafka
- Java
- Python
For a client, one of the most recognizable airlines in the world, we are looking for a Big Data Engineer. The person in this role will be involved in working with large volumes of data, including data modeling, data integrations, and ensuring data quality. Key responsibilities • Designing and implementing robust ETL/ELT pipelines • Implementing efficient Spark/PySpark transformations, managing schemas and Delta Lake versioning • Integrating streaming and batch data sources • Implementing data quality control frameworks, monitoring, schema validation, and test suites • Collaborating on data modeling and metadata management • Working with technical documentation Ideal candidate profile • Minimum 7 years of professional experience in data engineering, building large-scale data pipelines, or related roles • Strong knowledge of Azure Databricks, Spark (PySpark and/or Scala), and Delta Lake. • Experience with ADLS Gen2, data ingestion patterns, and streaming technologies. • Experience with streaming technologies such as Event Hubs and Kafka. • Knowledge of CI/CD for data artifacts and deployment practices in Databricks. • Experience in Python and/or Java, using test-driven development (TDD). Nice to have: • Experience with tools such as Unity Catalog, Purview, or other metadata management and governance systems. • Knowledge of Apache Beam or other data processing frameworks. • Databricks or Azure Data Engineering certifications. Conditions • Working mode: Remote • Form of cooperation: B2B • Duration: long-term cooperation • Salary depends on your experience (160-190 PLN net/h) • Benefits: private medical care, life insurance, sport card Recruitment steps • Screening call with Recruiter (30 min.) • Technical interview with Client • Decision and feedback
Azure Data Cloud Engineer
Verita HR
⚲ Remote
18 000 - 22 000 PLN (B2B)
Wymagania
- Azure
- SQL
- Python
- ETL
- Data engineering
- Azure Data Factory
- Azure Databricks
O projekcie: 📍 Client: european bank 🗣️ Recruitment: phone screen with our recruiter + 2 on-line meetings with hiring managers 🗺️ Remote work with availability within Central European Time (CET) Verita HR is an international company providing recruitment support within #Fintech, #Finance and #Banking market in EMEA. We connect the most innovative organizations with the best people in the market. We conduct systematic market research, which allows our Digital Teams to be a step ahead of the competition. This role sits at the heart of a large digital transformation within a European banking institution. Data is treated as a real business asset, not an afterthought. As a Data Engineer, you will help build and run a modern data platform that supports analytics, reporting, and business decision-making across the organization. You will work on a mix of cloud-based and on-prem solutions, focusing on reliable data pipelines, data quality, and scalable data processing. What's in it for you: - Exciting role at a leading European bank - 6 months assignment, B2B contract (with option to extend) - Fully remote role with availability within Central European Time (CET) - Working with cutting-edge IT technologies - Personal growth and development opportunities Wymagania: - 2+ years of hands-on experience as a Data Engineer in cloud environments - SQL skills - Practical experience with Python in data engineering use cases - Experience with Azure Data Factory and Databricks - Good understanding of data pipelines, ETL/ELT and data lifecycle - Ability to communicate clearly with both technical and non-technical stakeholders - Experience working in Agile teams - Cost awareness when designing data solutions - Curiosity and willingness to learn continuously Tech stack you will use: - SQL for data processing and analytics - Python for transformations and data quality logic - Azure Data Factory for ingestion (1-to-1 pipelines) - Databricks for transformations and data quality implementation - Azure-based data platform services - Git or similar source code management tools - CLI environments (bash, PowerShell) Codzienne zadania: - Building and maintaining end-to-end data pipelines - Ingesting data from multiple sources (structured, semi-structured, unstructured) - Transforming raw data into clean, usable data sets - Implementing data quality rules and validation logic - Serving data to business users, analysts, and internal applications - Managing storage as a core foundation of the data platform - Working closely with technical and non-technical stakeholders - Operating in Agile, DataOps and DevOps environments
Sr Data Architect - Commercial
Bayer Sp. z o.o.
⚲ Warszawa
20 240 - 25 300 PLN brutto (UoP)
Wymagania
- Azure
- Databricks
Sr Data Architect - Commercial For Digital Hub Warsaw, we are looking for: Senior Data Architect The Data Assets,Analytics & AI department at Bayer Consumer Health focuses on enabling digital transformation by creating best in class analytical solutions, enabling data-driven decision making and performance optimization for Bayer’s Consumer Health organization. You will be part of the global data assets, analytics and AI platform and responsible to technically guide projects in the area of Data & Analytics. You partner with business stakeholders, data scientists, analytics leads, data & platform architects and engineers as well as implementation partners/vendors and are the technical lead for scalable Core Data Assets / Data Products. You ensure proper data management, data ingestion, data pipeline orchestration as well as serving of data for analysts. If you are interested in joining a young and dynamic team driving the digital transformation of Bayer Consumer Health, we would like to hear from you. Key Tasks & Responsibilities: • Own & lead technical implementation and management of well-integrated, enriched, and re-usable data models and analytics products. • Collect and manage data requirements of data consumers, translate them into technical concepts considering re-usability & cost efficiency, and partner with data providers • Ensure that best-practice data management and quality assurance processes are defined and applied and continuously enhance implementation frameworks based on the needs. • Collaborate with other data architects (e.g. responsible for Commercial or Core Data Assets), analytics leads, data scientists in order to reuse data and ensure sustainable pipelines and analytical products are built. • Collaborate with business functions (global & regional business stakeholders) and other IT teams (core data asset architects, analytics teams, data science teams, platform product managers & integration architects) to ensure delivery in line with value, business priorities and IT objectives. • Lead the integration of different data sources in order to develop globally harmonized data models & KPIs meeting the market requirements • Steer delivery teams, mainly data and bi engineers (internal and external), provide cost and time estimations, challenge effort estimations and assure high quality delivery & proper testing of delivery teams as well as vendor implementations & proper handover to support. • Contribute to best-practice exchange in our data architecture chapter, contribute to the continuous enhancement of data analytics technology stack by providing feedback and explaining requirements of projects in your responsibility. Qualifications & Competencies (education, skills, experience): • Bachelor/Master degree in Computer Science, Engineering, or similar • 5+ years' working experience in the field of Data & Analytics, preferably in the CPG industry. • Excellent data architecture & technology knowledge and data engineering skills in spark-based data processing solutions (tech stack: Azure Data Factory, Azure Databricks, SQL, Python, Snowflake is nice to have). • Proficient in data modeling techniques with a strong capability to mentor and support data engineers in best practices and implementation strategies. • Profound knowledge in reporting solutions such as Tableau or PowerBI, and data management knowhow (data cataloguing, data quality management, data compliance management) • Profound in GitHub ecosystem including the VCS, GitHub Actions for CI/CD and working with tickets/issues and pull requests. Understanding of Azure Dev/ops is a plus. Experience in delivering data as a product and in leading data engineering teams. • Knowhow about data from commercial domains (CRM, eComm, Sell-Out etc.) • Experience in applying Agile methodologies (Scrum, Kanban). • Strong problem solving and analytical skills, combined with impeccable business judgement. Interpersonal and communication skills, active listening, consulting and presentation skills • Fluent in English, both written & spoken, intercultural awareness (Europe, US, India) and willingness to travel occasionally What do We offer: • A flexible, remote-hybrid work model • Great workplace in a new modern office in Warsaw • Career development, 360° Feedback & Mentoring programme • Wide access to professional development tools, trainings, & conferences • Company Bonus & Reward Structure • VIP Medical Care Package (including Dental & Mental health) • Holiday allowance (“Wczasy pod gruszą”) • Life & Travel Insurance • Pension plan • Co-financed sport card - FitProfit • Meals Subsidy in Office • Budget for Home Office Setup & Maintenance • Access to Company Game Room equipped with table tennis, soccer table, Sony PlayStation 5 and Xbox Series X consoles setup with premium game passes, and massage chairs • Tailored-made support in relocation to Warsaw when needed • Please send your CV in English WORK LOCATION: WARSAW AL. JEROZOLIMSKIE 158
Sr Data Architect - Commercial
Bayer
⚲ Warszawa
20 000 - 28 000 PLN (PERMANENT)
Wymagania
- Python
- Azure Data Factory
- Azure Cloud
- Databricks
O projekcie: For Digital Hub Warsaw, we are looking for: Senior Data Architect The Data Assets,Analytics & AI department at Bayer Consumer Health focuses on enabling digital transformation by creating best in class analytical solutions, enabling data-driven decision making and performance optimization for Bayer’s Consumer Health organization. You will be part of the global data assets, analytics and AI platform and responsible to technically guide projects in the area of Data & Analytics. You partner with business stakeholders, data scientists, analytics leads, data & platform architects and engineers as well as implementation partners/vendors and are the technical lead for scalable Core Data Assets / Data Products. You ensure proper data management, data ingestion, data pipeline orchestration as well as serving of data for analysts. If you are interested in joining a young and dynamic team driving the digital transformation of Bayer Consumer Health, we would like to hear from you. Wymagania: Qualifications & Competencies (education, skills, experience): - Bachelor/Master degree in Computer Science, Engineering, or similar - 5+ years' working experience in the field of Data & Analytics, preferably in the CPG industry. - Excellent data architecture & technology knowledge and data engineering skills in spark-based data processing solutions (tech stack: Azure Data Factory, Azure Databricks, SQL, Python, Snowflake is nice to have). - Proficient in data modeling techniques with a strong capability to mentor and support data engineers in best practices and implementation strategies. - Profound knowledge in reporting solutions such as Tableau or PowerBI, and data management knowhow (data cataloguing, data quality management, data compliance management) - Profound in GitHub ecosystem including the VCS, GitHub Actions for CI/CD and working with tickets/issues and pull requests. Understanding of Azure Dev/ops is a plus. Experience in delivering data as a product and in leading data engineering teams. - Knowhow about data from commercial domains (CRM, eComm, Sell-Out etc.) - Experience in applying Agile methodologies (Scrum, Kanban). - Strong problem solving and analytical skills, combined with impeccable business judgement. Interpersonal and communication skills, active listening, consulting and presentation skills - Fluent in English, both written & spoken, intercultural awareness (Europe, US, India) and willingness to travel occasionally Codzienne zadania: - Own & lead technical implementation and management of well-integrated, enriched, and re-usable data models and analytics products. - Collect and manage data requirements of data consumers, translate them into technical concepts considering re-usability & cost efficiency, and partner with data providers - Ensure that best-practice data management and quality assurance processes are defined and applied and continuously enhance implementation frameworks based on the needs. - Collaborate with other data architects (e.g. responsible for Commercial or Core Data Assets), analytics leads, data scientists in order to reuse data and ensure sustainable pipelines and analytical products are built. - Collaborate with business functions (global & regional business stakeholders) and other IT teams (core data asset architects, analytics teams, data science teams, platform product managers & integration architects) to ensure delivery in line with value, business priorities and IT objectives. - Lead the integration of different data sources in order to develop globally harmonized data models & KPIs meeting the market requirements - Steer delivery teams, mainly data and bi engineers (internal and external), provide cost and time estimations, challenge effort estimations and assure high quality delivery & proper testing of delivery teams as well as vendor implementations & proper handover to support. - Contribute to best-practice exchange in our data architecture chapter, contribute to the continuous enhancement of data analytics technology stack by providing feedback and explaining requirements of projects in your responsibility.
Specjalista/Specjalistka ds. Bezpieczeństwa IT (LUX MED Benefity)
LUX MED Sp. z o.o.
⚲ Warszawa, Mokotów
Wymagania
- SQL
- RDBMS
- Python
- Bash
- AWS
- Linux
- Confluence
- Jira
Nasze wymagania: Wykształcenie wyższe z zakresu informatyki, bezpieczeństwa informacji lub pokrewne; Minimum 5 lat doświadczenia na podobnym stanowisku; Znajomość przepisów RODO oraz innych regulacji dotyczących ochrony danych osobowych; Doświadczenie w monitorowaniu bezpieczeństwa IT oraz reagowaniu na incydenty; Znajomość narzędzi SIEM, IDS/IPS, EDR; Umiejętność analizy logów systemowych; Doświadczenie w prowadzeniu szkoleń z zakresu bezpieczeństwa IT; Umiejętność pracy w zespole oraz komunikatywność; Znajomość języka angielskiego na poziomie komunikatywnym; Znajomość technologii i narzędzi: SQL, RDBMS, Python, Bash, AWS, Azure, Linux, Confluence, Jira. O projekcie: Do rozwijającego się zespołu poszukujemy specjalisty ds. bezpieczeństwa IT. Osoba na tym stanowisku będzie odpowiedzialna za monitorowanie bezpieczeństwa IT, zapewnienie zgodności z regulacjami dotyczącymi ochrony danych oraz zarządzanie ryzykiem. Główne zadania obejmują audyt procesów przetwarzania danych, szkolenie pracowników, analizę logów, reagowanie na incydenty oraz optymalizację środowisk IT przy użyciu zaawansowanych technologii i narzędzi. Idealny kandydat posiada doświadczenie w pracy z różnorodnymi technologiami i narzędziami IT, wiedzę z zakresu audytu i kontroli oraz umiejętność współpracy z biznesem i pracy w dynamicznym środowisku. Zakres obowiązków: Rozumienie zagadnień związanych z bezpieczeństwem IT i ochroną informacji, standardów i dobrych praktyk w zakresie realizacji audytu i kontroli IT, ról, grup i SoD; Doświadczenie w projektowaniu i wdrażaniu polityki bezpieczeństwa IT; Zarządzanie narzędziami do monitorowania bezpieczeństwa (SIEM, IDS/IPS, EDR); Monitorowanie systemów IT w celu wykrywania i analizowania incydentów bezpieczeństwa; Analiza logów systemowych, aplikacyjnych oraz sieciowych pod kątem podejrzanych działań przy użyciu SQL, Python, inne; Optymalizacja kodów i przepływów danych w celu poprawy bezpieczeństwa przy użyciu narzędzi takich jak GitHub, BitBucket; Współpraca z zespołami IT oraz zewnętrznymi dostawcami w celu rozwiązania incydentów; Tworzenie i wdrażanie skryptów automatyzujących procesy reagowania na incydenty w Python; Monitorowanie i wdrażanie polityk oraz procedur ochrony danych osobowych zgodnie z RODO (GDPR) oraz innymi przepisami prawnymi; Przygotowywanie i prowadzenie szkoleń z zakresu ochrony danych osobowych oraz bezpieczeństwa IT dla pracowników; Opracowywanie materiałów edukacyjnych i kampanii zwiększających świadomość bezpieczeństwa w organizacji; Identyfikacja i ocena ryzyk związanych z bezpieczeństwem danych oraz IT; Konsultowanie projektów IT pod kątem wymogów bezpieczeństwa i ochrony danych; Optymalizacja środowisk i hurtowni danych pod kątem redukcji kosztów i efektywności przy użyciu narzędzi takich jak, AWS, Azure. Oferujemy: Stabilne zatrudnienie w oparciu o umowę o pracę. Atrakcyjne wynagrodzenie oraz pakiet benefitów (dofinansowanie zajęć sportowych, prywatna opieka medyczna, dofinansowanie nauki języków, dofinansowanie szkoleń i kursów, ubezpieczenie na życie, możliwość pracy zdalnej, elastyczny czas pracy) Możliwość rozwoju zawodowego i udziału w szkoleniach. Pracę w dynamicznie rozwijającej się firmie z branży ubezpieczeniowej. Przyjazne środowisko pracy.
Specjalista / Specjalistka ds. systemów MES i WMS (M/K/N)
Polipak Sp. z o.o.
⚲ Środa Wielkopolska
Wymagania
- WMS
- MES
- APS
- SAP
- SQL
Nasze wymagania: wykształcenie wyższe (minimum licencjat) na kierunku informatyka lub pokrewnym, minimum 3 lata doświadczenia w zarządzaniu i administracji systemami klasy WMS, praktyczna znajomość języka MS SQL oraz doświadczenie w pracy z bazami danych, minimum 3 lata doświadczenia na podobnym stanowisku w środowisku produkcyjnym, znajomość języka angielskiego na poziomie umożliwiającym swobodne czytanie dokumentacji oraz swobodną komunikację, znajomość systemów Siemens Opcenter (MES, APS) będzie stanowiła dodatkowy atut, dobra organizacja pracy oraz umiejętność pracy wielozadaniowej, dbałość o szczegóły, analityczne myślenie i umiejętność rozwiązywania problemów, otwartość na naukę oraz zrozumienie potrzeb biznesowych, umiejętność pracy zespołowej i współpracy. Zakres obowiązków: projektowanie, wdrażanie i utrzymanie systemów WMS, MES, APS, w tym wsparcie dla użytkowników, podstawowe wsparcie i zarządzanie drukarkami termicznymi oraz terminalami RF, administracja systemów WMS, MES, APS, administracja (podstawowy) baz danych MS SQL, monitorowanie i utrzymanie interfejsów między wymienionymi systemami a ERP (SAP, ECC & S4), współpraca z dostawcami oprogramowania oraz użytkownikami biznesowymi wymienionych systemów, zarządzanie projektami aktualizacji lub rozwoju funkcji dla wymienionych systemów. Oferujemy: praca w stabilnej firmie w oparciu o umowę o pracę z nastawieniem na długofalową współpracę, możliwość dalszego rozwoju zawodowego, możliwość awansu zawodowego, hybrydowy model pracy, który wspiera elastyczność i równowagę między życiem zawodowym a prywatnym, przyjemne, nowoczesne środowisko pracy, które sprzyja kreatywności i współpracy, udział w międzynarodowych projektach.
Senior Database Engineer
Link Group
⚲ Warszawa
30 000 - 40 000 PLN (B2B)
Wymagania
- Python
- SQL
- PostgreSQL
- Snowflake
- Redis
- ClickHouse
- Data base production
- Docker (nice to have)
- Kubernetes (nice to have)
- Terraform (nice to have)
- CI/CD (nice to have)
- Data pipelines (nice to have)
O projekcie: Senior Database Engineer We’re looking for an engineer who can automate database operations, build internal tools, and improve the developer experience across multiple data platforms. Wymagania: - Strong Python skills. - Experience administering SQL Server or PostgreSQL. - Knowledge of at least two additional technologies (e.g., Snowflake, Redis, ClickHouse). - 5+ years working with databases in production. - Platform and automation mindset; customer-oriented approach. - Collaborative, proactive, and eager to learn. Nice to Have - Experience with internal platform or developer tooling. - Familiarity with Docker, Kubernetes, Terraform, CI/CD, or observability tools. - Exposure to data pipelines or high-pressure environments. Codzienne zadania: - Build Python-based automation and tooling for database provisioning and deployments. - Develop monitoring and management capabilities for various database technologies. - Create self-service solutions that simplify work for application teams. - Automate operational tasks such as failovers and capacity management. - Participate in an on-call rotation and help keep the platform reliable.
Senior Data Engineer (MLOps)
Harvey Nash Technology
⚲ Warszawa
26 880 - 30 240 PLN (B2B)
Wymagania
- MLOps
- Azure Databricks
- Security (nice to have)
- Access (nice to have)
- Terraform (nice to have)
- IaC (nice to have)
O projekcie: Location: Remote, Poland Contract Type: B2B till august (potential extension) Salary: 160-180zl/hour Wymagania: - Strong experience as a Senior Data Engineer with solid MLOps background. - Hands-on expertise with Azure Databricks (Workflows, Delta Lake, Unity Catalog). - Proficiency in PySpark, SQL Warehouses, and production-grade pipeline development. - Experience with CI/CD (GitHub Actions or Azure DevOps). - Familiarity with monitoring tools (Lakeview, Grafana) and ML observability concepts. - Knowledge of data quality, drift detection, and ML monitoring practices. - Understanding of security, access management, and compliance in data/ML ecosystems. - Experience with Terraform or similar IaC tools. Codzienne zadania: - Design and maintain end-to-end data & ML pipelines on Azure Databricks (Workflows, Delta Lake, Unity Catalog). - Build reproducible training and deployment workflows integrated with experiment tracking, model registry, and artifact management. - Implement data quality frameworks and observability metrics; create and maintain dashboards (Lakeview, Grafana, or similar). - Automate data ingestion and feature pipelines using PySpark, SQL Warehouses, and Databricks Asset Bundles (DAB) within CI/CD (GitHub Actions or Azure DevOps). - Manage security, access control, and compliance in data and ML environments. - Optimize compute performance and cost (autoscaling, spot instances, caching, partitioning). - Develop automated evaluation and validation pipelines triggered by new telemetry data, ensuring reproducibility and traceability. - Maintain continuous model and data monitoring (drift, feature stability, prediction quality). - Ensure environment consistency and dependency management using Infrastructure as Code and containerization (Terraform)
Senior Data Engineer
G2A
⚲ Warszawa
Wymagania
- Google Cloud Platform
- ETL
- DBT
- BigQuery
- Atlassian
- Apache Airflow
- Python
G2A.COM is the world's largest marketplace for digital entertainment. On our platform, over 35 million people from 180 countries have already purchased more than 145 million digital items. Why? Sellers from all over the world present a rich offering of over 125,000 digital codes for games, software, gift cards, subscriptions, DLCs, in-game items, and various digital entertainment. We are a safe marketplace, where sellers guarantee instant delivery. What else sets us apart? G2A.COM is a place co-created by a team of around 400 exceptional experts representing 10 nationalities. Most of us work in a hybrid model, some remotely, or on-site in a chosen location. Our R&D center is in Rzeszow, we also have offices in Warsaw and Krakow. The company's main headquarters are in Hong Kong, with the central office in Amsterdam. We address each other by our first name, we are supportive, and we share knowledge. We operate based on DEI values – Diversity, Equity, and Inclusion and provide extensive development opportunities – in 2025, we delivered approximately 86 development and wellbeing events. We work in a dynamically changing environment, continuously implementing and utilizing the latest technologies such as artificial intelligence (AI) or augmented reality (AR). Our mission is to seek new opportunities, pursue continuous growth, and deliver engaging entertainment. G2A’s vision is to build and strengthen its position as a leader in the digital industry by creating a comprehensive, integrated digital ecosystem based on innovative technologies and cutting-edge cybersecurity solutions. As part of our “First in Digital, Digital First” strategy, we emphasize the balance between being external innovators and internal drivers of progress—leading digital transformation while simultaneously developing people to thrive in an ever-changing environment. This approach allows us to shape a future where technology and human potential go hand in hand, delivering exceptional results and driving sustainable growth. We regularly check job satisfaction. According to the latest survey, as many as 96% of people trust themselves and support one another, 97% appreciate teamwork, and 83% highly value managerial support. The average tenure at G2A.COM is an impressive 5 years. This is simply a place where people want to be. We place particular emphasis on maintaining a healthy work–life balance, as well as on the value of Deliver Value – providing value to the user, the company, oneself, and the people we work or collaborate with. By joining us, you will have the opportunity to collaborate and create projects with international brands such as Google, PayPal, Amazon, VISA, Mastercard, PayU, EY, Synerise, Modivo, Empik, and Microsoft. We think and act globally, and in our daily work, we are guided by analysis and data, although intuition and experience-based insights are also considered a significant asset. We invite you to join us on the journey of co-creating Gate2Adventure – the gateway to the world of digital entertainment. We’re waiting for you! Join us as a Senior Data Engineer and become part of the expert Data & Tools team, which is the heart of our data warehouse. Your role will involve maintaining, developing, and ensuring the performance of a data warehouse based on Google Cloud Platform, as well as creating and optimizing ETL (Extract, Transform, Load) processes that support effective data management within the organization. You will ensure high data quality by ensuring precision, consistency, and reliability, including through monitoring and implementing appropriate control mechanisms. A key aspect of your role will be to develop existing solutions by implementing modern technologies that support the achievement of business goals. Your responsibilities will include keeping up with the latest trends and best practices in BI and data engineering. We are counting on your extensive experience in implementing innovative solutions that improve analytical systems and processes, increasing their efficiency. You will be working on ambitious projects, using modern technologies, and have unlimited opportunities to expand your skills and competencies. By working with us, you will have the chance to use advanced tools such as Apache Airflow, and dbt. If you'd like to join a team with a great atmosphere, where people enjoy their work, emphasize collaboration, and share knowledge, you've come to the right place – we invite you to apply 😊 Additionally, we offer you flexibility in your work – you can work hybrid or remotely. You will also have access to advanced analytical tools and full technical support. Furthermore, we care about work-life balance, competency development, and engage in charitable initiatives. On top of that, we provide benefits such as a welcome pack, Motivizer vouchers, medical care, a MultiSport card, and discounts on the G2A.COM sales platform. Your responsibilities: • Develop and maintain data warehouses (BigQuery, Google Cloud Platform) • Design, develop, and maintain ETL/ELT data pipelines • Ensure high data quality, reliability, and performance optimization • Take strong ownership of data solutions end to end • Stay up to date with the latest trends and best practices in data engineering, BI, and data warehousing, and proactively introduce improvements • Support and collaborate with other team members by sharing knowledge, best practices, and technical guidance You're a perfect match for the role, if: • You have a minimum of 5 years of experience in a similar role • You have advanced SQL skills backed by experience working with BigQuery • You have experience with Python programming • You have experience in Google Cloud environment • You have experience in creating and maintaining ETL/ELT processes • You have practical knowledge of data warehouse architectures and data modeling • Experience with Apache Airflow • Experience with DBT (Data Build Tool) • Your English language skills are at least at a B2 level, both spoken and written • You possess excellent communication skills and the ability to work in a team • You're detail-oriented and able to work under time pressure • You take ownership of your responsibilities and demonstrate sound decision-making Additional advantage: • Experience with Atlassian Why joining us worth it? • You can choose hybrid or even fully remote work • You'll receive the tools necessary for your work, such as a laptop or/ and a phone • We can provide your home office with ergonomic furniture and electronic devices, such as: footrests, exercise balls, chairs and lumbar supports, monitors, mousepads, laptop docking stations, mice, keyboards, and headphones • We care about the work-life balance and wellbeing of our team • We provide opportunities for you to turn your ideas into reality and we appreciate such initiatives • We support skill and knowledge development via internal and external trainings • We work according to the values of DEI: Diversity, Equity & Inclusion • We support grassroots initiatives and charities • We offer valuable benefits, such as the welcome pack, Motivizer vouchers (220 points/PLN employees can spend on a variety of services and products from known brands available on the platform), private health care, MultiSport card, the opportunity to participate in internal and external trainings and industry conferences, and many more • You will receive discount codes to use on the G2A.COM sales platform so that you can enjoy the benefits of our offers and services
Senior Data Architect (Grafana)
Bayer
⚲ Warszawa
19 500 - 26 850 PLN (PERMANENT)
Wymagania
- Grafana
O projekcie: We are seeking a skilled Data Architect to join our Observability Squad. In this role, you will be responsible for designing the integration and data architecture for our Observability platform based on the Grafana stack. You will oversee the development of data pipelines to ensure efficient data flow and accessibility while establishing robust frameworks to optimize our Observability efforts and empower data-driven technologies. Additionally, you will ensure data governance and compliance across all systems to maintain data integrity and security. Your expertise will also drive performance optimization initiatives to enhance system efficiency and responsiveness, enabling advanced insights through the implementation of AI and ML capabilities. If you are passionate about data architecture and eager to contribute to innovative projects, we encourage you to apply! Wymagania: - Bachelor/Master degree in Computer Science, Engineering, or similar - 3+ years' working experience in the field of Observability (preferably with Grafana Stack) - Excellent data architecture & technology knowledge and data engineering skills in Observability solutions - Proficient in data modeling techniques with a strong capability to mentor and support data engineers in best practices and implementation strategies - Proficient in Python - Proficient in GitHub ecosystem including GitHub actions for CI/CD - Profound knowledge in Observability solutions (preferable Grafana Stack) and Open Telemetry - Experience in applying Agile methodologies (Scrum, Kanban) - Fluent in English, both written & spoken, intercultural awareness and willingness to travel from time to time Codzienne zadania: - Design of Data Integration Pipelines: You will create and implement efficient data integration pipelines that ensure seamless data flow between our Observability solution and various source systems. This involves selecting appropriate interfaces, defining data transformation processes, and optimizing workflows. - Design Analytics & Observability Frameworks: In this role, you will develop comprehensive analytics and reporting frameworks that empower stakeholders with actionable insights. This includes determining relevant data, establishing data visualization standards, and ensuring that data is user-friendly, easily accessible and tailored to meet the needs of different areas. - Definition of Data Integration Strategy: You will define a clear data integration strategy that aligns with our business objectives. This involves assessing current data sources, identifying gaps, and recommending best practices for data ingestion, storage, and retrieval to enhance overall data quality and usability. - Define Data Governance and Compliance: You will establish and enforce data governance policies and compliance measures to ensure the integrity and security of our data assets. This includes developing guidelines for data management, monitoring adherence to regulatory requirements, and implementing processes for data quality assurance.
Senior Data Architect
Bayer Sp. z o.o.
⚲ warsaw
20 240 - 25 300 PLN brutto (UoP)
Wymagania
- Databricks
For Digital Hub Warsaw, we are looking for: Senior Data Architect The Data Assets, Analytics & AI department at Bayer Consumer Health focuses on enabling digital transformation by creating best in class analytical solutions, enabling data-driven decision making and performance optimization for Bayer’s Consumer Health organization. You will be part of the global data assets, analytics and AI platform and responsible for technically guiding projects in Data & Analytics. You partner with business stakeholders, data scientists, analytics leads, data & platform architects and engineers as well as implementation partners/vendors and are the technical lead for scalable Core Data Assets / Data Products. You ensure proper data management, data ingestion, data pipeline orchestration as well as serving of data for analysts. If you are interested in joining a young and dynamic team driving the digital transformation of Bayer Consumer Health, we would like to hear from you. Key Tasks & Responsibilities: • Own & lead technical implementation and management of well-integrated, enriched, and re-usable data models and analytics products. • Collect and manage data requirements of data consumers, translate them into technical concepts considering re-usability & cost efficiency, and partner with data providers • Ensure that best-practice data management and quality assurance processes are defined and applied and continuously enhance implementation frameworks based on the needs. • Collaborate with business functions (global & regional business stakeholders) and other IT teams (core data asset architects, analytics teams, data science teams, platform product managers & integration architects) to ensure delivery in line with value, business priorities and IT objectives. • Steer delivery teams, mainly data and bi engineers, provide cost and time estimations, challenge effort estimations and assure high quality delivery & proper testing of delivery teams as well as vendor implementations & proper handover to support. • Illiterate consumers on how to leverage data to answer business questions • Contribute to best-practice exchange in our data architecture chapter Qualifications & Competencies (education, skills, experience): • Bachelor/Master degree in Computer Science, Engineering, or similar • 5+ years' working experience in the field of Data & Analytics, preferably in the CPG industry • Excellent data architecture & technology knowledge and data engineering skills in spark-based data processing solutions (tech stack: Azure Data Factory, Azure Databricks, SQL, Python, Snowflake is nice to have) • Proficient in data modeling techniques with a strong capability to mentor and support data engineers in best practices and implementation strategies • Profound knowledge in reporting solutions such as Tableau or PowerBI, and data management knowhow (data cataloguing, data quality management, data compliance management) • Profound in GitHub ecosystem including the VCS, GitHub Actions for CI/CD and working with tickets/issues and pull requests. Understanding of Azure Dev/ops is a plus. Experience in delivering data as a product and in leading data engineering teams • Experience in applying Agile methodologies (Scrum, Kanban) • Strong problem solving and analytical skills, combined with impeccable business judgement. Interpersonal and communication skills, active listening, consulting and presentation skills • Fluent in English, both written & spoken, intercultural awareness and willingness to travel from time to time What do We offer: • A flexible, hybrid work model • Great workplace in a new modern office in Warsaw • Career development, 360° Feedback & Mentoring programme • Wide access to professional development tools, trainings, & conferences • Company Bonus & Reward Structure • VIP Medical Care Package (including Dental & Mental health) • Holiday allowance (“Wczasy pod gruszą”) • Life & Travel Insurance • Pension plan • Co-financed sport card - FitProfit • Meals Subsidy in Office • Additional days off • Budget for Home Office Setup & Maintenance • Access to Company Game Room equipped with table tennis, soccer table, Sony PlayStation 5 and Xbox Series X consoles setup with premium game passes, and massage chairs • Tailored-made support in relocation to Warsaw when needed • Please send your CV in English You feel you do not meet all criteria we are looking for? That doesn’t mean you aren’t the right fit for the role. Apply with confidence, we value potential over perfection WORK LOCATION: WARSAW AL.JEROZOLIMSKIE 158
Senior Data Architect
Bayer
⚲ Warszawa
19 500 - 26 850 PLN (PERMANENT)
Wymagania
- Azure
- Data engineering
- Data security
- AI
O projekcie: A data architect designs and builds data models to fulfil the strategic data needs of the Agentic Foundation organization. Individuals in this role will: - Design, support and provide guidance for the upgrade, management, decommission and archive of data in compliance with data policy - Define and maintain the data technology architecture, including metadata, integration and business intelligence or data warehouse architecture - Work with other architects and engineers to make sure that an organization's systems are designed in accordance with the appropriate data architecture Wymagania: Required - Bachelor’s degree in Computer Science, Data Engineering, Information Technology, or a related field - Strong experience in data architecture, data modeling, and distributed systems. - Advanced knowledge of cloud data platforms (Azure Data Lake, Snowflake, Databricks). - Familiarity with AI frameworks and agentic architectures - Advanced knowledge of cloud platforms - In-depth knowledge of data governance principles and best practices - Understanding of data security principles and practices - Knowledge of data privacy regulations (e.g., GDPR, CCPA) Preferred - Relevant certifications (e.g., GCP Certified, AWS Certified, Azure Certified) - Strong analytical and communication skills - Ability to work collaboratively in a team environment - High level of accuracy and attention to detail - Demonstrated experience leading a team of data professionals - Ability to align data architecture with business objectives - Strong decision-making skills Codzienne zadania: - Define the overall data architecture for Agentic Foundation, including data products, pipelines, and governance. - Establish standards for data modeling, metadata, lineage, and interoperability. - Explain the strategic context of the work being performed and why it is important - Support strategic planning in an administrative capacity - Design reusable, discoverable, and governed data products for AI agents. - Ensure data products are self-describing, secure, and API-accessible. - Design data architecture by dealing with specific business problems and aligning it to enterprise-wide standards, principles, and the enterprise data catalog - Work within the context of well understood architecture, and identify appropriate patterns - Platform & Integration - Architect data platforms leveraging cloud technologies (Azure, AWS, GCP). - Integrate with AI orchestration frameworks (e.g. Azure AI Foundry, LangChain). - Implement data governance policies for security, privacy, and compliance. - Define versioning and observability for data assets. - Take responsibility for the assurance of data solutions and make recommendations to ensure compliance - Work closely with AI engineers, product owners, and domain experts. - Provide technical leadership and mentorship to data engineering's. - Communicate effectively with technical and non-technical stakeholders - Be an advocate for the team externally, and can manage differing perspectives
Power BI / Data Visualization Specialist
Mindbox Sp. z o.o.
⚲ Katowice
23 100 - 29 400 PLN (B2B)
Wymagania
- Power BI
- DAX
- Power Query
- Excel
- Power Platform
- Power Automate
- UX (nice to have)
- Git (nice to have)
- SharePoint (nice to have)
- Outlook (nice to have)
O projekcie: At Mindbox we connect top IT talents with technology projects for leading enterprises across Europe. We are looking for two Power BI / Data Visualization Specialists to join our team. You will be responsible for developing and maintaining analytical models, creating advanced DAX measures, and designing operational dashboards that support business decision-making. This role involves working in an iterative, Agile environment, delivering high-quality data visualizations and optimized data models. Sounds like your kind of challenge? What you get in return - Flexible cooperation model – choose the form that suits you best (B2B, employment contract, etc.) - Hybrid work setup – remote days available depending on the client’s arrangements - Collaborative team culture – work alongside experienced professionals eager to share knowledge - Continuous development – access to training platforms and growth opportunities - Comprehensive benefits – including Interpolska Health Care, Multisport card, Warta Insurance, and more - High quality equipment – laptop and essential software provided Wymagania: - Advanced Power BI skills, including: - DAX (complex calculations, time intelligence, performance optimization) - Semantic model design and maintenance - Custom visuals and Power Query/M (optional) - Strong Excel skills (pivot tables, Power Query, advanced formulas) - Experience with Power Platform, especially Power Automate - Ability to create clear technical documentation - Experience working in Agile/iterative delivery models - Strong communication and teamwork skills Nice to Have - Knowledge of UX principles for dashboards - Experience with Git/repositories and working with APIs - Familiarity with workflow automation and integration with SharePoint/Outlook Joining this project you’ll become part of Mindbox – a tech-driven company where consulting, engineering, and talent meet to build meaningful digital solutions. We’ll back you up every step of the way, accelerate your development, and ensure your skills make a difference. Codzienne zadania: - Develop and optimize advanced DAX measures (including VAR, CALCULATE, FILTER, SUMX, iterators) - Build operational measures such as utilization, performance, and capacity - Design and implement Power BI visualizations based on business requirements and UX/UI guidelines - Work with custom visuals and configure dashboards for operational and performance reporting - Extend and optimize semantic data models (star schema / snowflake), including relationships, hierarchies, and aggregation logic - Configure Power BI Workspaces, scheduled refresh, and manage Power Query/M scripts - Implement automation flows in Power Automate to support reporting processes - Prepare technical documentation (measures, model structure, visualization logic, deployment instructions) - Collaborate with the team in daily stand-ups and deliver iteratively based on backlog and user stories
Partner Biznesowy ds. Zgodności i Analiz Ryzyka Bezpieczeństwa (M/K)
ENEA Centrum Sp. z o.o.
⚲ Poznań
Nasze wymagania: Wykształcenie wyższe, mile widziane Informatyczne. Minimum 5 lat doświadczenia zawodowego w obszarze utrzymania systemów zarządzania bezpieczeństwem lub w obszarze zgodności. Doświadczenie w prowadzeniu projektów lub udziału w projektach dostosowania dużych organizacji/grup kapitałowych do zmian przepisów prawa w obszarze bezpieczeństwa. Doświadczenie w realizacji analiz luki oraz koordynacji wdrażania działań dostosowujących zadań. Znajomość krajowych przepisów, norm, standardów oraz dobrych praktyk w obszarach bezpieczeństwa. Zakres obowiązków: Koordynacja procesów dostosowania Grupy Enea do wymagań przepisów prawa w obszarze bezpieczeństwa i cyberbezpieczeństwa, w szczególności poprzez uczestnictwo w projektach wdrażania nowych przepisów Ustawy o krajowym systemie cyberbezpieczeństwa oraz Ustawy o zarządzaniu kryzysowym. Nadzór nad opracowywaniem, wdrażaniem, utrzymaniem i doskonaleniem polityk bezpieczeństwa Grupy Enea. Wsparcie Spółek Grupy Enea w zakresie utrzymania systemów zarządzania bezpieczeństwem. Koordynacja procesów prowadzenia analiz ryzyka w obszarach bezpieczeństwa i cyberbezpieczeństwa oraz przeglądów systemów zarządzania bezpieczeństwem. Udział w projektach związanych z zapewnieniem bezpieczeństwa Grupy Enea.
Młodszy Specjalista / Młodsza Specjalistka ds. IT i Automatyzacji
PODMIOT ZARZĄDZAJĄCY AKTYWAMI SPÓŁKA AKCYJNA
⚲ Warszawa, Śródmieście
7 000–10 000 zł brutto / mies.
Wymagania
- PHP
- Python
- Jira
- Microsoft Power BI
- SQL
- HTML
- CSS
- JavaScript
Nasze wymagania: masz podstawy programowania i potrafisz logicznie myśleć, znasz podstawy PHP i potrafisz odnaleźć się w istniejącym kodzie, znasz podstawy Pythona i potrafisz napisać prosty skrypt, dobrze znasz Excela i swobodnie pracujesz z danymi, masz podstawową znajomość SQL lub pracy z bazami danych, masz podstawową znajomość Microsoft Entra ID albo zagadnień związanych z zarządzaniem kontami użytkowników i tożsamością, jesteś dokładny/a, samodzielny/a i odpowiedzialny/a, lubisz kombinować, analizować problemy i szukać praktycznych rozwiązań, chcesz się rozwijać w różnych obszarach IT, a nie tylko w jednej wąskiej specjalizacji, nie boisz się zadawać pytań i uczyć nowych rzeczy. Mile widziane: podstawowa znajomość Power BI, znajomość Jira lub innych narzędzi do pracy procesowej, podstawy HTML, CSS lub JavaScript, doświadczenie w pracy z AI lub duża otwartość na takie narzędzia, własne projekty, portfolio, GitHub albo inne przykłady samodzielnej pracy. Zakres obowiązków: wsparcie rozwoju i utrzymania wewnętrznych aplikacji w PHP, wprowadzanie prostych zmian w istniejącym kodzie, przygotowywanie i aktualizacja danych przy pomocy skryptów w Pythonie, wsparcie w tworzeniu raportów i analiz w Excelu, udział we wdrażaniu i usprawnianiu procesów w Jira, wsparcie przy tworzeniu i rozwijaniu raportów w Power BI, wsparcie przy wybranych działaniach związanych z migracją firmy do Microsoft Entra ID, korzystanie z narzędzi AI w codziennej pracy, np. do analizy, automatyzacji i przyspieszania realizacji zadań, współpraca przy rozwiązywaniu bieżących problemów technicznych i organizacyjnych. Oferujemy: zatrudnienie na podstawie umowy o pracę - 3 miesiące okres próbny, pracę w małym zespole i bliską współpracę z osobą techniczną, dużą różnorodność zadań i możliwość szybkiego rozwoju, realny wpływ na narzędzia, procesy i sposób pracy, możliwość zdobycia doświadczenia w kilku obszarach jednocześnie: programowanie, dane, raportowanie, automatyzacja, procesy i środowisko Microsoft,
Lead/Senior Data Scientist
Clurgo
⚲ Warszawa, Kraków, Gdańsk, Lublin, Wrocław
160 - 200 PLN/h netto (B2B)
Wymagania
- Azure
- GCP
- SQL
- Python
- Data Science
Clurgo to firma stworzona przez developerów dla developerów. Nasze zespoły łączą pełne spektrum kompetencji - od rozwoju oprogramowania i infrastruktury, przez analizę oraz testy, aż po strategiczne zarządzanie produktem i procesami. Realizujemy różnorodne projekty IT dla klientów z wielu branż, dbając o dobre praktyki programistyczne i zachowanie work-life balance. Tworzymy rozwiązania, które mają znaczenie - dla firm w Polsce i na całym świecie. ✅Dołącz do projektu w globalnej firmie konsultingowej IT i Data Analytics, specjalizującej się w zaawansowanej analityce danych, Machine Learning i Generative AI. Projekt dotyczy budowy rozwiązań Talk-to-Data opartych na Generative AI, obejmujących LLM, RAG oraz wsparcie pre-sales. ✅Technologie i narzędzia: Python, SQL, AI/ML & GenAI Frameworks, Azure/GCP, LLM APIs, MCP Szukamy Ciebie, jeśli: 👉 posiadasz min. 5 lat doświadczenia jako Data Scientist 👉 posiadasz biegłość w Pythonie 👉 znasz SQL i wektorowe bazy danych 👉 masz doświadczenie w pracy w chmurze Azure lub GCP 👉 znasz biblioteki Deep Learning i GenAI (NumPy, PyTorch, Hugging Face, LangChain, LangGraph) oraz API LLM (OpenAI, Gemini) 👉 posiadasz praktyczne doświadczenie w projektowaniu i obsłudze serwerów i klientów MCP 👉 rozumiesz przetwarzanie danych oraz ich ewaluację Mile widziane: • doświadczenie w pracy z Databricks • komercyjne doświadczenie w projektach Generative AI, NLP lub Computer Vision • znajomość architektur opartych na mikrousługach • doświadczenie w pracy z repozytoriami kodu oraz asystentami kodu Zadania: • budowa aplikacji GenAI end-to-end (chatboty, voiceboty, systemy Talk-to-Data) • projektowanie i wdrażanie pipeline’ów RAG z bazami wektorowymi i wyszukiwaniem hybrydowym • selekcja modeli i fine-tuning (LoRA / QLoRA / SFT) dla modeli tekstowych, kodowych i multimodalnych • projektowanie i optymalizacja interakcji LLM z narzędziami i API przy użyciu MCP • przekładanie wymagań biznesowych na cele techniczne, w tym metryki sukcesu i audyt danych • wsparcie w dostarczaniu projektów i działaniach pre-sales Czego możesz się spodziewać: • współpracy w oparciu o kontrakt B2B • pracy zdalnej • 🏃♀️benefitów: opieka medyczna, karta multisport, lekcje języka angielskiego • 🎉integracji - lubimy spędzać razem czas Poznaj nas lepiej👉 https://www.facebook.com/clurgo/
Lead GenAI Engineer (she/he/they)
Green Hive Technology
⚲ Poznań, Warszawa, Kraków, Wrocław, Gdańsk
Wymagania
- LLM
- Gen AI
- Azure
- GCP
- Python
Technologia, która robi różnicę Green Hive Technology to software house w Grupie Żabka, w którym tworzymy cyfrowe rozwiązania napędzające rozwój jednego z największych ekosystemów convenience w Polsce. Naszym głównym projektem jest Żappka – aplikacja, która łączy zakupy, płatności, promocje, posiłki, usługi mobilne i wiele więcej, integrując marki Maczfit, Dietly, Jush, delio i Żabka Nano. Pracujemy zwinnie, w interdyscyplinarnych zespołach, wierząc, że różnorodność to źródło najlepszych pomysłów 💚 Aktualnie poszukujemy Lead GenAI Engineer’a! Co będzie należało do Twoich zadań? • wyznaczanie kierunków technologicznych oraz projektowanie architektury dla rozwiązań opartych na GenAI; • prowadzenie inicjatyw AI przez cały cykl życia rozwiązania: od fazy koncepcyjnej i Proof of Concept, przez rozwój, aż po wdrożenie i utrzymanie systemów produkcyjnych, takich jak inteligentni asystenci, agenci AI czy systemy analizy dokumentów; • pełnienie roli eksperta technologicznego, dzielenie się wiedzą i wspieranie innych inżynierów w obszarach architektury, jakości kodu oraz dobrych praktyk pracy w wykorzystywanym stacku technologicznym; • praca z systemami multimodalnymi obejmującymi tekst, obraz i dźwięk oraz dobór odpowiednich modeli, narzędzi i platform do konkretnych zastosowań biznesowych; • rozwijanie automatyzacji procesów biznesowych z wykorzystaniem agentów AI oraz wdrażanie zaawansowanych rozwiązań RAG opartych na danych firmowych; • projektowanie, wdrażanie i optymalizacja modeli językowych LLM w środowiskach chmurowych, szczególnie na platformach Azure i GCP, z uwzględnieniem wydajności, stabilności i skalowalności; • współpraca z interesariuszami biznesowymi przy identyfikacji potrzeb, przekładaniu ich na rozwiązania technologiczne oraz prezentowaniu rekomendacji i koncepcji rozwiązań AI. Kogo szukamy? • masz co najmniej 5 lat komercyjnego doświadczenia w tworzeniu aplikacji webowych, a Twoim głównym językiem programowania jest Python; • potrafisz projektować skalowalne i bezpieczne architektury oraz podejmować decyzje technologiczne dla rozwiązań opartych na GenAI i LLM; • masz praktyczne doświadczenie we wdrażaniu systemów AI w środowiskach chmurowych, szczególnie na platformach Azure i GCP; • prowadziłeś/aś projekty GenAI end-to-end, od etapu Proof of Concept do środowisk produkcyjnych, w tym rozwiązania oparte na AI Agents; • na co dzień korzystasz z wiodących modeli i platform, takich jak OpenAI, Vertex AI, Gemini czy Anthropic Claude; • swobodnie stosujesz techniki takie jak Prompt Engineering, Fine Tuning, RAG, bazy wektorowe oraz embedding pipelines; • umiesz dobrać odpowiednie narzędzia i frameworki, między innymi LangChain, FastAPI, Flask czy Streamlit, adekwatnie do etapu i potrzeb projektu; • potrafisz współpracować z interesariuszami biznesowymi, analizować potrzeby i przekładać je na konkretne rozwiązania technologiczne; • masz doświadczenie w pracy z modelami multimodalnymi oraz znasz zasady AI Governance i bezpieczeństwa danych. Co oferujemy? • współpracę w oparciu o kontrakt B2B; • współpracę zdalną z możliwością skorzystania z naszych biur w Poznaniu i Warszawie; • niezbędny sprzęt i narzędzia wspierające efektywną pracę; • preferencyjne warunki na kartę MultiSport, opiekę medyczną LuxMed i ubezpieczenie grupowe Uniqa. A do tego: • realny wpływ na technologie, z których codziennie korzystają miliony ludzi; • zespół, w którym można liczyć na wsparcie i dobrą atmosferę; • miejsce, gdzie Twoje pomysły są słyszane i mają znaczenie; • współpraca z ekspertami i ekspertkami z różnych dziedzin; • czas na rozwój, naukę i testowanie nowych rozwiązań. Jak wygląda nasz proces rekrutacyjny? • Wyślij nam swoje CV - uważnie je przeczytamy. • Jeśli widzimy wspólny kierunek, Maja (HR Generalist) odezwie się do Ciebie i zaprosi na krótką rozmowę telefoniczną (ok. 30 minut). • Kolejny etap to rozmowa online z Maciejem - Automation & GenAI Lead oraz osobą z zespołu. • Jeśli wszystko pójdzie dobrze - witamy na pokładzie Green Hive Technology.
Lead Data Architect - Commercial Analytics
Bayer Sp. z o.o.
⚲ Warszawa
25 760 - 32 300 PLN brutto (UoP)
Wymagania
- MS Azure
- Databricks
For Digital Hub Warsaw, we are looking for: Lead Data Architect – Commercial Analytics The Data Assets, Analytics & AI team at Bayer Consumer Health focuses on bringing digital transformation and innovation by creating best in class analytical solutions enabling data-driven decision making and performance optimization for Bayer Consumer Health organization. You will be part of the Data Assets, Analytics & AI organization and are responsible to technically guide projects in the area of core data assets and/or commercial analytics projects such as e.g. eCommerce Analytics. You partner with other data architects, business stakeholders, data scientists, analytics leads as well as implementation partners/vendors to build our core data assets and/or analytical products. You ensure a proper data management, data ingestion and data pipeline orchestration and that a scalable and well performing analytical product is build. If you are interested in joining a young and dynamic team driving the digital transformation of Bayer Consumer Health, we would like to hear from you. Key Tasks & Responsibilities: • Lead technical implementation analytic projects in the area of Commercial (e.g. Consumer Activation, CRM or eCommerce etc.). Ensure providers or internal developer teams follow our best practices and design principles as a solid foundation to deliver fit-for purpose & scalable data products for analytics use cases. • Design, lead and manage the integration of different data sources (e.g. digital Shelf data, sell-out data, sell-in data etc.) and the design of reusable data models and/or marts in order to meet the business requirements • Contribute to creation of data management and steer implementation of proper data management processes leveraging best practices and joint methodologies to be developed with core data asset architects (e.g. event-based data management). • Initiate and prepare Architecture Change Advisory Boards and collaborate with other data architects, business functions, analytics leads, data science teams and platform architects in order to reuse data and ensure sustainable pipelines and analytical products are built. • Collaborate with business functions (global & regional business stakeholders) and other IT teams (core data asset architects, analytics teams, data science teams, platform product managers & integration architects) to ensure delivery in line with value, business priorities and IT objectives. • As a technical lead, steer external providers and internal implementation teams, guide them as architect and lead engineer, provide cost and time estimations, challenge vendor costs and assure quality delivery of vendor implementations & proper handover to support. • Contribute to the enrichment of our key cloud-based data & analytics technology stacks according to the needs of the analytics products in your area of responsibility Qualifications & Competencies (education, skills, experience): • Bachelor/Master degree in Computer Science, Engineering, or similar subject • 8+ years' working experience in a data related area, 5+ years in the field of Data & Analytics, preferably in the area of Commercial, e.g. eCommerce, M&S & CPG industry • Excellent data architecture & technology knowledge, data engineering & data management skills (e.g. data quality). • Excellent Technology knowhow in Azure Databricks, ADF, Azure Container Services, nice to have: AzureML & Snowflake. Programming languages like SQL, Python, R and BI/reporting solutions like PowerBi/Tableau. • Profound business and data content knowledge of respective business domain: consumer - & commercial (digital shelf data, sell-out and pos data, sell-in data) and M&S process knowhow • Experience in steering implementation teams from external vendors on a technical and organizational level. • Problem solving and analytical skills, combined with impeccable business judgement. • Interpersonal and communication skills, active listening, consulting, challenging, presentation skills, fluent in English (written & spoken), intercultural awareness Master degree in computer science, engineering or a comparable subject • Intercultural awareness (Europe, US, India) and willingness to travel occasionally What do We offer: • A flexible, remote-hybrid work model • Great workplace in a new modern office in Warsaw • Career development, 360° Feedback & Mentoring programme • Wide access to professional development tools, trainings, & conferences • Company Bonus & Reward Structure • VIP Medical Care Package (including Dental & Mental health) • Holiday allowance (“Wczasy pod gruszą”) • Life & Travel Insurance • Pension plan • Co-financed sport card - FitProfit • Meals Subsidy in Office • Budget for Home Office Setup & Maintenance • Access to Company Game Room equipped with table tennis, soccer table, Sony PlayStation 5 and Xbox Series X consoles setup with premium game passes, and massage chairs • Tailored-made support in relocation to Warsaw when needed • Please send your CV in English WORK LOCATION: WARSAW AL. JEROZOLIMSKIE 158
Lead Data Architect - Commercial Analytics
Bayer
⚲ Warszawa
24 000 - 34 000 PLN (PERMANENT)
Wymagania
- Python
- Azure
- Databricks
O projekcie: The Data Assets, Analytics & AI team at Bayer Consumer Health focuses on bringing digital transformation and innovation by creating best in class analytical solutions enabling data-driven decision making and performance optimization for Bayer Consumer Health organization. You will be part of the Data Assets, Analytics & AI organization and are responsible to technically guide projects in the area of core data assets and/or commercial analytics projects such as e.g. eCommerce Analytics. You partner with other data architects, business stakeholders, data scientists, analytics leads as well as implementation partners/vendors to build our core data assets and/or analytical products. You ensure a proper data management, data ingestion and data pipeline orchestration and that a scalable and well performing analytical product is build. If you are interested in joining a young and dynamic team driving the digital transformation of Bayer Consumer Health, we would like to hear from you. Wymagania: Qualifications & Competencies (education, skills, experience): - Bachelor/Master degree in Computer Science, Engineering, or similar subject - 8+ years' working experience in a data related area, 5+ years in the field of Data & Analytics, preferably in the area of Commercial, e.g. eCommerce, M&S & CPG industry - Excellent data architecture & technology knowledge, data engineering & data management skills (e.g. data quality). - Excellent Technology knowhow in Azure Databricks, ADF, Azure Container Services, nice to have: AzureML & Snowflake. Programming languages like SQL, Python, R and BI/reporting solutions like PowerBi/Tableau. - Profound business and data content knowledge of respective business domain: consumer - & commercial (digital shelf data, sell-out and pos data, sell-in data) and M&S process knowhow - Experience in steering implementation teams from external vendors on a technical and organizational level. - Problem solving and analytical skills, combined with impeccable business judgement. - Interpersonal and communication skills, active listening, consulting, challenging, presentation skills, fluent in English (written & spoken), intercultural awareness Master degree in computer science, engineering or a comparable subject - Intercultural awareness (Europe, US, India) and willingness to travel occasionally Codzienne zadania: - Lead technical implementation analytic projects in the area of Commercial (e.g. Consumer Activation, CRM or eCommerce etc.). Ensure providers or internal developer teams follow our best practices and design principles as a solid foundation to deliver fit-for purpose & scalable data products for analytics use cases. - Design, lead and manage the integration of different data sources (e.g. digital Shelf data, sell-out data, sell-in data etc.) and the design of reusable data models and/or marts in order to meet the business requirements - Contribute to creation of data management and steer implementation of proper data management processes leveraging best practices and joint methodologies to be developed with core data asset architects (e.g. event-based data management). - Initiate and prepare Architecture Change Advisory Boards and collaborate with other data architects, business functions, analytics leads, data science teams and platform architects in order to reuse data and ensure sustainable pipelines and analytical products are built. - Collaborate with business functions (global & regional business stakeholders) and other IT teams (core data asset architects, analytics teams, data science teams, platform product managers & integration architects) to ensure delivery in line with value, business priorities and IT objectives. - As a technical lead, steer external providers and internal implementation teams, guide them as architect and lead engineer, provide cost and time estimations, challenge vendor costs and assure quality delivery of vendor implementations & proper handover to support. - Contribute to the enrichment of our key cloud-based data & analytics technology stacks according to the needs of the analytics products in your area of responsibility
Inżynier ds. Zaawansowanych Danych – Migracja Danych Ubezpieczeniowych (K,M,N)
Upvanta
⚲ Remote
16 800 - 25 200 PLN (ZLECENIE)
Wymagania
- Apache Airflow
- Python
- EIS (nice to have)
O projekcie: Do zespołu poszukujemy specjalisty ds. inżynierii danych, który zajmie się projektowaniem, planowaniem i realizacją migracji danych ubezpieczeniowych z istniejącej platformy na nową. Jeśli masz doświadczenie w pracy z danymi oraz znasz branżę ubezpieczeniową, to stanowisko jest dla Ciebie! Oferujemy - Atrakcyjne wynagrodzenie adekwatne do doświadczenia - Elastyczne godziny pracy i możliwość pracy zdalnej - Udział w ciekawych projektach migracyjnych w branży ubezpieczeniowej - Przyjazną atmosferę pracy i wsparcie ekspertów Wymagania: Wymagania - Doświadczenie w pracy z Apache Airflow - Bardzo dobra znajomość Python - Znajomość branży ubezpieczeniowej (modele ubezpieczeniowe, podmioty ubezpieczeniowe, procesy polisowe) – wymagane - Umiejętność pracy zespołowej i komunikatywność Mile widziane - Doświadczenie z EIS (Enterprise Insurance System) Codzienne zadania: - Projektowanie i wdrażanie procesów migracji danych w środowisku Apache Airflow - Tworzenie i utrzymywanie skryptów w Python - Analiza i mapowanie danych ubezpieczeniowych (polisy, oferty, aneksy, zakresy ochrony, transakcje polis, role, elementy ryzyka itp.) - Wsparcie zespołu przy integracji danych z nową platformą - Dokumentowanie procesów migracyjnych i utrzymanie wysokiej jakości danych
GenAI Manager (she/he/they)
Green Hive Technology
⚲ Poznań, Warszawa, Kraków, Wrocław, Gdańsk
Wymagania
- LLM
- Gen AI
- Azure
- GCP
- Python
Technologia, która robi różnicę Green Hive Technology to software house w Grupie Żabka, w którym tworzymy cyfrowe rozwiązania napędzające rozwój jednego z największych ekosystemów convenience w Polsce. Naszym głównym projektem jest Żappka – aplikacja, która łączy zakupy, płatności, promocje, posiłki, usługi mobilne i wiele więcej, integrując marki Maczfit, Dietly, Jush, delio i Żabka Nano. Pracujemy zwinnie, w interdyscyplinarnych zespołach, wierząc, że różnorodność to źródło najlepszych pomysłów 💚 Aktualnie poszukujemy GenAI Manager’a! Co będzie należało do Twoich zadań? • wyznaczanie kierunków technologicznych oraz projektowanie architektury dla rozwiązań opartych na GenAI; • prowadzenie inicjatyw AI przez cały cykl życia rozwiązania: od fazy koncepcyjnej i Proof of Concept, przez rozwój, aż po wdrożenie i utrzymanie systemów produkcyjnych, takich jak inteligentni asystenci, agenci AI czy systemy analizy dokumentów; • pełnienie roli eksperta technologicznego, dzielenie się wiedzą i wspieranie innych inżynierów w obszarach architektury, jakości kodu oraz dobrych praktyk pracy w wykorzystywanym stacku technologicznym; • praca z systemami multimodalnymi obejmującymi tekst, obraz i dźwięk oraz dobór odpowiednich modeli, narzędzi i platform do konkretnych zastosowań biznesowych; • rozwijanie automatyzacji procesów biznesowych z wykorzystaniem agentów AI oraz wdrażanie zaawansowanych rozwiązań RAG opartych na danych firmowych; • projektowanie, wdrażanie i optymalizacja modeli językowych LLM w środowiskach chmurowych, szczególnie na platformach Azure i GCP, z uwzględnieniem wydajności, stabilności i skalowalności; • współpraca z interesariuszami biznesowymi przy identyfikacji potrzeb, przekładaniu ich na rozwiązania technologiczne oraz prezentowaniu rekomendacji i koncepcji rozwiązań AI. Kogo szukamy? • masz co najmniej 5 lat komercyjnego doświadczenia w tworzeniu aplikacji webowych, a Twoim głównym językiem programowania jest Python; • potrafisz projektować skalowalne i bezpieczne architektury oraz podejmować decyzje technologiczne dla rozwiązań opartych na GenAI i LLM; • masz praktyczne doświadczenie we wdrażaniu systemów AI w środowiskach chmurowych, szczególnie na platformach Azure i GCP; • prowadziłeś/aś projekty GenAI end-to-end, od etapu Proof of Concept do środowisk produkcyjnych, w tym rozwiązania oparte na AI Agents; • na co dzień korzystasz z wiodących modeli i platform, takich jak OpenAI, Vertex AI, Gemini czy Anthropic Claude; • swobodnie stosujesz techniki takie jak Prompt Engineering, Fine Tuning, RAG, bazy wektorowe oraz embedding pipelines; • umiesz dobrać odpowiednie narzędzia i frameworki, między innymi LangChain, FastAPI, Flask czy Streamlit, adekwatnie do etapu i potrzeb projektu; • potrafisz współpracować z interesariuszami biznesowymi, analizować potrzeby i przekładać je na konkretne rozwiązania technologiczne; • masz doświadczenie w pracy z modelami multimodalnymi oraz znasz zasady AI Governance i bezpieczeństwa danych. Co oferujemy? • współpracę w oparciu o kontrakt B2B; • współpracę zdalną z możliwością skorzystania z naszych biur w Poznaniu i Warszawie; • niezbędny sprzęt i narzędzia wspierające efektywną pracę; • preferencyjne warunki na kartę MultiSport, opiekę medyczną LuxMed i ubezpieczenie grupowe Uniqa. A do tego: • realny wpływ na technologie, z których codziennie korzystają miliony ludzi; • zespół, w którym można liczyć na wsparcie i dobrą atmosferę; • miejsce, gdzie Twoje pomysły są słyszane i mają znaczenie; • współpraca z ekspertami i ekspertkami z różnych dziedzin; • czas na rozwój, naukę i testowanie nowych rozwiązań. Jak wygląda nasz proces rekrutacyjny? • Wyślij nam swoje CV - uważnie je przeczytamy. • Jeśli widzimy wspólny kierunek, Maja (HR Generalist) odezwie się do Ciebie i zaprosi na krótką rozmowę telefoniczną (ok. 30 minut). • Kolejny etap to rozmowa online z Maciejem - Automation & GenAI Lead oraz osobą z zespołu. • Jeśli wszystko pójdzie dobrze - witamy na pokładzie Green Hive Technology.
Game Data Analyst
VGW
⚲ Remote
18 000 - 22 000 PLN (B2B)
Wymagania
- SQL
- mobile games
- knowledge of core game KPIs
- experience with BI tools
- Tableau (nice to have)
- Power BI (nice to have)
- casual puzzle games (nice to have)
- Match-3 (nice to have)
O projekcie: About VGW VGW is an interactive entertainment company, harnessing technology and creativity to deliver world-class, free-to-play online social games. Our high-quality, acclaimed brands include Chumba Casino, Global Poker and LuckyLand Slots, which are enjoyed by millions of players in North America. Our games are based on a freemium model, meaning they are available to play at no cost, but include optional in-game purchases to enhance gameplay. We also offer sweepstakes promotions where players can collect free entries for the chance to win real-world prizes. At VGW, one of our core values is “our players come first”. This means always striving to deliver a safe, responsible and positive player experience. Why VGW? At VGW, we’re more than just a team. We’re a diverse and inclusive group of individuals, each playing a vital role in our success. Our core values are clear and strong; we win together, do what’s right, put our players first and are powered by passion. We believe in our people and are committed to creating an environment where everyone feels welcome, inspired, and supported. We recognise that life is more than just work - that’s why we’re all about flexibility so you can strike a healthy balance between your personal life and career. We’re also here to champion your growth in your current role and future aspirations, providing opportunities for learning and career advancement. And to top it off, we back this all up with competitive compensation, perks and benefits. But it’s not all business. We inject fun into the workplace, celebrate together and create lasting memories, from a mix of in-person and online events, to social gatherings and much more. It’s our combined skills, ideas and visions that drive us forward. Join us on this exciting journey, and together, we’ll achieve remarkable things. If you want to join a team that does things differently, apply today - we look forward to seeing what you can bring to our team. Wymagania: VGW is an interactive entertainment company, harnessing technology and creativity to deliver world-class, free-to-play online social games. We have an exciting opportunity to join our Growth Products team and are currently looking for a Game Data Analyst in Poland. As a Game Data Analyst at VGW, you will help to understand player behavior, measure game performance and support product and live-ops decisions for a live Match-3 mobile game. You will work closely with Product Managers, Game Designers, Live Ops and Growth to turn data into clear insights that improve retention, progression, monetization and overall player experience. Key requirements: - Strong SQL and data analysis skills; - 3 years of experience analyzing free-to-play mobile games; - Strong understanding of core game KPIs: retention (D1–D30+), engagement and progression, monetization and LTV; - Ability to communicate insights clearly to non-technical stakeholders; - Experience working in cross-functional game teams; - Experience with Business Intelligence tools (Looker, Tableau, Power BI); - Experience with Match-3 or casual puzzle games (nice to have); Codzienne zadania: - Analyze player funnels, retention, progression, and engagement across the full player lifecycle; - Investigate player behavior across different cohorts and segments; - Identify friction points in onboarding, difficulty, and progression; - Provide actionable insights to improve player experience and long-term engagement; - A/B Testing: Design, run, and interpret experiments - define the hypothesis and success metrics upfront, set the measurement plan, read the results cleanly, and turn them into a clear “do / don’t do” recommendation; - Support pricing, economy balancing, and Live Ops planning with data insights; - Track ARPDAU, conversion, LTV, and revenue trends; - Help identify opportunities to grow revenue and improve payer retention; - Support post-launch analysis of game updates and content releases; - Build and maintain dashboards and recurring reports; - Partner with Product and Design teams to support roadmap decisions.
GIS Data Engineer
GISPartner Sp. z o.o.
⚲ Kraków, Lublin, Wrocław, Psie Pole
Wymagania
- Python
- ArcPy
- PyQGIS
- Geopandas
- Pandas
- GDAL
- PostGIS
- Oracle Spatial
- PostgreSQL
- Oracle
- ArcGIS Pro
- QGIS
- numpy
- pandas
- scikit-learn
- matplotlib
Nasze wymagania: Wykształcenie kierunkowe z zakresu geoinformatyki, informatyki lub pokrewnych dziedzin Dobra znajomość Pythona oraz bibliotek GIS, takich jak ArcPy, PyQGIS, Geopandas, Pandas czy GDAL Znajomość SQL umożliwiająca analizę danych oraz efektywną pracę z relacyjnymi bazami danych PostgreSQL lub Oracle Znajomość rozwiązań bazodanowych zoptymalizowanych pod dane przestrzenne, w tym PostGIS oraz Oracle Spatial Podstawowa znajomość oprogramowania GIS Desktop, takiego jak ArcGIS Pro lub QGIS Bardzo dobra komunikacja i umiejętność współpracy w zespole Mile widziane: Techniczna znajomość narzędzia FME (Desktop lub Server) oraz zrozumienie jego roli w procesach ETL Doświadczenie w przetwarzaniu danych 3D, w tym chmur punktów i modeli mesh, z wykorzystaniem bibliotek takich jak Open3D, laspy czy bpy Znajomość narzędzi Python Scientific Stack - numpy, pandas, scikit-learn, matplotlib - oraz zasad optymalizacji kodu O projekcie: Poszukujemy osób na stanowisko GIS Data Engineer, które chcą rozwijać i automatyzować procesy przetwarzania danych przestrzennych z wykorzystaniem Pythona oraz specjalistycznych bibliotek GIS. Dołączysz do zespołu pracującego nad projektami, w których dane przestrzenne stanowią fundament analiz, systemów i narzędzi wspierających procesy decyzyjne. 📍 Wrocław / możliwość pracy zdalnej lub hybrydowej z biur we Wrocławiu, Lublinie lub Krakowie Zakres obowiązków: Projektowanie i implementacja procesów ETL dla danych GIS – pozyskiwanie, przekształcanie i ładowanie danych z różnych źródeł Przygotowywanie analiz przestrzennych i skryptów GIS wspierających obróbkę oraz przetwarzanie danych Automatyzacja procesów przetwarzania danych z wykorzystaniem Python Weryfikacja, kontrola jakości oraz optymalizacja struktur danych GIS Współpraca z zespołem GIS oraz zespołami deweloperskimi przy projektach środowiskowych i technologicznych Oferujemy: Elastyczne godziny pracy i możliwość pracy zdalnej – dopasujesz obowiązki do swojego stylu życia oraz miejsca, w którym pracuje Ci się najlepiej Przyjazne środowisko pracy w doświadczonym, interdyscyplinarnym zespole, nastawionym na współpracę i dzielenie się wiedzą Pakiet benefitów GISTeam, zapewniający komfort pracy i dodatkowe udogodnienia, w tym darmowy dostęp do platformy Multi.Life wspierającej wellbeing, rozwój osobisty oraz naukę języków obcych Elastyczność w doborze formy zatrudnienia oraz wynagrodzenie adekwatne do umiejętności, doświadczenia i zakresu odpowiedzialności
GCP Data Engineer (m/k/n)
Upvanta
⚲ Remote
21 840 - 28 560 PLN (ZLECENIE)
Wymagania
- GCP
- BI
- ETL
- Big Data
- Vault
O projekcie: Poszukujemy doświadczonego GCP Data Engineer z minimum 5-letnim doświadczeniem zawodowym, w tym przynajmniej 3 lata w pracy z chmurą Google Cloud Platform (GCP). Osoba na tym stanowisku będzie odpowiedzialna za projektowanie, wdrażanie i optymalizację rozwiązań przetwarzania danych w dużej skali, wspierających potrzeby biznesowe organizacji. Wymagania: Wymagania: - Minimum 5 lat doświadczenia jako Data Engineer, w tym minimum 3 lata doświadczenia z chmurą GCP. - Hands-on, profesjonalne doświadczenie z technologiami BI/ETL/Big Data. - Silne zrozumienie i doświadczenie w projektowaniu relacyjnych baz danych oraz rozwiązań big data. - Doświadczenie w przetwarzaniu danych w czasie rzeczywistym oraz w agregacji danych w hurtowniach danych. - Znajomość koncepcji: data fabric, data mesh, data vault. - Umiejętność prowadzenia dyskusji projektowych i komunikowania decyzji architektonicznych. Codzienne zadania: - Projektowanie, budowa i utrzymanie rozwiązań ETL/ELT oraz pipeline’ów danych w środowisku GCP. - Wdrażanie i optymalizacja hurtowni danych oraz rozwiązań Big Data. - Przetwarzanie danych w czasie rzeczywistym oraz agregacja danych dla raportów i analiz. - Projektowanie relacyjnych i nierelacyjnych baz danych z uwzględnieniem najlepszych praktyk. - Udział w tworzeniu architektury danych i rekomendowanie najlepszych rozwiązań w zakresie data fabric, data mesh, data vault. - Współpraca z zespołami analitycznymi i biznesowymi w celu zrozumienia wymagań i dostosowania rozwiązań. - Prowadzenie dyskusji projektowych, dokumentowanie i komunikowanie decyzji architektonicznych. - Monitorowanie wydajności systemów, identyfikowanie wąskich gardeł i wprowadzanie ulepszeń.
ETL Engineer
Link Group
⚲ Remote
20 160 - 25 200 PLN (B2B)
Wymagania
- Cloud
- GCP
- BigQuery
- Dataflow
- Azure
- SQL
- API
O projekcie: We are looking for a highly skilled ETL Developer to bridge the gap between complex data engineering and strategic business analysis. You will be responsible for designing and implementing robust data pipelines across GCP and Azure environments, ensuring seamless data flow and high-quality modeling for enterprise-scale solutions. Wymagania: - Cloud Platforms: Proven hands-on experience with GCP (e.g., BigQuery, Dataflow) and/or Azure (e.g., Data Factory, Synapse). - SQL Mastery: Expert-level SQL skills for complex querying, optimization, and data manipulation. - Integration Skills: Strong understanding of API & REST services. - Domain Knowledge: Experience with SEND data format and advanced data modelling techniques. - Communication: Fluent English (C1) is a must for collaborating with international stakeholders and delivering clear business analysis. Codzienne zadania: - Hybrid Cloud Integration: Design, build, and maintain scalable ETL/ELT pipelines across Google Cloud Platform and Microsoft Azure. - Data Architecture: Perform advanced data modelling to structure complex datasets for optimal performance and analytical clarity. - API Management: Develop and manage integrations using REST APIs, ensuring efficient data exchange between systems. - Data Standards: Work with specific data formats, including SEND, ensuring full compliance and technical accuracy. - Business Analysis: Act as a technical consultant by analyzing business requirements and translating them into technical data specifications.
Data Scientist (LLM)
Lufthansa Systems
⚲ Gdańsk, Oliwa
11 000–21 000 zł brutto / mies.
Wymagania
- Python
- CognigyAI
- GenAI
- NLP
Nasze wymagania: At least 3 years of commercial experience in Data Science or Machine Learning, Expertise in designing, testing, and optimizing solutions for large language models (e.g., ChatGPT, GPT-4). Proficiency in Python and at least one AI/data- platform (e.g. CognigyAI, databricks) Hands-on expertise with AI/NLP platforms and performance evaluation (A/B testing, error analysis). Solid grasp of current AI/ML research, with a focus on best practices for GenAI and emerging agentic AI concepts. Strong collaborator in agile, cross-functional teams, with excellent technical communication. Awareness of ethical AI practices, including bias mitigation and data privacy. Ability to translate complex concepts into accessible language for non-technical stakeholders. A systematic approach to identifying issues in existing setup and constructing targeted solutions, including the ability to troubleshoot and optimize model behavior under different conversational scenarios. Very good command of English language, Proactive attitude and the ability to work as a team player, The ability to think beyond the current scope of the project, Experience actively participating in a Scrum team by bringing in new solutions, Willingness to travel once per quarter, Willingness to upskill on your own initiative and deriving further insights from data, Willingness to come to our office in Gdańsk two days a week or relocate to Trójmiasto. O projekcie: Chat Assistant is used by over 10 million travelers, it’s evolving from a traditional conversational bot into an advanced, agentic AI. It’s not just about answering FAQs - this assistant already handles end-to-end transactions like rebookings and refunds today, offering a truly seamless travel support experience. The team’s mission is to create the most intelligent, intuitive conversational experience in the travel industry via the move to Agentic AI. Zakres obowiązków: Craft and fine-tune advanced LLM prompts to drive high-performance conversational experiences in the Chat Assistant. Use a data-driven approach to identify limitations in current conversational models and generate effective solutions for challenges such as user engagement, contextual understanding, and content moderation. Design reusable frameworks that encapsulate innovative functionalities and can be adapted across various assistant use cases. Collaborate closely with engineering teams to align GenAI strategies with backend enhancements, contributing to architectural optimization and improved task performance. Prototype, deploy and maintain new LLM or agentic AI based strategies to support emerging features and expand the assistant’s capabilities. Continuously evolve the LHG Chat Assistant architecture with a focus on deepening the assistant’s natural language understanding and response relevance, integrating agentic AI principles to enable more adaptive, goal-oriented interactions in our redesigned system. Build LLM-backed transactional flows. Transition towards agentic AI, orchestrate hybrid solution with AI + deterministic logic. Implement and maintain function calling to backend systems or APIs. Automated testing for all components of AI solutions (prompt, flows, function calls, etc.). Oferujemy: An international working environment, atmosphere that stimulates development. Individual career path. Lufthansa Group membership benefits, Flexible working time and place adjusted to employee’s needs. Possibility of starting your workday between 07:00 and 11:00. Workplace adjusted to employee's needs. Support for your passion for sports within the local activity group and co-financing Multisport cards. Private medical care for employees and their family members, Life insurance, No dress code, Corporate products and services at discounted prices, Parking space for employees, Holiday funds, Sharing the costs of holidays for kid
Data Scientist
Scalo
⚲ Warszawa
23 520 - 25 200 PLN (B2B)
Wymagania
- Python
- pandas
- SQL
- Matplotlib
- ggplot2
- SAS (nice to have)
- Git (nice to have)
- AWS (nice to have)
- Azure (nice to have)
O projekcie: Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Co dla Ciebie mamy: - Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt - Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych - Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób - Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort - Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci - Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Wymagania: Ta oferta jest dla Ciebie, jeśli: - biegle posługujesz się Pythonem w obszarze analizy danych i modelowania, - dobrze znasz metody uczenia maszynowego, analityki predykcyjnej oraz wnioskowania statystycznego, - masz doświadczenie w pracy z narzędziami do przetwarzania danych (np. pandas, SQL) oraz wizualizacji danych (np. matplotlib, seaborn, ggplot2), - potrafisz pracować z repozytorium kodu, - analizujesz problemy w sposób analityczny i potrafisz wyciągać wnioski z danych, - skutecznie współpracujesz w interdyscyplinarnych zespołach, - możesz pracować w biurze 3 razy w tygodniu, - znasz narzędzia pricingowe WTW (Emblem, Radar) – mile widziane, - znasz branżę ubezpieczeniową – mile widziane, - znasz narzędzia SAS – mile widziane, - znasz systemy kontroli wersji (Git) – mile widziane, - masz doświadczenie ze środowiskami chmurowymi (AWS, Azure) – mile widziane. Codzienne zadania: - udział w projekcie z branży ubezpieczeniowej, - opracowywanie, wdrażanie i utrzymywanie modeli statystycznych oraz uczenia maszynowego wspierających funkcje aktuarialne, - analiza dużych i złożonych zbiorów danych w celu wyciągania praktycznych wniosków biznesowych, - prowadzenie eksploracyjnej analizy danych i tworzenie cech (feature engineering) dla poprawy jakości i interpretowalności modeli, - wspieranie automatyzacji i optymalizacji procesów aktuarialnych z wykorzystaniem narzędzi i frameworków data science, - ścisła współpraca z aktuariuszami, underwriterami i zespołami likwidacji szkód przy przekładaniu wyzwań biznesowych na rozwiązania analityczne, - przygotowywanie prezentacji wyników i rekomendacji dla odbiorców technicznych, - praca w modelu hybrydowym: 3 dni w tygodniu w biurze w Warszawie, - stawka do 150 pln/h w oparciu o współpracę B2B w zależności od doświadczenia.
Data Migration Architect
Upvanta
⚲ Remote
28 000 - 40 000 PLN (B2B)
Wymagania
- Apache Airflow
- Data migration
O projekcie: Zaprojektowanie, zaplanowanie, wdrożenie i przeprowadzenie migracji danych ubezpieczeniowych z istniejącej platformy do nowego systemu. Wymagania: Wymagania: - doświadczenie z Apache Airflow i Python, - minimum 5 lat doświadczenia w roli Data Migration Architect - bardzo dobra znajomość modelu danych w ubezpieczeniach, - znajomość pojęć takich jak: policy, quote, endorsement, coverage, policy transaction, roles in policy, risk items. - znajomość EIS – mile widziane Codzienne zadania: - projektowanie i realizacja migracji danych, - budowa i utrzymanie pipeline’ów danych w Apache Airflow, - tworzenie skryptów migracyjnych w Pythonie, - analiza i mapowanie modeli danych ubezpieczeniowych, - zapewnienie poprawności i spójności migrowanych danych.
Data Engineering Tech Lead
Link Group
⚲ Remote
26 880 - 30 240 PLN (B2B)
Wymagania
- Python
- SQL
- Scala
- Cloud
- Azure
- ETL/ELT
- Data pipelines
- Data management
- Data warehouse
O projekcie: Szukamy doświadczonego lidera technicznego, który przejmie stery nad zespołem Data Engineeringu w dynamicznym środowisku cloudowym. Jako Tech Lead będziesz łączyć głęboką wiedzę inżynierską z mentoringiem, dbając o to, by dostarczane rozwiązania danych były skalowalne, bezpieczne i najwyższej jakości. Co oferujemy? - Stabilność: Długofalowa współpraca B2B z natychmiastowym przejściem na czas nieokreślony. - Elastyczność: Praca w 100% zdalna oraz elastyczne godziny rozpoczęcia dnia. - Rozwój: Dostęp do platform edukacyjnych oraz wsparcie w zdobywaniu certyfikatów technologicznych. - Kultura: Środowisko oparte na zaufaniu, autonomii i merytorycznym podejściu do problemów. - Narzędzia: Nowoczesny sprzęt dostosowany do Twoich potrzeb. Wymagania: - Min. 5 lat doświadczenia w inżynierii danych, w tym udokumentowane doświadczenie w prowadzeniu zespołu. - Stack Techniczny: Biegła znajomość Python, SQL oraz Scala. - Cloud: Praktyczne doświadczenie w implementacji rozwiązań na platformie Azure. - Data Pipelines: Ekspercka wiedza w budowaniu procesów ETL/ELT i orkiestracji danych. - Data Management: Znajomość zasad Data Governance, Data Quality oraz bezpieczeństwa danych. - Język: Płynna znajomość języka angielskiego (min. C1). Mile widziane - Certyfikaty Azure (np. Data Engineer Associate / Solutions Architect). - Doświadczenie w pracy z frameworkami CI/CD w kontekście danych. - Wykształcenie wyższe techniczne (Informatyka lub pokrewne). Stack technologiczny - Główne: Python, Scala, SQL - Chmura: Azure (cały ekosystem usług danych) - Obszar: ETL, Data Pipelines, Data Warehousing Codzienne zadania: - Leadership: Mentoring i coaching zespołu inżynierów, wyznaczanie celów technicznych oraz dbanie o kulturę współpracy. - Architektura & Design: Nadzór nad projektowaniem nowoczesnych rozwiązań danych (Data Lakes, Warehouse) w środowisku Azure. - Code Quality: Ustalanie standardów kodowania, przeprowadzanie Code Reviews i wdrażanie procesów QA dla pipeline’ów. - Doradztwo Techniczne: Pełnienie roli zaufanego eksperta dla interesariuszy biznesowych i pomoc w definiowaniu zakresu projektów. - Optymalizacja: Identyfikacja wąskich gardeł oraz optymalizacja kosztowa i wydajnościowa procesów przetwarzania danych.
Data Engineer with AWS
Lingaro
⚲ Warszawa
Wymagania
- AWS
- IaC
- CI/CD
- ETL/ELT
- SQL
- Python
We are looking for a Lead Engineer to build and optimize cloud data platforms on AWS for a Client in Construction & Manufacturing Industry. You’ll be hands-on in developing pipelines, data models, and analytics-ready datasets, working closely with architects, analysts, and client stakeholders to deliver reliable, well-governed data solutions. The project involves direct work with Business to develop event-based and batch processing for ML and Advanced analytics use cases and Data Sharing within Business. Tasks: • Design and implement scalable batch data pipelines on AWS using AWS Glue • Develop and optimize data transformations using Apache Spark and SQL, ensuring performance and maintainability. • Design efficient data models for analytical and reporting use cases (data lakes, data warehouses). • Ensure data reliability, quality, monitoring, and performance in distributed environments. • Engage directly with business to understand requirements and translate them into data engineering solutions. • Work independently while maintaining effective communication with stakeholders. What We're Looking For: • 4–6 years of experience as Data Engineer. • Strong SQL and Python skills (production-grade code). • Hands-on experience with AWS (Glue/S3/Lambda/Redshift). • Knowledge of data management principles and best practices, including data governance, data quality, and data integration. • Practical experience in managing CI/CD pipelines (GitLab) and IaC (Terraform). • Excellent problem-solving and analytical skills, with the ability to identify and resolve complex data engineering issues. • Experience designing ETL/ELT pipelines. • Experience working in Agile environment. • Experience with using PowerBI is a nice bonus. • English C1. What Will Set You Apart: • Proactiveness. • Challenger mindset. • High communication skills. • High ownership on assigned tasks. Missing one or two of these qualifications? We still want to hear from you! If you bring a positive mindset, we'll provide an environment where you feel valued and empowered to learn and grow. We offer: • Stable employment. On the market since 2008, 1500+ talents currently on board in 7 global sites. • “Office as an option” model. You can choose to work remotely or in the office. • Workation. Enjoy working from inspiring locations in line with our workation policy. • Great Place to Work® certified employer. • Flexibility regarding working hours and your preferred form of contract. • Comprehensive online onboarding program with a “Buddy” from day 1. • Cooperation with top-tier engineers and experts. • Unlimited access to the Udemy learning platform from day 1. • Certificate training programs. Lingarians earn 500+ technology certificates yearly. • Upskilling support. Capability development programs, Competency Centers, knowledge sharing sessions, community webinars, 110+ training opportunities yearly. • Grow as we grow as a company. 76% of our managers are internal promotions. • A diverse, inclusive, and values-driven community. • Autonomy to choose the way you work. We trust your ideas. • Create our community together. Refer your friends to receive bonuses. • Activities to support your well-being and health. • Plenty of opportunities to donate to charities and support the environment. • Modern office equipment. Purchased for you or available to borrow, depending on your location.
Data Engineer
Nexio Management
⚲ Poland (Remote)
Wymagania
- Azure Databricks
- Data Pipelines
- Azure
- Python
Nexio Management to polska firma technologiczna z ponad 18-letnim doświadczeniem na rynku. Obecnie w naszych centrach kompetencyjnych zatrudniamy ponad 500 konsultantów, którzy świadczą usługi IT klientom na całym świecie. Siedziba Nexio Management mieści się w Warszawie, a nasze biura mieszczą się w Rumunii i Wielkiej Brytanii. Posiadamy także własne Centrum R&D, czyli miejsce, w którym powstają innowacyjne projekty m.in: w obszarach Big Data, Cloud, CRM, Billing czy AI. W ramach naszego portfolio tworzymy rozwiązania „szyte na miarę”, utrzymujemy i rozwijamy nawet najbardziej wymagające systemy informatyczne. Dostarczamy własne produkty i wspieramy zespoły naszych klientów w zwiększaniu skali modeli zespołów. Naszymi klientami są firmy z całego świata, poszukujące wsparcia najwyższej klasy ekspertów. Dla naszego klienta poszukujemy Data Engineera, który będzie odpowiedzialny za budowę i rozwój nowoczesnych pipeline’ów danych w środowisku Microsoft Azure. Osoba na tym stanowisku będzie pracować nad rozwiązaniami umożliwiającymi przetwarzanie dużych wolumenów danych oraz ich wykorzystanie w analityce, systemach platformowych oraz rozwiązaniach opartych o AI. Twój zakres obowiązków: • Projektowanie, budowa i optymalizacja pipeline’ów danych. • Tworzenie skalowalnych procesów ETL / ELT do przetwarzania danych z różnych źródeł. • Integracja źródeł danych opartych o architekturę zdarzeniową (event-driven). • Wdrażanie rozwiązań umożliwiających wykorzystanie danych w analityce, usługach platformowych oraz komponentach AI. • Współpraca z architektami i zespołami developerskimi przy projektowaniu rozwiązań data platform. • Dbanie o wydajność, stabilność oraz monitorowanie pipeline’ów danych. • Optymalizacja kosztów i wydajności przetwarzania danych w środowisku Azure. Nasze wymagania: • Minimum 3 lata doświadczenia na stanowisku Data Engineer • Praktyczne doświadczenie w pracy z Azure Databricks, Azure Functions i Azure Event Hubs. • Bogate doświadczenie w tworzeniu potoków ETL/ELT. • Bardzo dobra znajomość Python. • Doświadczenie w integracji API lub usług analitycznych z pipeline’ami danych. • Bardzo dobra znajomość przetwarzania danych w systemach rozproszonych, monitorowania, odporności i jakości danych. • Język angielski na poziomie min. B2. Oferujemy: • Praca 100% zdalna. • Stabilność zatrudnienia – długofalowe projekty, współpraca z wiodącymi firmami, możliwość rozwoju w różnych obszarach branży IT. • Elastyczne formy współpracy – umowa B2B, umowa o pracę lub zlecenie. • Benefity: Medicover (rozszerzony o stomatologię), FitProfit, lekcje języka angielskiego. • Treningi na siłowni F45 - zlokalizowanej w naszym biurze. Wspólnie ćwiczymy pod okiem profesjonalnych trenerów. • Wewnętrzny program poleceń. • Możliwość finansowania certyfikatów IT. • Wydarzenia okolicznościowe oraz wyjazdy integracyjne - budujemy zgrany zespól również poza biurem. • Lubimy pomagać - wspieramy akcje charytatywne, takie jak Szlachetna Paczka, a w ramach #PomagamyNexio angażujemy się tam, gdzie naprawdę możemy coś zmienić.
Data Analyst/Data Governance Analyst
Square One Resources
⚲ Warsaw
25 200 - 33 600 PLN (B2B)
Wymagania
- Snowflake
- Data management
- Data structures
- Power BI
- Data analytics
- Data modeling
- Purview
- Redis (nice to have)
- Databricks (nice to have)
- PowerBI (nice to have)
O projekcie: 0.5 FTE | 16 weeks We are looking for an experienced Data Analyst / Data Governance Specialist to support a project focused on improving data governance, metadata management and data quality processes within an enterprise data environment. The role will involve working with modern data platforms such as Snowflake and Microsoft Purview, helping to improve metadata management, data lineage visibility and data quality monitoring across business domains. This is a remote contract role with a duration of approximately 16 weeks (0.5 FTE). Project Details - Contract length: 16 weeks - Engagement: 0.5 FTE - Start: ASAP - Location: Fully remote - Recruitment process: 2 interviews (Team Leader + end Client) - Equipment provided by the client Wymagania: - Minimum 5 years of experience working in data analytics, data governance or data platform environments - Strong experience with Snowflake - Hands-on experience with Microsoft Purview (data catalog / lineage / metadata management) - Experience with data modeling and metadata management concepts - Experience working with business glossary and data governance frameworks - Understanding of data quality processes and monitoring mechanisms - Experience collaborating with business stakeholders and domain experts - Strong analytical and problem-solving skills - Good communication skills and ability to work in distributed teams Nice to have - Experience with Power BI - Experience working with Redis or caching architectures - Experience with metadata automation or data lineage implementation - Experience with Databricks environments Codzienne zadania: - Support implementation and configuration of Microsoft Purview for data catalog, data lineage and metadata management - Perform gap analysis and design solutions for metadata, data catalog and governance processes - Co-create and structure a business glossary to ensure consistent KPI definitions across the organization - Work with business stakeholders and SMEs to define and document key business terms and calculation logic - Support automated metadata collection and improve integration with existing systems - Redesign and refine the conceptual data model for corporate data structures - Improve data quality frameworks and support implementation of mechanisms for monitoring data quality metrics - Contribute to improving dashboard transparency by introducing data quality scoring in Power BI - Support architecture improvements to enhance system responsiveness and data access performance
Data AI Specialist
Link Group
⚲ Gdańsk, Sopot, Trójmiasto
20 000 - 22 000 PLN (B2B)
Wymagania
- Snowflake
- Data modeling
- SQL
- Power BI
- DAX
- Modeling
- Dashboarding
- AI
- LLMs
- Python
- Data analysis
- pandas
- ETL
- ELT
- Data pipelines
O projekcie: AI & Data Engineer (AI Agent / Snowflake / Power BI) The Role Build and deploy an AI Agent that leverages inventory data from Snowflake to deliver insights through Power BI. Wymagania: - Snowflake: Data modeling, SQL, integration. - Power BI: Advanced DAX, modeling, and dashboarding. - AI/ML: Experience implementing AI agents/LLMs in business contexts. - Python: Data analysis (pandas) and AI model integration. - ETL/ELT: Building and automating data pipelines. Codzienne zadania: - Design and implement an AI Agent for inventory management. - Integrate the AI model with the Snowflake data warehouse. - Create visualizations and reports in Power BI. - Optimize agent performance and train the end-user team.
Data & Reporting Junior Developer
One Support
⚲ Poznań
6 000 - 11 000 PLN (B2B)
Wymagania
- SQL
- ERP (nice to have)
- ETL (nice to have)
O projekcie: Umowa B2B Stabilne wynagrodzenie bazowe Atrakcyjny i jasny system premiowy (miesięczny + projektowy) Jasny system prowizyjny Szkolenia Niezbędne narzędzia do pracy Elastyczne godziny i hybrydowy system pracy Dynamiczny zespół Miła atmosferę Wymagania: Czego od Ciebie oczekujemy? Znajomości języka SQL Umiejętności pracy w zespole Wysokiej kultury osobistej Samodzielności i komunikatywności Dodatkowym atutem będą poniższe umiejętności: Znajomość SSAS, SSIS, SSRS Znajomość Microsoft Power BI Znajomość jednego z systemów klasy ERP Znajomość języka Angielskiego Codzienne zadania: - Budowa oraz rozwój systemów raportujących opartych o SQL / PowerBI - Analiza bieżących potrzeb klientów - Analiza istniejących i wdrażanie nowych rozwiązań - Utrzymanie, wsparcie i optymalizacja bieżących rozwiązań
DBA MongoDB (h/f)
emagine Polska
⚲ La Garenne-Colombes
Wymagania
- Microsoft Azure
- Security
- Cloud
- Infrastructure as a Service (IaaS)
- Database Administration (DBA)
- Governance
- Security Management (Workplace)
- Documentation
- MongoDB
Localisation: La Garenne-Colombes / 50% TT Durée: 3 ans Contexte: Ce poste de DBA MongoDB vise à gérer et optimiser les bases de données dans un contexte cloud, en supportant les équipes de développement et en assurant la continuité des services. Responsabilités : • Expertise avancée MongoDB (cluster, réplication, haute disponibilité). • Optimisation et performance tuning : analyse de requêtes, indexation, diagnostic. • Gestion de l’intégrité et de la sécurité des données. • Mise en place et suivi des sauvegardes, restauration, continuité de service. • Support utilisateur de niveau expert (accompagnement projets, résolution incidents). • Contribution à la gouvernance : standards, bonnes pratiques, documentation, monitoring. • Maitrise du cloud Azure en mode Iaas Compétences : • Compétences avancées en MongoDB (cluster, réplication, haute disponibilité) • MongoDB : Expertise (Optimisation et performance tuning) ; RUN (sauvegarde, restauration, continuité de service, support utilisateurs IT) • Anglais courant
Collibra Data Analyst
Square One Resources
⚲ Warsaw
26 880 - 31 920 PLN (B2B)
Wymagania
- Collibra
- Collibra Data Quality
- Collibra Metadata Catalog (nice to have)
- PowerBI (nice to have)
O projekcie: START DATE: ASAP We are seeking a Collibra Data Analyst to support a Data Quality initiative within a large enterprise data governance program. The consultant will design and implement Collibra Data Quality scorecards and help enable internal teams to maintain and evolve the solution. Wymagania: Required Experience - Proven experience implementing Collibra Data Quality - Strong knowledge of: - Data profiling - Data quality rules - Quality thresholds and metrics - Experience with data governance frameworks and stewardship models - Experience enabling business and technical teams Nice to Have - Experience with Collibra Metadata Catalog - Experience with Power BI or similar reporting tools - Experience in large enterprise environments Codzienne zadania: - Design and implement Collibra Data Quality scorecards - Define data profiling rules, thresholds, and quality metrics - Support monitoring and continuous improvement of data quality across domains - Facilitate training sessions and workshops for business and technical stakeholders - Provide documentation and knowledge transfer for internal teams - Support platform governance and best practices