Oferty pracy
Filtry
Databricks Data Engineer
Ework Group
⚲ Remote
25 200 - 28 560 PLN (B2B)
Wymagania
- Databricks
- Python
- Data engineering
- Cloud platform
- Azure
- GCP (nice to have)
- Communication skills (nice to have)
- SQL (nice to have)
- Data modeling (nice to have)
- DevOps (nice to have)
- CD pipelines (nice to have)
- Infrastructure as Code (nice to have)
- Bicep (nice to have)
- Kafka (nice to have)
- Spark Streaming (nice to have)
- Cloud (nice to have)
- Storage (nice to have)
- Snowflake (nice to have)
- PySpark (nice to have)
O projekcie: 🔹 For our Client we are looking for Senior Databricks Data Engineer🔹 Possible location in Poland : 100% remote ✔️About Insights and Data Insights & Data is a thriving team of over 400 professionals focused on delivering advanced data-driven solutions. Our expertise lies in Cloud & Big Data engineering, where we build scalable architectures for processing large and complex datasets across AWS, Azure, and GCP. We manage the entire Software Development Life Cycle (SDLC), leveraging modern data frameworks, programming methodologies, and DevOps best practices to create impactful and efficient solutions. Wymagania: - Experience in data engineering, with hands-on Databricks expertise. - Strong experience in Python for automation and data transformation. - Experience working with at least one major cloud platform (AWS, Azure, or GCP). - Strong communication skills and strong English language skills. ✔️Nice-to-Have: - Solid understanding of SQL with experience in query optimization and data modeling. - Familiarity with DevOps methodologies, CI/CD pipelines, and Infrastructure as Code (Terraform, Bicep). - Experience with real-time data streaming technologies such as Kafka or Spark Streaming. - Knowledge of cloud storage solutions like Data Lake, Snowflake, or Synapse. - Hands-on experience with PySpark for distributed data processing. - Relevant certifications such as Databricks Certified Data Engineer Associate or cloud-based data certifications. Codzienne zadania: - Design and implement data processing solutions using Databricks for large-scale and diverse datasets. - Design, build, and enhance data pipelines with Python and cloud-native tools. - Work closely with solution architects to define and uphold best practices in data engineering. - Ensure data consistency, security, and scalability within cloud-based environments.
Data Protection Specialist (Data Discovery, CASB, Proofpoint)
Mindbox Sp. z o.o.
⚲ Kraków
32 550 - 38 850 PLN (B2B)
Wymagania
- DLP
- CA
- Audit
- Stakeholder management
- Confluence
- Jira
- Security
- Cybersecurity
- GIAC (nice to have)
- CISSP (nice to have)
- CISA (nice to have)
- ISO (nice to have)
- Cloud access security broker (nice to have)
- risk management (nice to have)
O projekcie: At Mindbox we connect top IT talents with technology projects for leading enterprises across Europe. We are seeking an experienced General Data Protection Subject Matter Expert (SME) to lead and support global initiatives in data protection, compliance, and security controls. This role involves working with multiple stakeholders, managing policies, and ensuring adherence to security standards across the organization. You will provide technical expertise, governance leadership, and audit support, while driving risk reduction and operational excellence. Sounds like your kind of challenge? #LI - Hybrid What you get in return - Flexible cooperation model – choose the form that suits you best (B2B, employment contract, etc.) - Hybrid work setup – 6 days onsite per month - Collaborative team culture – work alongside experienced professionals eager to share knowledge - Continuous development – access to training platforms and growth opportunities - Comprehensive benefits – including Interpolska Health Care, Multisport card, Warta Insurance, and more - High quality equipment – laptop and essential software provided Wymagania: - Proven experience with data protection products, ideally at least two from: Symantec DLP, CASB, Microsoft Information Protection (MIP), Data Insight, Proofpoint. - Experience with anonymization tools such as Privitar, Delphix, CA TDM, or scripting for data masking. - Strong knowledge of data protection policies, governance, and compliance frameworks. - Experience working with audit teams, second lines of defense, and external regulators. - Excellent stakeholder management and ability to lead governance meetings. - Strong documentation and task management skills (e.g., Confluence, Jira). - Familiarity with agile processes and ability to work in a fast-paced, global environment. - Formal education in Information Security, Cybersecurity, Computer Science, or equivalent experience. - Minimum of 2–3 years of cybersecurity experience is beneficial. Desirable: - Information Security certifications such as GIAC, CISSP, CISA, CRISC, ISO 27001 Lead Auditor. - Experience with Cloud Access Security Broker (CASB) solutions. - Knowledge of risk management fundamentals and IT service management principles. Joining this project you’ll become part of Mindbox – a tech-driven company where consulting, engineering, and talent meet to build meaningful digital solutions. We’ll back you up every step of the way, accelerate your development, and ensure your skills make a difference. Codzienne zadania: - Support the delivery and operation of data protection strategies and ensure compliance with security policies and standards. - Act as a key representative and source of expertise on data protection issues. - Collaborate with IT Security Officers, Compliance teams, Control Owners, and Capability Owners to ensure global adherence to security requirements. - Provide audit and compliance support, including evidence, documentation, and responses for internal, external, and regulatory audits. - Manage data protection policies and guidelines, ensuring effective implementation and governance. - Lead and host data protection governance meetings with stakeholders, including audit and regulatory representatives. - Drive engagement with global cybersecurity teams, IT functions, and business stakeholders. - Promote a customer-focused culture, ensuring security solutions align with business needs. - Support risk reduction by deploying technology solutions that mitigate threats while aligning with business risk appetite. - Provide leadership and guidance to technical teams, fostering collaboration and knowledge sharing.
Data Engineer - Azure Databricks
ITDS
⚲ Warszawa
19 000 - 22 000 PLN netto (B2B)
Wymagania
- Azure Databricks
- Cloudera
- SQL
- Python
Unleash the Power of Data - Drive Strategic Innovation in Insurance! Warsaw-based opportunity with a hybrid work model - only 1 x week in the office (city center) As a Data Engineer, you will be working for our client, a leading player in the insurance industry dedicated to transforming data into strategic insights. You will contribute to migrating and modernizing their data environment on Azure, enabling smarter decision-making and operational excellence across international teams. This role offers a unique chance to innovate within a dynamic environment, supporting your professional growth in data engineering. Your main responsibilities: • Lead the migration of the on-premise Cloudera environment to Azure Databricks, ensuring seamless transition and scalability. • Develop and optimize data pipelines, transformations, and automation steps using Azure, Python, and SQL. • Collaborate with cross-functional teams to deliver high-quality reports and dashboards, supporting strategic business initiatives. • Enhance data processing workflows, increase automation, and implement new features for improved reporting and business steering. • Engage with international stakeholders to understand their data needs and deliver tailored solutions. • Drive continuous improvement in data delivery, transformation, and reporting processes. • Support and promote best practices in data engineering within a dynamic, international environment. You're ideal for this role if you have: • 3-5+ years of professional experience in data engineering or related fields, preferably within insurance or financial services. • Strong expertise in Azure Data Engineering tools, especially Azure Databricks, SQL, and Python. • Solid analytical skills and a structured, solution-oriented working approach. • Excellent communication skills with the ability to engage both technical and non-technical audiences. • A collaborative mindset with the confidence to actively participate in cross-departmental initiatives. • Good English (communicative level). • Polish language skills are required. Eligibility for the role: • Only candidates with an existing legal right to work in the European Union will be considered for this role. #MAKEYourCareerBETTER Our offer includes: • Stable and long-term cooperation with attractive conditions • Opportunities to develop your technical expertise across various industries and technologies • The chance to work on high-impact, strategic IT and digital transformation projects • A clear career path and the opportunity to grow quickly by contributing to diverse client initiatives over time • International environment, knowledge sharing, social events, and training opportunities • Access to an attractive medical package • Access to the Multisport program • Access to learning platforms such as Pluralsight #8675
Data Engineer (Industrial IoT Platform)
P&P Solutions
⚲ Warszawa
120 - 150 PLN/h netto (B2B)
Wymagania
- SQL Server
- ETL/ELT
- PostgreSQL/TimescaleDB
- Terraform
- Kubernetes
- Databricks
- Azure DevOps
📍 100% remote 🕐 Długoterminowy projekt produktowy 🛠 Technologie: Azure DevOps | Databricks | Kubernetes | SQL | ETL Do zespołu pracującego nad zaawansowaną platformą Industrial IoT poszukujemy Data Engineera, który będzie rozwijał rozwiązania wspierające cyfrową transformację procesów produkcyjnych. Nie jest to jednorazowy projekt – to długofalowy rozwój skalowalnej platformy produktowej, w której kluczowe znaczenie mają jakość danych, architektura i utrzymywalność rozwiązań 🚀 ✅ Wymagania • Minimum 4–5 lat doświadczenia jako Data Engineer • Doświadczenie w pracy nad platformami danych lub produktami data-driven, a nie tylko pojedynczymi projektami • Projektowanie i optymalizacja modeli danych • Budowanie pipeline’ów ETL/ELT • Doświadczenie z Databricks lub podobnymi platformami data engineeringowymi • Praca z SQL Server oraz PostgreSQL/TimescaleDB • Doświadczenie z Kubernetes • Terraform (Infrastructure as Code) • Azure DevOps – pipelines, repozytoria, release management • Wykształcenie techniczne (np. informatyka, telekomunikacja, matematyka, fizyka lub kierunki pokrewne) • Angielski na poziomie C1 ✅ Obowiązki • Projektowanie, implementacja i utrzymanie rozwiązań data engineeringowych w platformie produktowej • Tworzenie i optymalizacja modeli danych dla zastosowań: analitycznych, operacyjnych, predykcyjnych • Współudział w decyzjach dotyczących architektury danych i infrastruktury • Budowanie pipeline’ów danych i procesów ETL • Zapewnianie jakości, stabilności i utrzymywalności systemów poprzez automatyzację oraz CI/CD • Współpraca z Product Ownerami, developerami i interesariuszami biznesowymi • Analiza danych i wspieranie zespołu w budowaniu struktur analitycznych opartych na potrzebach biznesowych ✅ Oferujemy • Długoterminową współpracę przy rozwijaniu globalnej platformy technologicznej • Pracę nad realnym produktem, a nie krótkim projektem • Wpływ na architekturę danych i rozwój platformy • Współpracę z międzynarodowym zespołem ekspertów • Środowisko, w którym liczy się design thinking i inicjatywa technologiczna Zapraszamy do aplikowania!
Data Engineer
Falck Digital Technology Poland Sp. z o.o.
⚲ Warsaw
19 000 - 23 000 PLN (PERMANENT)
Wymagania
- SQL
- Data engineering
- PySpark
- Python
- Databricks
- Azure
- CD
- Communication skills
O projekcie: We are looking for a motivated engineer with a developing T-shaped profile – someone with a solid foundation in data engineering who is eager to learn and contribute to complex platform challenges. You will join our growing community of 60+ data and AI professionals across Copenhagen and Warsaw, becoming a key member of our mission-critical Data Platform team in the Warsaw hub. Your focus will be on the hands-on development of the core infrastructure and reusable components that all our other data teams rely on to deliver value. Your main responsibilities will involve: Platform & Framework Development - Design, build, and maintain core data pipelines and reusable frameworks using PySpark, Python, and SQL on our Databricks platform. - Develop foundational platform components that enable other teams to build their data solutions faster and more reliably. - Help integrate a wide variety of data sources into the platform in a standardized and scalable way. Ensuring Quality & Reliability - Take ownership of the quality of your code by writing unit tests, performing peer code reviews, and contributing to technical documentation. - Investigate and resolve bugs and performance issues in the core platform components, asking for support from senior engineers when needed. - Contribute to team-level standards for code, templates, and infrastructure to improve the platform's robustness. Using and Improving our Platform - Work comfortably with the core components of our data platform, Databricks and PySpark, to build and optimize data processing tasks. - Use our CI/CD pipelines to deploy platform services to the Azure cloud, and independently investigate and resolve common pipeline failures. Team Collaboration & Growth - Collaborate daily with other engineers on the platform team and with the engineers in other teams who use your frameworks. - Act as a source of advice for junior team members on standard technical issues and help onboard new colleagues. - Proactively seek and incorporate feedback from seniors and peers to drive your own learning and professional development. As a Data Engineer in our Warsaw office, you will be a key member of Falck’s mission-critical Data Platform team. You will focus on building, maintaining, and optimizing the core frameworks and data pipelines that our analytics, automation, and AI initiatives are built upon. Working within a highly technical team, you will help engineer the foundational components that empower teams across the entire organization. This role is a fantastic opportunity to grow your skills in a collaborative environment, learn from senior engineers, and make a tangible impact on the very foundation of Falck's data and AI capabilities. As a collaborative team player and proactive learner with a strong data engineering foundation, you leverage modern tools like AI to champion continuous improvement while developing your T-shaped skills by learning more about the business context, analytics, and AI. About us Falck's Data, Insights & AI department brings together experts in data engineering, analytics, AI, automation, and business partnering to support a global healthcare and emergency services organisation. With 60+ professionals in our Copenhagen and Warsaw hubs, we combine deep technical expertise with strong business understanding to build data and AI solutions that are reliable, scalable, and actually used. We work closely across the business and with central technology teams. This role is part of our mission-critical Data Platform team, which provides the shared standards and frameworks to accelerate delivery for the entire organization. We invest in our people, encourage T-shaped development, and foster a culture of care, trust, and collaboration – turning care into action through data and AI. Wymagania: Experience & track record: - A few years of professional experience in a data engineering or platform engineering role. - Demonstrated ability to work independently on routine, well-defined data engineering tasks. - Experience taking on more complex tasks with guidance and support from senior team members. Skills & capabilities: - Solid hands-on experience in our core technical stack: Azure, Databricks, PySpark, Python, and SQL. - Ability to build and maintain data pipelines for various common data sources. - A good understanding of data modeling concepts and their practical application. - You are comfortable using CI/CD pipelines for deployment and have a pragmatic approach to troubleshooting. - Good communication skills in English.
Data Cloud Engineer
Ework Group
⚲ Gdańsk
25 200 - 30 240 PLN (B2B)
Wymagania
- Snowflake
- AWS
- SQL
O projekcie: For our client, one of the International Software House, we realize a recruitment process for a Cloud Data Engineer role. Wymagania: - Hands-on experience with Snowflake in real-world projects - Solid understanding of Snowflake’s architecture, pricing model, and cost optimization strategies - Experience designing data transformation pipelines using native Snowflake tools or partner services - Familiarity with Snowflake’s security model and access controls - Practical knowledge of at least one public cloud (AWS, Azure, or GCP) in areas like storage, compute, networking, and DevOps - Comfortable with SQL and at least one programming language (e.g., Python, Scala, Java, or Bash) - Strong communication skills and a proactive mindsetFluent in English (B2+) Codzienne zadania: - Design, build, and maintain robust Snowflake data pipelines - Collaborate with cross-functional teams to deliver scalable, business-aligned data solutions - Optimize data models and schemas for performance and cost-efficiency - Ensure data quality, integrity, and security across the lifecycle - Plan and execute migrations from legacy systems to Snowflake - Implement monitoring and alerting for proactive issue resolution - Contribute to the development of AI/ML and Generative AI solutions - Stay ahead of the curve with Snowflake best practices and emerging tech
Azure Data Architect
AVENGA (Agencja Pracy, nr KRAZ: 8448)
⚲ Wrocław
31 920 - 36 120 PLN (B2B)
Wymagania
- Azure Data Services
- Azure Networking
- Cloud security
- IaaC
- Azure
O projekcie: Join our data solutions team—7 data architects—and work on improving the quality and building the value of individual solutions for data recipients in the company! Collaborate with product, data engineering, security and network teams to translate business needs into Azure data solutions. Wymagania: - Deep hands-on experience with core Azure data services (Data Lake, Synapse/Fabric, Databricks, Data Factory, Event Hub, Azure SQL, etc.) - Strong understanding of Azure networking (VNets, subnets, NSGs, firewalls, routing, Private Link, ExpressRoute/VPN, hybrid connectivity) - Solid knowledge of cloud security concepts (Entra ID, RBAC, least privilege, encryption, Key Vault, secrets management) - Proficiency with Infrastructure as Code tools (Bicep, Terraform or ARM) and CI/CD practices. Codzienne zadania: - Collaborate with product, data engineering, security and network teams to translate business needs into Azure data solutions. - Define and maintain reference architectures and reusable solution blueprints for common data use cases. - Continuously update platform standards based on Azure roadmap and new service capabilities including the technology selection. - Ensue solutions comply with enterprise network standards (VNet design, subnets, NSGs, routing, firewalls). - Design and enforce private connectivity patterns (Private Link, private endpoints, VNet integration, ExpressRoute/VPN). - Embed security by design in all blueprints (identity and access management, encryption, secrets and key management). - Integrate AI and advanced analytics into the platform approach - Establish standards for data models, naming conventions, metadata, data quality and lifecycle management - Lead or contribute to architecture/design reviews, ensuring adherence to platform and security standards. - Define monitoring, logging and observability patterns (Azure Monitor, Log Analytics, security tooling).
Senior/Staff Data Engineer
VirtusLab
⚲ Kraków
21 000 - 31 080 PLN (B2B)
Wymagania
- Python
- SQL
- Data engineering
- Snowflake
- Databricks
- AWS
- GCP
- Azure Cloud
- AWS S3
- Amazon EMR
- MWAA
- ADF
- Glue
- Data modelling (nice to have)
- IaC (nice to have)
- Terraform (nice to have)
- Spark (nice to have)
- Streaming tools (nice to have)
- dbt (nice to have)
O projekcie: We are #VLteam – tech enthusiasts constantly striving for growth. The team is our foundation, that’s why we care the most about the friendly atmosphere, a lot of self-development opportunities and good working conditions. Trust and autonomy are two essential qualities that drive our performance. We simply believe in the idea of “measuring outcomes, not hours”. Join us & see for yourself! About the role You will participate in defining the requirements and architecture for the new platform, implement the solution, and remain involved in its operations and maintenance post-launch. Your work will introduce data governance and management, laying the foundation for accurate and comprehensive reporting that was previously impossible. You will adhere to and actively promote engineering best practices, data governance standards, and the use of open standards. Build data ingestion & processing pipelines. Collaborate with stakeholders to define requirements, develop data pipelines and data quality metrics Please note that the project has not yet started, with an expected launch date in April 2026. Project Compass BI Project scope Our client is a company that specialises in insurance, reinsurance, and asset management. It focuses on delivering scalable capital solutions that cater to various areas, including property, casualty, and speciality insurance lines. Currently in its startup phase, it is actively strategising to enhance its operations and expand its service capabilities. A key aspect of their plans involves the adoption of modern technologies, which will enable the company to streamline processes and increase overall efficiency in their offerings through improved management of data. By leveraging modern technology, our client aims to position itself as a competitive player in the insurance industry while also addressing the evolving needs of its clients. As part of this transformation, Virtuslab (VL) will accelerate progress on its roadmap and in building a modern data platform with scalable compute capabilities, enhance reporting and workflow automation, and embed cloud-native engineering practices. Tech stack Azure, Databricks, SQL, Python, Power Bi Challenges The project involves building a comprehensive reporting and analytics platform from the ground up. Key challenges include integrating data from multiple complex sources, ensuring high data quality and consistency, and designing scalable data models that support both operational and analytical reporting. It also requires close collaboration with business stakeholders to understand reporting needs and translate them into effective data solutions. Team The team is small but highly motivated, taking on a broad scope of responsibilities as the platform is built and expanded. A few perks of being with us - Building tech community - Flexible hybrid work model - Home office reimbursement - Language lessons - MyBenefit points - Private healthcare - Training Package - Virtusity / in-house training And a lot more! Wymagania: - Hands-on experience with Python - Proven experience with data warehouse solutions (e.g., BigQuery, Redshift, Snowflake) - Experience with Databricks or data lakehouse platforms - Strong background in data modelling, data catalogue concepts, data formats, and data pipelines/ETL design, implementation and maintenance - Ability to thrive in an Agile environment, collaborating with team members to solve complex problems with transparency - Experience with AWS/GCP/Azure cloud services, including: GCS/S3/ABS, EMR/Dataproc, MWAA/Composer or Microsoft Fabric, ADF/AWS Glue - Experience in ecosystems requiring improvements and the drive to implement best practices as a long-term process - Experience with Infrastructure as Code practices, particularly Terraform, is an advantage - Proactive approach - Familiarity with Spark is a plus - Familiarity with Streaming tools is a plus Don’t worry if you don’t meet all the requirements. What matters most is your passion and willingness to develop. Apply and find out!
Senior DataOps Engineer
Link Group
⚲ Remote
18 480 - 20 160 PLN (B2B)
Wymagania
- DataOps
- Data
- Redshift
- Aurora
- DynamoDB
- Cloud Architecture
- Python
- Java
- TDD
- Automated testing
- DevOps
O projekcie: We are looking for a Senior DataOps Engineer to drive performance, scalability, and cost optimisation across our data platforms. You will maintain high-performing data pipelines, Data APIs, and our Customer Data Platform, while supporting analytical workloads and implementing forward-looking architectural patterns. Wymagania: - 5+ years of experience in DataOps or similar roles. - Strong experience with databases: Redshift, Aurora, DynamoDB. - Expertise in cloud architecture and AWS services listed above. - Proficiency in at least one programming language: Python or Java. - Hands-on experience with TDD, automated testing, and testing practices for data platforms. - Knowledge of system integration techniques and modern DevOps practices. - Experience designing software with scale, security, and reliability in mind. Codzienne zadania: - Maintain and improve quality standards across the Customer Data Platform. - Validate data accuracy, consistency, performance, and reliability. - Test integrations with multiple third-party platforms and internal systems. - Ensure seamless data ingestion, transformation, and storage processes. - Design and develop scalable test automation frameworks and test suites. - Perform functional and non-functional testing, including performance and security testing. - Collaborate with distributed Agile teams and stakeholders across locations. - Drive best practices in platform and data testing.
Senior Data Engineer (Databricks | Python | PySpark | Fabric)
1dea
⚲ Warszawa
23 520 - 25 200 PLN (B2B)
Wymagania
- Python
- Databricks
- GCP
- Data engineering
- IaaC
- Security
O projekcie: Senior Data Engineer (Databricks | Python | PySpark | Fabric) Szukamy doświadczonego Data Engineera, który dołączy do naszego zespołu w branży Marketplace. Jeśli czujesz się swobodnie w ekosystemie Google Cloud Platform, potrafisz budować skalowalne potoki danych i nie boisz się wyzwań związanych z automatyzacją infrastruktury – to ogłoszenie jest dla Ciebie! Prosimy o aplikacje CV w języku angielskim. --- Warunki zaangażowania: Obszar: E-commerce / Marketplace Lokalizacja: 100% zdalnie Start: ASAP (akceptujemy kandydatury z max 1msc okresem wypowiedzenia) Stawka (ustalana indywidualnie): 140 - 150 PLN netto + VAT / h Zaangażowanie: B2B (outsourcing z 1dea), full-time, długofalowo Proces rekrutacyjny (100% zdalnie): - Krótka rozmowa telefoniczna informacyjno-zapoznawcza z rekruterem 1dea (~10 min) - Weryfikacja techniczno-projektowa z Klientem (~1 - 1,5 h) - (Jeśli OK) Rozmowa zapoznawcza z przedstawicielem projektu u Klienta końcowego (~ 30 min) - Decyzja o podjęciu współpracy Tech Stack: - Języki: Python, SQL, Terraform (HCL), Bash (opcjonalnie Java/Go) - GCP Services: BigQuery, Dataproc (Spark), Dataflow, Cloud Run, Bigtable - CI/CD: Jenkins, GitHub Actions Oferujemy - Zatrudnienie na podstawie umowy B2B na czas nieokreślony - Dołączysz do firmy z solidną pozycją na rynku - Firma zapewnia nowoczesny sprzęt, oprogramowanie i konfigurację - Możliwość pracy w elastycznych godzinach - Możliwość pracy zdalnej w 100% - Profesjonalne doradztwo i wsparcie w rozwoju kariery od doświadczonego zespołu specjalistów 1dea - Cenimy sobie koleżeńskość, otwartość, szacunek, wzajemną pomoc i wsparcie w rozwijaniu kompetencji zarówno własnych, jak i kolegów i koleżanek z zespołu - Wspieramy kulturę kreatywności. Każdy członek zespołu ma możliwość proponowania własnych pomysłów i rozwiązań, a jego głos jest zawsze brany pod uwagę Wymagania: Wymagania - GCP Expert: Praktyczna biegłość w środowisku Google Cloud (szczególnie BigQuery, GCS, Cloud Functions). - Data Engineering: Głęboka wiedza z zakresu budowy potoków danych i rozwoju API. - Infrastructure as Code: Umiejętność samodzielnego provisioningu zasobów w GCP. - Networking & Security: Solidne zrozumienie kwestii sieciowych, ról oraz uprawnień (IAM). - Tools: Doświadczenie w orkiestracji (dbt, Airflow lub Cloud Composer). - Angielski: obowiązkowo komunikatywny w mowie i piśmie (B2+) Codzienne zadania: - Projektowanie i utrzymywanie wydajnych procesów ETL/ELT oraz logiki danych. - Budowanie warstw API w celu udostępniania produktów danych (Data Products). - Zarządzanie infrastrukturą GCP z wykorzystaniem podejścia Infrastructure as Code (Terraform). - Optymalizacja i modelowanie zbiorów danych w BigQuery. - Harmonizacja modeli KPI oraz mapowanie złożonych encji (Master Data Management).
Senior Data Engineer
AVENGA (Agencja Pracy, nr KRAZ: 8448)
⚲ Wrocław
26 880 - 30 240 PLN (B2B)
Wymagania
- SQL
- Azure Data Factory
- Databricks
- Informatica PowerCenter
- Informatica Data Integration
- SAP Business Object
- Power BI (nice to have)
- Power Automate (nice to have)
- Azure Functions (nice to have)
O projekcie: We are seeking an experienced Data Engineer with proven track of record to join our project and help with migrating BEAT to SPRING. Wymagania: - Advanced SQL - Experience in developing BI systems - Azure Data Factory - SAP BusinessObjects – or training - Databricks – if candidate is advanced in SQL, can be self-trained - Unix - Informatica PowerCenter - Informatica Cloud Data Integration
Senior Data Engineer
Devire
⚲ Warszawa
25 200 - 25 200 PLN (B2B)
Wymagania
- Data
- GCP
- BigQuery
- GCP Big Table
- ETL Flow
- Apache Airflow
- GCP Data Flow
- GCP Data Proc
- Kafka
- GCP Pub/Sub
- Oracle
- PostgreSQL
- ScyllaDB
- REST API
- Python
- PySpark
- Rust
O projekcie: Dla naszego klienta - międzynarodowego banku, oferującego szeroki zakres usług finansowych, w tym bankowość detaliczną, korporacyjną i inwestycyjną, obsługę klientów indywidualnych, firm i instytucji publicznych, kredyty, lokaty, konta, leasing, faktoring, usługi skarbowe i inwestycyjne, poszukujemy osoby na stanowisko - Senior Data Engineer. - Wynagrodzenie w oparciu o umowę B2B (via Devire). - Pakiet benefitów (opieka medyczna, karta multisport itp.). - Długofalowa współpraca. - Model hybrydowy (1 dzień w biurze) Wymagania: - Co najmniej 5-letniego doświadczenia jako Data Engineer GCP w obszarze procesów integracji danych na GCP: - Bardzo Dobra znajomość baz danych GCP : GCP Big Query, GCP Big Table, Scylla Cloud (projektowanie, budowa i tiuning baz danych) - Dobra Znajomość narzędzi ETL Flow na GCP : Apache AirFlow , GCP Data Flow, GCP Data Proc - Korzystanie z kolejek : Kafka, GCP Pub / Sub - Co najmniej 4-letnie doświadczenie jako Developer ETL w obszarze procesów integracji danych na on-prem : - Biegłe posługiwanie się narzędziami ETL na on-prem na poziomie zaawansowanym : Informatic Power Center , ** NIFI - Ekspercka znajomość relacyjne bazy danych Oracle, PostgeSQL , ScyllaDB (projektowanie, budowa i tiuning baz danych) - Bardzo dobra znajomość narzędzia harmonogramującego Automate Now firmy Infinity Data - Umiejętność wystawiania usług Rest API - Co najmniej 3-letnie doświadczenie jako programista w językach : - Znajomość Python (w obszarze integracji i analizy danych), i framework PySpark - Znajomość języka Rust do pisania narzędzi i frame worków wspomagających wydajne ładowanie danych - Z czasem przejęcie odpowiedzialności za wybrany obszar przetwarzania i wystawiania danych pod usługi w wysokim reżimie wydajnościowym Codzienne zadania: - Chociaż podstawowa wiedza w zakresie programowania MicroServices w języku JAVA - Korzystanie z systemu operacyjnego linux na poziomie zaawansowanego użytkownika, - Doświadczenie w pracy z dużymi wolumenami danych ~100TB, - Umiejętności analitycznego myślenia i szybkiego przyswajania wiedzy - Samodzielności i kreatywności w rozwiązywaniu problemów - Terminowości i rzetelności w realizacji projektów - Mile widziana znajomość narzędzi pomocniczych : repozytorium GIT; narzędzi do monitorowania jak np. grafana ; narzędzia do testów wydajności jak Apache JMeter
Senior Business Intelligence Engineer
1dea
⚲ Warszawa
24 360 - 26 040 PLN (B2B)
Wymagania
- BI
- Power BI
- SQL
- SharePoint
- Security
- ETL (nice to have)
- Azure Data Factory (nice to have)
- SSIS (nice to have)
- Azure (nice to have)
- Data Lake (nice to have)
- Tableau (nice to have)
- Qlik (nice to have)
O projekcie: Senior Business Intelligence Engineer Jako Senior BI Engineer w naszym zespole, będziesz architektem rozwiązań, które zmieniają surowe dane w realne decyzje biznesowe. Szukamy osoby, która łączy zaawansowane umiejętności techniczne z umiejętnością „tłumaczenia” potrzeb biznesu na wydajne raporty i modele danych. Szczegóły organizacyjne: - Branża: Konsulting IT - Liczba wakatów: 1 - Lokalizacja: Praca w 100% zdalna - Data rozpoczęcia: ASAP (maksymalnie 1-miesięczny okres wypowiedzenia) - Wynagrodzenie: 145 - 155 PLN netto + VAT / godzina (do negocjacji) - Rodzaj umowy: B2B (outsourcing przez 1dea), pełny etat, współpraca długoterminowa Nasz proces rekrutacji Nasz w pełni zdalny proces rekrutacyjny jest prosty i sprawny: - Wstępna rozmowa telefoniczna: Krótka rozmowa (~10 minut) z rekruterem z 1dea, podczas której omówimy projekt i warunki współpracy - Prezentacja profilu: Przedstawiamy Twoje CV naszemu klientowi - Rozmowa techniczna i projektowa: Rozmowa wideo z zespołem klienta, na której omawiamy Twoje umiejętności techniczne i dotychczasowe doświadczenie w projektach (~1-1,5 godziny) - (Opcjonalnie) Końcowa rozmowa: Krótkie spotkanie (~30 minut) z menedżerem technicznym po stronie klienta - Decyzja: Podejmujemy ostateczną decyzję i składamy ofertę współpracy Mile widziane (Twoje dodatkowe atuty): - Doświadczenie w budowaniu procesów ETL/ELT (Azure Data Factory, MS Fabric, SSIS lub inne). - Znajomość chmury (Azure, GCP lub AWS) w kontekście narzędzi BI. - Doświadczenie z Data Lakes oraz przetwarzaniem danych w czasie rzeczywistym. - Znajomość innych narzędzi BI (Tableau, Qlik) lub systemów RDBMS (Oracle, Teradata). - Komunikatywna znajomość języka francuskiego. - Praca w metodykach Agile (Scrum, Kanban). Oferujemy - Długofalowa współpraca: Zależy nam na stałej współpracy, dlatego od samego początku oferujemy umowę B2B na czas nieokreślony. Nasz klient stawia wyłącznie na długoterminowe partnerstwo - Stabilność i rozwój: Dołączysz do firmy o silnej i ugruntowanej pozycji na rynku - Nowoczesne narzędzia pracy: Zapewnimy Ci cały niezbędny sprzęt i oprogramowanie, abyś mógł/mogła w pełni wykorzystać swój potencjał - Elastyczny czas pracy: Masz pełną swobodę w organizacji swojego dnia pracy - Praca 100% zdalna: Stanowisko jest w pełni zdalne, co daje Ci możliwość pracy z dowolnego miejsca - Kultura współpracy: Cenimy sobie pracę zespołową, otwartość i wzajemny szacunek. Zachęcamy do kreatywności i doceniamy wkład każdego członka zespołu, a Twoje pomysły i sugestie będą miały realny wpływ na projekt Wymagania: Wymagania - Doświadczenie: Minimum 5 lat pracy komercyjnej na podobnym stanowisku. - Power BI Powerhouse: Bardzo silne doświadczenie w pracy z Power BI oraz biegłość w korzystaniu z różnorodnych źródeł danych (SQL, SharePoint, pliki płaskie, źródła webowe). - Architektura danych: Głębokie zrozumienie projektowania relacyjnych i wymiarowych baz danych. - Security & Governance: Znajomość zasad bezpieczeństwa i zarządzania danymi w skali Enterprise. - Soft Skills: Proaktywność, silne poczucie odpowiedzialności za dostarczane rozwiązania oraz doskonałe umiejętności interpersonalne. - Język angielski: Bardzo dobra znajomość w mowie i piśmie (praca w środowisku międzynarodowym, B2+). Codzienne zadania: - Projektowanie i wdrożenia: Tworzenie kompleksowych raportów, dashboardów oraz modeli danych, które wspierają naszych partnerów biznesowych na całym świecie. - Rola ekspercka (SME): Występowanie jako Subject Matter Expert w kluczowych projektach BI, doradzanie w zakresie architektury i najlepszych praktyk. - Współpraca cross-functional: Bliska kooperacja z Data Engineerami, Project Managerami oraz interesariuszami z różnych stref czasowych. - Rozwiązywanie złożonych problemów: Przekładanie wyzwań biznesowych na skalowalne i bezpieczne rozwiązania techniczne.
Regular Data Engineer (Python Spark SQL)
1dea
⚲ Warszawa
21 840 - 25 200 PLN (B2B)
Wymagania
- Python
- ETL
- Big Data
- SQL
- Spark
- Apache Airflow (nice to have)
- Hadoop (nice to have)
- Hive (nice to have)
- Kafka (nice to have)
- AWS (nice to have)
- Azure (nice to have)
- GCP (nice to have)
- Git (nice to have)
- Power BI (nice to have)
- Tableau (nice to have)
O projekcie: Regular Data Engineer (Python | Spark | SQL) Poszukujemy doświadczonego Regular Data Engineera, który dołączy do naszego zespołu. Oferujemy możliwość pracy zdalnej z elastycznością, wymagając jedynie okazjonalnych wizyt w biurze naszego Klienta w Krakowie (2-3 dni w miesiącu). Prosimy o aplikacje CV w języku angielskim. --- Warunki zaangażowania: Obszar: Finanse / Bankowość Lokalizacja: 90% zdalnie (2-3dni w msc praca w biurze w Krakowie, reszta zdalnie) Start: ASAP (akceptujemy kandydatury z max 2msc okresem wypowiedzenia) Stawka (ustalana indywidualnie): 130 - 150 PLN netto + VAT / h Zaangażowanie: B2B (outsourcing z 1dea), full-time, długofalowo Proces rekrutacyjny (100% zdalnie): - Krótka rozmowa telefoniczna informacyjno-zapoznawcza z rekruterem 1dea (~10 min) - Weryfikacja techniczno-projektowa z Klientem (~1 - 1,5 h) - (Jeśli OK) Rozmowa zapoznawcza z przedstawicielem projektu u Klienta końcowego (~ 30 min) - Decyzja o podjęciu współpracy Oferujemy - Zatrudnienie na podstawie umowy B2B na czas nieokreślony - Dołączysz do firmy z solidną pozycją na rynku - Firma zapewnia nowoczesny sprzęt, oprogramowanie i konfigurację - Możliwość pracy w elastycznych godzinach - Możliwość pracy zdalnej w 100% - Profesjonalne doradztwo i wsparcie w rozwoju kariery od doświadczonego zespołu specjalistów 1dea - Cenimy sobie koleżeńskość, otwartość, szacunek, wzajemną pomoc i wsparcie w rozwijaniu kompetencji zarówno własnych, jak i kolegów i koleżanek z zespołu - Wspieramy kulturę kreatywności. Każdy członek zespołu ma możliwość proponowania własnych pomysłów i rozwiązań, a jego głos jest zawsze brany pod uwagę Wymagania: Wymagania - Min. 4 lata doświadczenia w zarządzaniu aplikacjami IT. - Biegła znajomość SQL oraz dobra wiedza z zakresu Python/Spark. - Zrozumienie zarządzania dostępem użytkowników. - Podstawowa wiedza o Unix i środowisku Big Data (HDFS). - Biegła znajomość języka angielskiego w mowie i piśmie (B2+) Mile widziane: - Doświadczenie z narzędziami do orkiestracji/harmonogramowania procesów (np. Apache Airflow). - Praktyczna znajomość ekosystemu Hadoop (np. Hive, Impala, Kafka). - Znajomość platform chmurowych (AWS, Azure lub GCP). - Doświadczenie z systemami kontroli wersji (Git). - Znajomość narzędzi Business Intelligence (np. Power BI, Tableau). Codzienne zadania: - Projektowanie i utrzymanie potoków danych (ETL/ELT) i infrastruktury Big Data. - Zarządzanie dostępem użytkowników do systemów IT. - Koordynacja zadań i ścisła współpraca z wieloma zespołami. - Tworzenie zapytań SQL oraz skryptów w Pythonie i Spark. - Opracowywanie dokumentacji technicznej i prezentacji.
Principal Data Engineer
Link Group
⚲ Remote
25 200 - 26 880 PLN (B2B)
Wymagania
- Data
- Data pipelines
- Data Governance
- Security
- Monitoring
- Automation
- Stakeholder management
O projekcie: We are looking for a Principal Data Engineer to lead the design, development, and optimisation of large-scale data pipelines. You will architect robust and scalable solutions to ingest, transform, and analyse structured and unstructured data, ensuring high performance, reliability, and compliance with organisational standards. Wymagania: - Proven experience leading data engineering projects and teams. - Expertise in building scalable data pipelines for large datasets. - Strong knowledge of data governance, security, and quality practices. - Hands-on experience with monitoring, automation, and disaster recovery workflows. - Excellent stakeholder management and mentoring skills. - Deep understanding of emerging data technologies and industry best practices. Codzienne zadania: - Lead the development of complex, scalable data pipelines across diverse data sources. - Ensure data quality, governance, and security in compliance with organisational and industry standards. - Prioritise stakeholder requirements and identify optimal solutions for timely delivery. - Build automation workflows including monitoring, alerting, and business continuity processes. - Mentor and guide team members, promoting best practices in coding, testing, and engineering. - Evaluate emerging technologies and provide recommendations for upgrades and new releases. - Lead disaster recovery planning and testing.
Power Platform Engineer
Connectis_
⚲ Remote
17 304 - 21 168 PLN (B2B)
Wymagania
- Power Platform
- Microsoft Power Apps
- REST API
- Power Automate
- JavaScript
- TypeScript
- Power BI
- SQL Server
- SharePoint
- Azure
- API (nice to have)
O projekcie: Wspólnie z naszym Partnerem, jedną z największych i najbardziej renomowanych firm w branży usługowej, poszukujemy osoby na stanowisko Power Platform Engineer. Nasz Partner to wiodąca firma działająca w obszarze nowoczesnych technologii, robotyki oraz automatyzacji. Specjalizuje się w dostarczaniu zaawansowanych rozwiązań robotycznych i automatycznych systemów dla różnych sektorów przemysłowych, takich jak produkcja, logistyka czy magazynowanie. ✨ OFERUJEMY: - Uczestnictwo w spotkaniach integracyjnych oraz meetupach technologicznych, umożliwiających dzielenie się wiedzą i doświadczeniem. - Wsparcie dedykowanej osoby kontaktowej z Connectis, dostępnej w celu pomocy w sprawach związanych z projektem. - Rozwój kariery i długofalową współpracę w firmie o ugruntowanej pozycji na rynku. - 5000 PLN za polecenie znajomych do naszych projektów. - Dostęp do najnowszych technologii i narzędzi pracy. - Szybki i zdalny proces. - Pracę 100% zdalną. Dziękujemy za wszystkie zgłoszenia. Pragniemy poinformować, że skontaktujemy się z wybranymi osobami. Wymagania: 🔍 CZEGO OCZEKUJEMY OD CIEBIE? - Minimum 2-letnie doświadczenie komercyjne na stanowisku Power Platform Engineera. - Znajomość Power Fx oraz JavaScript/TypeScript w kontekście rozszerzania funkcjonalności Power Apps. - Doświadczenie w tworzeniu aplikacji biznesowych w Power Apps (Canvas Apps, Model-Driven Apps). - Doświadczenie w pracy z Dataverse (zarządzanie danymi, modelowanie encji oraz relacje). - Doświadczenie w integracji Power Platform z innymi systemami poprzez REST API. - Podstawowa znajomość Power BI w zakresie budowania dashboardów i raportów. - Dobra znajomość SQL Server i/lub SharePoint jako źródeł danych dla aplikacji. - Podstawowa znajomość Azure (Logic Apps, Functions, API Management). - Bardzo dobra znajomość języka angielskiego. Mile widziane: - Znajomość Microsoft 365 (SharePoint, OneDrive, Teams). - Znajomość Power Automate. Codzienne zadania: - Praca z Microsoft Dataverse, Microsoft SharePoint i Microsoft SQL Server jako źródłami danych. - Projektowanie i budowa aplikacji w Microsoft Power Apps (Canvas Apps, Model-Driven Apps). - Monitorowanie, optymalizacja wydajności oraz debugowanie aplikacji w Power Platform. - Integracja aplikacji z systemami zewnętrznymi (REST API, konektory, Microsoft 365). - Analiza wymagań biznesowych i przekładanie ich na rozwiązania w Power Platform. - Tworzenie i optymalizacja przepływów automatyzacji w Microsoft Power Automate.
Mid / Senior ETL Developer (Microsoft Platform)
1dea
⚲ Warszawa
23 520 - 27 720 PLN (B2B)
Wymagania
- ETL
- SSIS
- Relacyjne Bazy Danych
- SQL
- SQL Server Integration Services
- Azure Data Factory (nice to have)
- Azure SQL Database (nice to have)
- Power BI (nice to have)
- SSRS (nice to have)
- PowerShell (nice to have)
- Python (nice to have)
O projekcie: Mid / Senior ETL Developer (Microsoft Platform) Szukamy doświadczonego ETL Developera, który dołączy do naszego zespołu odpowiedzialnego za projektowanie i utrzymanie przepływów danych oraz integrację systemów w oparciu o technologie Microsoft. Jeśli czujesz się swobodnie w architekturze hurtowni danych i potrafisz optymalizować procesy przetwarzania informacji, to stanowisko jest dla Ciebie. Prosimy o aplikacje CV w języku angielskim. --- Warunki zaangażowania: Obszar: Consulting IT Lokalizacja: 100% zdalnie Start: ASAP (akceptujemy kandydatury z max 1msc okresem wypowiedzenia) Stawka (ustalana indywidualnie): 140 - 165 PLN netto + VAT / h Zaangażowanie: B2B (outsourcing z 1dea), full-time, długofalowo Proces rekrutacyjny (100% zdalnie): - Krótka rozmowa telefoniczna informacyjno-zapoznawcza z rekruterem 1dea (~10 min) - Weryfikacja techniczno-projektowa z Klientem (~1 - 1,5 h) - (Jeśli OK) Rozmowa zapoznawcza z przedstawicielem projektu u Klienta końcowego (~ 30 min) - Decyzja o podjęciu współpracy Oferujemy - Zatrudnienie na podstawie umowy B2B na czas nieokreślony - Dołączysz do firmy z solidną pozycją na rynku - Firma zapewnia nowoczesny sprzęt, oprogramowanie i konfigurację - Możliwość pracy w elastycznych godzinach - Możliwość pracy zdalnej w 100% - Profesjonalne doradztwo i wsparcie w rozwoju kariery od doświadczonego zespołu specjalistów 1dea - Cenimy sobie koleżeńskość, otwartość, szacunek, wzajemną pomoc i wsparcie w rozwijaniu kompetencji zarówno własnych, jak i kolegów i koleżanek z zespołu - Wspieramy kulturę kreatywności. Każdy członek zespołu ma możliwość proponowania własnych pomysłów i rozwiązań, a jego głos jest zawsze brany pod uwagę Wymagania: Wymagania - Min. 2 lata doświadczenia w projektowaniu rozwiązań ETL z wykorzystaniem Microsoft SQL Server Integration Services (SSIS). - Min. 1 rok doświadczenia w pracy z narzędziami do harmonogramowania zadań (np. SQL Server Agent, ActiveBatch, Control-M lub podobne). - Biegła znajomość T-SQL: Umiejętność pisania zaawansowanych kwerend, procedur składowanych oraz funkcji. - Znajomość relacyjnych baz danych (preferowany MS SQL Server). - Doświadczenie w pracy z hurtowniami danych (Data Warehousing concepts). - Język angielski na poziomie komunikatywnym B2+ Mile widziane: - Znajomość platformy Azure (Azure Data Factory, Azure SQL Database). - Doświadczenie w pracy z narzędziami raportowymi (np. Power BI lub SSRS). - Podstawowa znajomość języków skryptowych (np. PowerShell lub Python). Codzienne zadania: - Projektowanie i wdrażanie procesów ETL/ELT: Tworzenie wydajnych pakietów integracyjnych przy użyciu MS SSIS. - Zarządzanie przepływem danych: Integracja danych z różnych źródeł (relacyjne bazy danych, pliki płaskie, API) do centralnej hurtowni danych. - Automatyzacja i harmonogramowanie: Konfiguracja i nadzór nad cyklicznym uruchamianiem procesów przy użyciu profesjonalnych narzędzi do schedulingu. - Optymalizacja zapytań: Monitorowanie wydajności procesów oraz optymalizacja zapytań SQL w celu skrócenia czasu przetwarzania danych. - Utrzymanie i debugging: Diagnozowanie oraz naprawa błędów w istniejących przepływach danych (troubleshooting). - Dokumentacja techniczna: Tworzenie i aktualizacja dokumentacji dotyczącej architektury danych i mapowań.
Lead Data Engineer (Databricks)
Godel Technologies Europe
⚲ Białystok, Warszawa, Gdańsk, Łódź, Wrocław
25 200 - 33 600 PLN (B2B)
Wymagania
- Databricks
- Data engineering
- Python
- SQL
- ETL
- Cloud
- UNITY
- Apache Spark
- PySpark
- Communication skills
- Kafka (nice to have)
- MySQL (nice to have)
- PowerBI (nice to have)
O projekcie: At Godel Technologies, we are passionate about building innovative data platforms and software solutions that empower businesses around the world. We are growing and looking for a Lead Data Engineer with strong Databricks expertise to join our team. If you enjoy working with modern data technologies, solving complex data challenges, and designing scalable cloud data platforms - we would love to hear from you. As a Lead Data Engineer, you will play a key role in designing and implementing large-scale data platforms based on Databricks. You will lead the development of distributed data processing pipelines, ensure high performance and reliability of data systems, and guide engineering teams in implementing best practices for modern data architecture. You will work closely with Solution Architects, Data Engineers, Data Scientists, and business stakeholders to build secure, scalable, and high-performing data solutions that support advanced analytics, machine learning, and data-driven decision making. This is a hybrid role, which means we'd like you to work in the office occasionally, especially during client visits or other important company meetings. We'd also like you to be willing to take an occasional short business trips to Warsaw (approximately four times a year). Wymagania: Must have: - 7+ years of experience in Data Engineering (including min. 5 years with Databricks) - Strong experience in Databricks Data Platform for distributed data processing - Excellent programming skills in Python and SQL - Strong understanding of data modeling, data lakehouse architecture, and ELT/ETL patterns - Experience designing scalable cloud-based data platforms (AWS / Azure) - Knowledge of data governance, security, and access control best practices (Unity Catalog, dbt) - Experience leading or mentoring engineers is a strong advantage - Strong analytical thinking and problem-solving skills - Excellent communication and collaboration skills - Fluency in English (at least B2) Nice to have: - Data Streaming: Kafka - Databases: MS SQL (SSIS, SSAS), PostgreSQL, MySQL - BI tools: PowerBI Codzienne zadania: - Design and implement scalable data platforms and pipelines using Apache Spark on Databricks - Lead the development of distributed data processing pipelines using PySpark and SparkSQL - Build and manage Databricks Workflows for orchestration, scheduling, monitoring, and error handling - Optimize Spark workloads by applying join strategies, shuffle optimization, caching, and partitioning techniques - Design and maintain Delta Lake architectures, including schema evolution, ACID transactions, and performance tuning - Implement data governance and access control using Unity Catalog, including permissions, lineage, and secure data sharing - Collaborate with architects and engineering teams to design cloud-native data platforms - Ensure data quality, observability, and reliability across pipelines and data products - Lead performance optimization of large-scale data processing workloads - Mentor and support other Data Engineers, contributing to engineering standards and best practices - Participate in architecture discussions and contribute to the evolution of the company’s data engineering practices
Expert Data Engineer
Ework Group
⚲ Warszawa, Gdynia, Łódź, Gdańsk
28 560 - 32 760 PLN (B2B)
Wymagania
- Hadoop
- Scala
- Spark
- Linux
- SQL
- AWS
O projekcie: Szukamy osób na stanowisko Expert Data Engineer, które potrafią skutecznie współpracować z zespołem i osiągać cele dzięki dobrej komunikacji oraz pracy w środowisku Agile (SAFe). Poszukujemy osób ciekawych nowych rozwiązań, otwartych na potrzeby innych i nastawionych na dostarczanie realnej wartości biznesowej. Ważna jest dla nas dbałość o jakość, ciągłe doskonalenie tworzonych rozwiązań oraz wysoki poziom samomotywacji w codziennej pracy nad nowoczesnymi systemami danych. Wymagania: - Doświadczenie w Spark & Scala – minimum 5 lat - Doświadczenie w Python – minimum 7 lat - Doświadczenie w Linux – minimum 5 lat - Doświadczenie z rozproszonymi silnikami przetwarzania danych (np. Spark) - Doświadczenie z Hadoop oraz jego ekosystemem (Hive, Oozie, MapReduce, YARN, EMR, Sqoop itd.) - Bardzo dobre / zaawansowane umiejętności SQL - Doświadczenie w tworzeniu data flow - Ekspercka znajomość Bitbucket i Git - Certyfikat AWS lub doświadczenie w pracy z AWS - Doświadczenie w testach jednostkowych (JUnit 5, Mockito, Spark testing) - Znajomość strategii wersjonowania kodu i branching strategy - Zaawansowana znajomość języka angielskiego. Codzienne zadania: - Budowanie systemów i aplikacji danych wspierających procesy podejmowania decyzji. - Tworzenie i utrzymywanie pipeline’ów danych w chmurach publicznych, takich jak AWS. - Budowanie rozproszonych i silnie zrównoleglonych pipeline’ów Big Data, które przetwarzają ogromne ilości danych (zarówno ustrukturyzowanych, jak i nieustrukturyzowanych) w czasie zbliżonym do rzeczywistego. - Udział w migracji danych z infrastruktury on-premise do chmur publicznych oraz tworzenie komponentów centralnych platform danych przedsiębiorstwa. - Wykorzystywanie Spark do wzbogacania i transformacji danych korporacyjnych, aby umożliwić wyszukiwanie, wizualizację danych i zaawansowaną analitykę. - Ścisła współpraca z analitykami oraz interesariuszami biznesowymi przy tworzeniu modeli analitycznych. - Ciągłe dostarczanie rozwiązań na platformach Hadoop i innych platformach Big Data. - Automatyzowanie procesów tam, gdzie to możliwe, tak aby były powtarzalne i niezawodne. - Ścisła współpraca z zespołem QA.
Data Scientist (genAI)
Lingaro
⚲ Warsaw
21 000 - 25 500 PLN (B2B)
Wymagania
- genAI
O projekcie: - Stable employment. On the market since 2008, 1500+ talents currently on board in 7 global sites. - “Office as an option” model. You can choose to work remotely or in the office. - Workation. Enjoy working from inspiring locations in line with our workation policy. - Great Place to Work® certified employer. - Flexibility regarding working hours and your preferred form of contract. - Comprehensive online onboarding program with a “Buddy” from day 1. - Cooperation with top-tier engineers and experts. - Unlimited access to the Udemy learning platform from day 1. - Certificate training programs. Lingarians earn 500+ technology certificates yearly. - Upskilling support. Capability development programs, Competency Centers, knowledge sharing sessions, community webinars, 110+ training opportunities yearly. - Grow as we grow as a company. 76% of our managers are internal promotions. - A diverse, inclusive, and values-driven community. - Autonomy to choose the way you work. We trust your ideas. - Create our community together. Refer your friends to receive bonuses. - Activities to support your well-being and health. - Plenty of opportunities to donate to charities and support the environment. - Modern office equipment. Purchased for you or available to borrow, depending on your location. Wymagania: - At least 5+ years of experience in a similar position. - Familiarity with theory behind various machine learning concepts. - Experience with Machine Learning (ML), especially in the area of Genertative AI (LLM/LMM) with focus on Natural Language Processing (NLP) or multi modal models. - Experience with business requirements gathering, transforming them into technical plan, data processing, feature engineering, models evaluation, hypothesis testing and model deployment. - Fluency in Python, working knowledge of SQL and vector database. - Knowledge of specific DS/ML/CVGenAI/NLP libraries like: NumPy, Keras, TensorFlow, PyTorch, HuggingFace, LangChain, and GenAI APIs i.e. OpenAI/Gemini. - Expertise in Azure cloud resources, Databricks. Missing one or two of these qualifications? We still want to hear from you! If you bring a positive mindset, we'll provide an environment where you feel valued and empowered to learn and grow. Codzienne zadania: - Running end-to-end initiatives (Business understanding, Data understanding/preparation, Modeling, Evaluation and Deployment). - Analyzing and interpreting the findings. - Drawing conclusions and recommendations - including expected benefits and measuring ROI for enhancing business processes. - Supporting Pre-sales activities and initiatives.
Data Scientist
DCG
⚲ Gdynia, Gdańsk, Warszawa
25 200 - 26 880 PLN (B2B)
Wymagania
- Python
- T-SQL
- DAX
- Power Platform
- BI
- Machine learning
- Degree
O projekcie: As a recruitment company, DCG understands that every business is powered by experienced professionals. Our management style and partnership approach enable us to meet your needs and provide continuous support. Due to our ongoing growth and the large number of recruitment projects we undertake for our partners, we are currently looking for: Data Scientist Hybrid work from Gdansk/ Gdynia or Warsaw - Offer: - Private medical care - Co-financing for the sports card - Constant support of dedicated consultant - Employee referral program Wymagania: - Expert in statistics, Python, T-SQL, Power Query, DAX, MS Power BI / MS Power Platform, GIT - Strong professional experience in T-SQL, DAX - Professional experience using Python for ML and data wrangling - Experience in one or more Business Intelligence tool as MS Power BI (preferred) - Deep knowledge of statistical techniques for descriptive and predictive analytics - Data mining or extracting usable data from valuable data sources - Using machine learning tools to select features, create and optimize classifiers - Excellent presentation skills - ITIL Foundation certified or proven work experience in IT Service Management - Lean-Agile trained or certified (Scrum or SAFe)Academic degree in Science, Software Engineering, Mathematics, Statistics or similar - Fluency in English (C2 level at least) Codzienne zadania: - Developing and maintaining solutions in Power BI Service / Microsoft Fabric - Co-creating novel ideas with our stakeholders - Co-building a future Insights Data Analytics service - Working with hypothesis to prove or reject business statements - Hypothesis testing and designing statistical models - Building advanced reports/dashboards - Analysing, processing and modelling data, interpret the results to create actionable insights - Ensuring complete collection and quality of data while adhering to best data practices - Working within SAFe Scrum Team with the aligned autonomy
Data Privacy Reviewer
Mindbox Sp. z o.o.
⚲ Kraków
21 000 - 27 300 PLN (B2B)
Wymagania
- GDPR
- risk management
- Communication skills
O projekcie: At Mindbox we connect top IT talents with technology projects for leading enterprises across Europe. Join Our Team as a Data Privacy Reviewer! Are you passionate about data privacy, governance, and ensuring compliance with global regulations? We are looking for a Data Privacy Reviewer to join our Data Privacy Management team and play a key role in managing operational processes, guiding stakeholders, and driving adherence to global data management policies. Sounds like your kind of challenge? #LI-Hybrid - Hybrid – 2 days a week in the Kraków office What you get in return - Flexible cooperation model – choose the form that suits you best (B2B, employment contract, etc.) - Hybrid work setup – remote days available depending on the client’s arrangements - Collaborative team culture – work alongside experienced professionals eager to share knowledge - Continuous development – access to training platforms and growth opportunities - Comprehensive benefits – including Interpolska Health Care, Multisport card, Warta Insurance, and more - High quality equipment – laptop and essential software provided Wymagania: - Experience & Knowledge: - In-depth understanding of data privacy laws (e.g., GDPR, CCPA). - Experience in data governance, privacy risk management, or related roles. - Skills: - Strong ability to manage multiple stakeholders and understand both technology and business concepts. - Excellent interpersonal, analytical, and communication skills. - Ability to identify and mitigate data risks, prioritize responses, and explain complex issues clearly. - Strong organizational skills with the ability to work under pressure and manage changing priorities. - Other Requirements: - Proven track record of taking ownership and working independently. - Excellent verbal and written English communication skills. Joining this project you’ll become part of Mindbox – a tech-driven company where consulting, engineering, and talent meet to build meaningful digital solutions. We’ll back you up every step of the way, accelerate your development, and ensure your skills make a difference. Codzienne zadania: - Guide business users across multiple markets and functions in using the DataVisa tool, ensuring accurate case input to meet compliance controls. - Perform privacy assessments of operational processes, identifying and mitigating risks through effective tools, training, and guidance. - Collaborate with project managers to ensure data privacy initiatives are understood and implemented in programs. - Act as a subject matter expert on global data privacy and protection laws, working closely with Legal and Compliance teams. - Develop, manage, and maintain data standards, policies, and methodologies in line with global data privacy policies. - Create and deliver guidance, training, and educational materials to increase awareness of data privacy requirements. - Identify areas for improvement in local practices related to data privacy management. - Support the development and delivery of data privacy and protection controls to ensure compliant use of data across global business requirements. - Stay up to date with evolving legislation, conduct gap analyses, and help build remedial work programs. - Work with stakeholders to plan future data privacy needs and ensure alignment with global scope.
Data Platform Transformation Manager
apreel Sp. z o.o.
⚲ Wrocław
26 880 - 31 920 PLN (B2B)
Wymagania
- ES
- Databricks
O projekcie: Poszukiwany profil: Data Platform Transformation Manager Opis: Rola polega na koordynacji wdrożenia platformy Data Platform w krajach Grupy Klienta (PL, IT, ES, RO), z uwzględnieniem lokalnych potrzeb biznesowych. Współpraca z Product Ownerem i Chapter Leaderem, zespołami lokalnymi i zewnętrznymi dostawcami, zapewnienie ciągłości operacyjnej, monitorowanie postępów, zarządzanie ryzykiem, dbanie i tworzenie governance. Oferta: - Lokalizacja: Wrocław/ praca zdalna - możliwe sporadyczne spotkania w biurze oraz podróże zagraniczne (Hiszpania, Włochy, Rumunia) - Start: asap - Zatrudnienie: przez apreel na zasadach B2B - Współpraca: długofalowa - Stawka: do 190 zł/h +VAT Wymagania: Wymagania: - Bardzo ważne: Wymagane doświadczenie w przynajmniej 1 dużym projekcie wdrożenia platformy Data Platform, najlepiej Databricks i w środowisku międzynarodowym. - Oczekujemy znajomości platform data platform, tworzenia governance, ryzyk projektu i zarządzanie nimi. - Oczekujemy wysokich kompetencji koordynacyjnych oraz umiejętności pracy w międzynarodowym środowisku. - Wymagana biegła znajomość języka angielskiego.
Backend Data Specialist (MS Fabric)
1dea
⚲ Warszawa
26 880 - 29 400 PLN (B2B)
Wymagania
- Data engineering
- Data pipelines
- MS Fabric
- Lakehouse
- ServiceNow
- Power BI
- SQL
- Power Automate
- Agile
- AI (nice to have)
- Machine learning (nice to have)
O projekcie: Backend Data Specialist (MS Fabric) Poszukujemy doświadczonego Data Backend Specialist, który odegra kluczową rolę w projektowaniu i utrzymywaniu nowoczesnej infrastruktury danych w naszej organizacji. Jeśli czujesz się swobodnie w ekosystemie Microsoft Fabric, a dane z systemu ServiceNow nie mają przed Tobą tajemnic – to stanowisko jest dla Ciebie. Szczegóły organizacyjne: - Branża: Konsulting IT - Liczba wakatów: 2 - Lokalizacja: Praca w 100% zdalna - Data rozpoczęcia: ASAP (maksymalnie 2-miesięczny okres wypowiedzenia) - Wynagrodzenie: 160 - 175 PLN netto + VAT / godzina (do negocjacji) - Rodzaj umowy: B2B (outsourcing przez 1dea), pełny etat, współpraca długoterminowa Nasz proces rekrutacji Nasz w pełni zdalny proces rekrutacyjny jest prosty i sprawny: - Wstępna rozmowa telefoniczna: Krótka rozmowa (~10 minut) z rekruterem z 1dea, podczas której omówimy projekt i warunki współpracy - Prezentacja profilu: Przedstawiamy Twoje CV naszemu klientowi - Rozmowa techniczna i projektowa: Rozmowa wideo z zespołem klienta, na której omawiamy Twoje umiejętności techniczne i dotychczasowe doświadczenie w projektach (~1-1,5 godziny) - (Opcjonalnie) Końcowa rozmowa: Krótkie spotkanie (~30 minut) z menedżerem technicznym po stronie klienta - Decyzja: Podejmujemy ostateczną decyzję i składamy ofertę współpracy Oferujemy - Długofalowa współpraca: Zależy nam na stałej współpracy, dlatego od samego początku oferujemy umowę B2B na czas nieokreślony. Nasz klient stawia wyłącznie na długoterminowe partnerstwo - Stabilność i rozwój: Dołączysz do firmy o silnej i ugruntowanej pozycji na rynku - Nowoczesne narzędzia pracy: Zapewnimy Ci cały niezbędny sprzęt i oprogramowanie, abyś mógł/mogła w pełni wykorzystać swój potencjał - Elastyczny czas pracy: Masz pełną swobodę w organizacji swojego dnia pracy - Praca 100% zdalna: Stanowisko jest w pełni zdalne, co daje Ci możliwość pracy z dowolnego miejsca - Kultura współpracy: Cenimy sobie pracę zespołową, otwartość i wzajemny szacunek. Zachęcamy do kreatywności i doceniamy wkład każdego członka zespołu, a Twoje pomysły i sugestie będą miały realny wpływ na projekt Wymagania: Wymagania - Doświadczenie: Minimum 5 lat w obszarze Data Engineering, Analytics Engineering lub Backend Data Processing. - Microsoft Fabric & Azure: Ekspercka wiedza z zakresu architektury Lakehouse, Data Pipelines, Dataflows oraz modeli semantycznych. - ServiceNow: Udokumentowane doświadczenie w pracy z danymi ITSM (ekstrakcja, normalizacja, transformacja). - Power BI: Zaawansowana znajomość modelowania danych, języka DAX, łączności XMLA oraz optymalizacji wydajnościowej. - Programowanie i SQL: Bardzo wysoka biegłość w SQL, Power Automate oraz językach backendowych (Python, JavaScript lub PowerShell). - Metodologia: Znajomość Agile/DevOps, standardów dokumentacji, kontroli wersji oraz zasad Data Governance. - Angielski komunikatywny na poziomie B2+ Mile widziane: - Certyfikaty: DP-600 (Fabric Analytics Engineer), DP-700 (Fabric Data Engineer) lub PL-300 (Power BI Data Analyst). - Automatyzacja: Doświadczenie w zaawansowanej orchestracji danych i zarządzaniu metadanymi w skali Enterprise. - AI/ML: Znajomość koncepcji Machine Learning i chęć rozwijania modeli predykcyjnych w ramach inicjatyw analitycznych. Codzienne zadania: - Projektowanie i utrzymanie potoków danych: Budowa solidnych procesów ETL/ELT zapewniających najwyższą jakość i skalowalność rozwiązań analitycznych. - Architektura danych: Składowanie i optymalizacja danych w oparciu o nowoczesne wzorce projektowe. - Współpraca interdyscyplinarna: Bliska praca z architektami ServiceNow, inżynierami Front-end Analytics oraz interesariuszami biznesowymi. - Integracje: Wykorzystanie API do ingestii, integracji i synchronizacji danych z różnych źródeł.
AWS Data & Analytics Engineer
Tenth Revolution Group
⚲ Warszawa
18 000 - 20 000 PLN (PERMANENT)
Wymagania
- GitHub
- Azure Data
- Data modelling
- Data science
- Snowflake
- Databricks (nice to have)
- Terraform (nice to have)
- ARM (nice to have)
- Bicep (nice to have)
- Infrastructure as Code (nice to have)
- Python (nice to have)
- PowerShell (nice to have)
O projekcie: We are looking for a AWS Data & Analytics Engineer ze znajomością Snowflake to join our Analytics & AI Platforms team. Our Digital Transformation unit operates a global data & analytics cloud platform that supports Data & Analytics products, including ML, AI, and GenAI solutions. As a Cloud Platform Engineer, you will work within a DevOps team to develop, enhance, and operate a scalable, globally distributed Data, Analytics, and AI platform. You will collaborate with Platform & Data Architects, Engineers, and Data Scientists to identify required capabilities and implement new features using CI/CD and Infrastructure as Code best practices. What We Offer - Flexible, hybrid working model - one day a week from the office - Modern office in Warsaw - Career development, mentoring programs, and 360° feedback - Broad access to training and professional development tools - Competitive bonus & reward structure - Company game room (table tennis, table football, PS5, Xbox Series X, massage chairs) Wymagania: Must have: - Minimum 3 years of experience with AWS Data Stack AWS network design, and authentication management—mandatory. - Strong coding skills in Terraform / ARM / Bicep, Infrastructure as Code, CI/CD, GitHub, and GitHub Actions—required. - Solid understanding of cloud-native tools and services for building scalable and efficient data platforms. - Good knowledge of Data Modelling, Data Warehousing, Data Science, and Application Development. - Strong analytical and problem-solving skills with excellent documentation and communication abilities. - Intercultural awareness, willingness to travel, and fluency in spoken and written English. Nice to have: - Experience with Snowflake or Azure Data Stack (including Databricks) is an advantage. - Python or PowerShell coding experience is a plus. Codzienne zadania: - Contribute to the platform roadmap with cloud architects to define requirements for new capabilities across the Data & Analytics stack, GenAI, Data Science, ML, and application development. - Independently plan, design, and implement new platform features and services that meet security, scalability, cost-efficiency, and documentation standards. - Train team members and stakeholders on new platform capabilities and provide clear documentation. - Support platform operations, including lifecycle management, incident resolution, service requests, and automation of operational tasks. - Monitor platform compliance and design AI-driven solutions to ensure efficient, compliant operations. - Collaborate with technology and implementation partners to resolve issues and contribute to shaping the platform roadmap. - Work with central cloud, infrastructure, and cybersecurity teams to adopt best practices and address technical blockers.
Senior Data Engineer (DevOps)
Diverse CG Sp. z o.o. Sp.k.
⚲ Gdańsk, Warszawa
21 840 - 27 720 PLN (B2B)
Wymagania
- BMC Helix
- ETL
- SQL
- Python
- Apache Airflow
- ITIL Foundation certified (nice to have)
Wymagania: - IT Service Management data integrations experienced (BMC Helix preferred) - Data Warehousing, data storage, data security, code version controlling and ETL (SSIS, Snowflake) - Professional experience in SQL (T-SQL preferred), Python and Apache Airflow - Proficiency in CI/CD (Bamboo/Jenkins) - Experience in working with data of MS SQL Server, Snowflake, PostgreSQL, Dataverse etc - Lean-Agile trained or certified (Scrum or SAFe) - Master degree at least in Science, Software Engineering, Mathematics, Statistics or similar - Proven work experience with minimum 3+ years in similar role - Fluency in English (C1 level at least) Nice to have: - ITIL Foundation certified or proven work experience in IT Service Management Codzienne zadania: - Designing and building a stable, scalable, near real-time and reliable BMC Helix data replication solution - Build, design and maintain data architecture ensuring complete collection and quality of data while adhering to best data practices - Design, build, test and maintain data pipelines - Troubleshooting and innovating - Working within SAFe Scrum Team with the aligned autonomy - Acting as a subject matter expert and make recommendations to IT and business stakeholders - Development & Performance, Goals and Follow-up to plan your individual competence and skills development with your manager and feedback from colleagues and your stakeholders
Functional Support Analyst LOAN IQ
Scalo
⚲ Warszawa
13 440 - 15 120 PLN (B2B)
Wymagania
- SQL
- SQL (nice to have)
O projekcie: Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Co dla Ciebie mamy: - Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt - Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych - Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób - Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort - Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci - Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Wymagania: Ta oferta jest dla Ciebie, jeśli: - posiadasz wykształcenie wyższe z zakresu bankowości/finansów lub IT, - masz doświadczenie w pracy z systemem LoanIQ albo w finansowaniu strukturyzowanym, - bardzo dobrze komunikujesz się w języku angielskim i polskim (poziom C1), - potrafisz analizować problemy i samodzielnie proponować rozwiązania, - masz doświadczenie w pracy operacyjnej lub wsparciu użytkowników systemów IT, - potrafisz pracować z dokumentacją i dbasz o jej jakość i aktualność, - dobrze odnajdujesz się we współpracy z zespołami międzynarodowymi, interesariuszami, testerami i zespołami produktowymi, - mile widziane: podstawy SQL (proste zapytania), - cechuje Cię odpowiedzialność za jakość, dbałość o szczegóły oraz nastawienie na ciągłe doskonalenie, - znajomość języka francuskiego będzie dodatkowym atutem. Codzienne zadania: - udział w projekcie związanym z utrzymaniem i rozwojem systemu LoanIQ w obszarze finansowania strukturyzowanego, - wsparcie użytkowników, analiza zgłoszeń oraz monitorowanie środowiska produkcyjnego, - obsługa incydentów i współpraca z zespołami międzynarodowymi, - przygotowywanie dokumentacji oraz sanity checks po wdrożeniach, - pełnienie roli SPOC dla wybranego Feature Teamu, - praca hybrydowa w nowoczesnym biurze w centrum Warszawy 2-3 x w tygodniu, - stawka do 90 zł/h przy B2B w zależności od doświadczenia.
Data Engineer
STX Next
⚲ Poznań
23 520 - 30 240 PLN (B2B)
Wymagania
- AWS
- ETL
- Apache Spark
- Apache Kafka
- AWS Glue
- Terraform
- Debezium
- Amazon EKS
O projekcie: Hi there! We are STX Next, a global IT consulting company specializing in customer-focused software services. Join a group of 500 professionals dedicated to helping customers build outstanding products. Leveraging the latest advancements in the field, and a passion for innovation, we're shaping the future of technology one project at a time. Job description At STX Next, Data Engineers are creative problem-solvers who thrive at the intersection of data, innovation, and technology. Our approach to challenges is both collaborative and inventive, driven by the belief that every obstacle has a solution. You’ll join a dedicated team that transforms data into valuable systems, addressing clients' needs and elevating the experience for end users. As a Data Engineer, you’ll work closely with international clients, providing both consultancy and technical architecture to shape reliable, high-performance data solutions. You’ll handle everything from large data sets to distributed systems, setting a high bar for data quality. If you’re excited by complex problems and want to contribute to a collaborative culture of craftsmanship, STX Next offers the platform to bring your ideas to life. Benefits - Work-life Balance: We are open to discussing individual needs. Set up working hours and limited remote work scheduled with your team and manager, in a way that works for both sides. - Reimbursed private medical care (Medicover) and Multisport : We care about the health and well-being of our colleagues. Choose a sports card and dedicated medical care for yourself and your relatives. - Leader’s support: Work with true enthusiasts and professionals who will support you along the way. You can count on leaders and experts who are willing to share their knowledge so that you too can join their ranks someday. - Technology focus: Python and JavaScript are not our only strengths, we are also very good at React Native, IoT, Machine Learning, .Net, DevOps and Blockchain. - Growth review: Junior, Regular or Senior? Every year we have a chance to discuss acquired skills and prepare a development plan for upcoming months. - Events: Attend exciting internal webinars, celebrate special days with us, and join us at conferences and meetups as a listener or speaker! - Workation: Team trips where you have a chance as a team not only to work together, but also integrate f2f. Wymagania: Technical expertise - Minimum 7 years of experience in Data Engineering. - Strong background in designing and implementing scalable data processing systems (pipelines, ETL processes, data warehouses, and data lakes). - Hands-on experience with implementing data warehousing solutions like Snowflake, Databricks or Apache Iceberg. - Strong background and at least 3 years of hands on experience in either AWS or Azure data engineering services. - Practical experience with dbt for data transformation. - Strong SQL skills and experience with relational databases. - Familiarity with Apache Airflow for workflow orchestration. - Proficiency in Python for data engineering tasks. - Strong problem-solving and analytical thinking abilities. - Good communication skills in English (minimum B2 level). Codzienne zadania: - Develop innovative solutions for complex data challenges, using creativity and technology. - Design and build data systems that fulfill client requirements and optimize user experience. - Collaborate across teams to integrate unique approaches and out-of-the-box thinking into problem-solving. - Serve as a trusted consultant and architect for customized data solutions for global clients. - Handle large-scale data processing and manage distributed systems to ensure reliability and performance. - Uphold high data quality standards and refine approaches to align with best practices. - Foster a culture of collaboration, craftsmanship, and continuous improvement.
Data Analyst
Scalo
⚲ Warszawa
18 480 - 23 520 PLN (B2B)
Wymagania
- ELT
- SQL
- SDLC
- Excel
- AI
- GitHub
- ChatGPT
- ITIL
- Ada
- Informatica (nice to have)
- Power BI (nice to have)
O projekcie: Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Co dla Ciebie mamy? - Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt - Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych - Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób - Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort - Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci - Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Wymagania: Ta oferta jest dla Ciebie, jeśli: - Masz 5-8 lat doświadczenia jako Analityk Danych i świetnie znasz proces wytwórczy zmian w systemach informatycznych (SDLC) oraz metodyki wytwarzania oprogramowania w dużych organizacjach finansowych. - Umiesz tworzyć zapytania SQL, konfigurować widoki, analizować dane i wizualizować je w Excel, Power BI czy Metabase, a przy tym korzystasz z narzędzi AI jak GitHub Copilot czy ChatGPT. - Świetnie rozumiesz procesy i standardy IT, takie jak Incydent & Problem Management, Change Management, Release & Deployment, Service Request Management (ITIL) oraz DEVOPS. - Potrafisz przekładać złożone zagadnienia na prosty język, dzielić się wiedzą i uczyć innych. - Masz doświadczenie w pracy z narzędziami developerskimi i w definiowaniu wskaźników efektywności (np. DORA, SPACE) oraz w monitorowaniu trendów i ograniczeń w danych. - Lubisz współpracować z zespołami wytwórczymi i interesariuszami, wyjaśniając definicje wskaźników oraz ich interpretację. Codzienne zadania: - Identyfikacja i analiza zbiorów danych z różnych narzędzi oraz ocena ich jakości. - Tworzenie zapytań SQL i konfiguracja widoków dla wskaźników efektywności. - Definiowanie sposobów mierzenia efektywności oraz mechanizmów raportowania. - Monitoring efektywności, analiza trendów danych oraz identyfikacja ograniczeń wpływających na interpretację wskaźników. - Opracowywanie metod prezentacji i raportowania zmienności efektywności rozwoju. - Analiza procesów rozwoju IT i rekomendowanie działań optymalizujących doświadczenia zespołów wytwórczych i efektywność rozwoju IT. - Tworzenie i utrzymywanie wewnętrznej bazy wiedzy dotyczącej definicji wskaźników, źródeł danych oraz przyjętych założeń i ograniczeń. - Bieżąca współpraca z zespołami wytwórczymi i interesariuszami, w tym wyjaśnianie definicji wskaźników i zasad ich interpretacji. - Praca hybrydowa - Warszawa (1 dzień z biura w tygodniu) - Stawka: do 140 zł netto + VAT/H/B2B
Data & AI Engineering Team Lead (m/f/d)
Frisbii Poland Sp. z o.o.
⚲ Gdańsk
27 000 - 35 000 PLN (PERMANENT)
Wymagania
- Python
- Snowflake
- dbt
- AI
- Cursor
- GitHub
- Co-pilot
O projekcie: We are looking for a motivated and experienced team lead for one of our engineering squads. This is a hands-on role for a team with a history of data engineering, but more recently owning key elements of our agentic AI automation roadmap using technologies such as Snowflake, DBT, and AI tools on AWS Bedrock Agentcore. You will collaborate closely with experienced engineers, product managers, designers, and other stakeholders to apply sound engineering principles, write high-quality code, and build reliable solutions that solve real business problems at scale. What We Offer: - A chance to work on meaningful, real-world projects with immediate impact. - Exposure to modern development & AI practices and innovation-driven work. - A growing international SaaS company with ambitious goals. - A great team that’s passionate about tech, subscriptions, and customer journey at Frisbii. - A fun and collaborative working environment where we take our work seriously but also know how to enjoy ourselves. - Choice of Mac or Windows based devices. - Local employee benefits. Wymagania: - Software Development - Experience in Data Engineering technologies such as Snowflake, DBT, Python. - Experience or skills to adapt to the needs of Agentic AI technologies. - Experience of working with source control systems, application lifecycle management systems and continuous build systems is highly desired. - Experience of agile practices such as Scrum/Kanban. - Experience of AI tooling such as Cursor, Github Co-pilot. - Experience of working on multiple projects in parallel. - Been involved in the full product lifecycle from concept to release, preferably working for a software product vendor. - Implementing and adhering to processes and procedures throughout the software development lifecycle. - Implementing efficient and quality development processes. - Ensuring project milestones are delivered against timescales. - Ensure the team provides accurate and timely estimates. - Ensuring we have a competitive edge in the solutions we deliver from a technical aspect. - Ensuring all staff use and follow the internal change management system. - Training and developing team members. - Encourage innovation. - Quality of Product - Ensuring software delivered is of a quality standard demonstrated through agreed KPI’s. - Business Process design and continuous improvement. - Identify short, medium and long term improvements across the function to improve commercial performance and customer satisfaction. - Team management & motivation - Producing plans for scheduling and resource assignment of all active development projects. - Responsibility for building a high-performance delivery team; working with others to identify (either internally or externally) the appropriate team resources. - 5+ years of experience within a Software Product organisation in Software Development - Staff management experience or demonstrable experience that you could step into this role. - Experience in software development of product releases in a multi-site, multi-lingual, multi-country and fast-paced environment is desirable. - Good verbal and written communication skills in English. Codzienne zadania: - Lead Engineers working for a specific engineering team. - Developing applications to a high standard in a relevant language. - Thorough testing and verification of all developed components. - Producing supporting technical documents and accurate estimates. - Liaising verbally and in writing (English) with other members of the Engineering and Product groups. - Resourcing and scheduling to produce accurate plans as well as tracking to monitor these plans. - Assist VP Engineering with any recruitment activity for your team. - Maintaining the well-being of staff and ensuring the staff are motivated to deliver their work to agreed timescales and quality. - Staff Management, including holidays, unforeseen absence, disciplinary, performance management and personal development. - Responsible for ensuring development projects and tasks are achieved to agreed timescales, scope and quality. - Building close relationships with other managers within Frisbii whose functions your staff will be supporting. - Providing an intelligent approach to problem-solving and analysis.
Data & AI Engineer (m/f/d)
Frisbii Poland Sp. z o.o.
⚲ Gdańsk
19 000 - 23 000 PLN (PERMANENT)
Wymagania
- AWS
- Snowflake
- dbt
- Python
- Cursor
- GitHub
- Co-pilot
O projekcie: We are looking for a motivated and skilled Data & AI Engineer with experience in Data and AI Engineering. This is a hands-on role for a team with a history of data engineering, but more recently owning key elements of our agentic AI automation roadmap using technologies such as Snowflake, DBT, and AI tools on AWS Bedrock Agentcore. You will collaborate closely with experienced engineers, product managers, designers, and other stakeholders to apply sound engineering principles, write high-quality code, and build reliable solutions that solve real business problems at scale. What We Offer: - A chance to work on meaningful, real-world projects with immediate impact. - Mentorship from others experienced software engineers. - Exposure to modern development practices and innovation-driven work. - A growing international SaaS company with ambitious goals. - A great team that’s passionate about tech, subscriptions, and customer journey at Frisbii. - A fun and collaborative working environment where we take our work seriously but also know how to enjoy ourselves. - Choice of Mac or Windows based devices. - Local employee benefits. Wymagania: What We’re Looking For: - Experience in Data Engineering technologies such as Snowflake, DBT, Python. - Experience or skills to adapt to the needs of Agentic AI technologies. - Experience of working with source control systems, application lifecycle management systems and continuous build systems is highly desired. - Experience of agile practices such as Scrum/Kanban. - Experience of AI tooling such as Cursor, Github Co-pilot. - Experience of working on multiple projects in parallel. - Been involved in the full product lifecycle from concept to release, preferably working for a software product vendor. - Implementing and adhering to processes and procedures throughout the software development lifecycle. - Proficiency in English. Codzienne zadania: - - Data Platform & Pipeline Management - Develop and Enhance our DataLake (AWS, Snowflake). - Get involved in all steps of the data lifecycle, including ingestion, processing, and serving. - Design and implement data models and pipelines on various technologies (AWS Glue, dbt). - Take responsibility for all the dimensions of the infrastructure, also including monitoring, testing and updating to new technologies. - - Agentic AI - Develop and enhance our MCP and AI Agentic technologies. - Design AI agents using AWS Bedrock Agentcore. - - Collaboration & Cross-Team Initiatives - Work closely with the product team to refine our product offering and drive innovation. - - DevOPS Integration & Best Practices - Partner with the DevOps teams to bring your solutions into production (Terraform, DataOps, CI/CD). - Implement best development practices, including testing, live monitoring, continuous integration, code deployment, and end-to-end automation.
Big Data Developer Spark
Connectis_
⚲ Warszawa
160–210 zł netto (+ VAT) / godz.
Wymagania
- Apache Spark
- Hive
- SQL
- Git
- Airflow
- Azure
Nasze wymagania: Min. 4 lata komercyjnego doświadczenia w data engineering / software engineering. Zaawansowana znajomość Apache Spark (Scala API - preferowane, Java API - akceptowane). Biegły angielski (C1+) ➡️ codzienna komunikacja techniczna i biznesowa w środowisku międzynarodowym. Wykształcenie wyższe: Computer Science, Software Engineering lub pokrewne. Solidne praktyki TDD ➡️ pisanie testowalnego kodu jako standard, nie wyjątek. Praktyczna znajomość Hive i SQL na poziomie produkcyjnym. Szukamy Seniora z potencjałem Tech Leada. Mile widziane: CI/CD (Jenkins, GitLab CI lub podobne), Git flow, branching strategies. Python (szczególnie w kontekście Airflow ➡️orkiestracja pipeline'ów). Doświadczenie z Azure (ADF, ADLS, Databricks lub pokrewne usługi). Doświadczenie w środowiskach SAFe / release train. Znajomość architektury mikroserwisowej i REST API. O projekcie: Razem z naszym Partnerem, jednym z europejskich liderów w branży bankowej, poszukujemy dwóch osób na stanowisko Big Data Engineer. Projekty dotyczą bankowości B2B i B2C ➡️ platform dla dużych kredytów, pożyczek profesjonalnych oraz aplikacji wspierających transformację cyfrową. Zakres obowiązków: Projektowanie i implementacja pipeline'ów do ingestion, transformacji i przetwarzania dużych wolumenów danych. Industrializacja rozwiązań data processing ➡️ niezawodność, odporność na błędy, skalowalność. Rozwój jobów Spark/Scala: przetwarzanie wsadowe, data mapping, optymalizacja wydajności. Analiza źródeł danych i przekształcanie wymagań biznesowych w specyfikacje techniczne. Udział w projektowaniu architektury Big Data i rekomendowanie rozwiązań technicznych. Code review, dbałość o clean code, standardy TDD/BDD i dobre praktyki DevOps. Współpraca w zespole Agile/Scrum (sprinty 2-3 tygodnie, release train). Wsparcie L3 ➡️ troubleshooting i utrzymanie środowisk produkcyjnych. Identyfikacja ryzyk technicznych oraz proponowanie strategii mitygacji. Tworzenie dokumentacji technicznej, test planów i specyfikacji. Oferujemy: Udział w spotkaniach integracyjnych i meetupach technologicznych, dzielenie się wiedzą i doświadczeniem z szerszą społecznością inżynierską. Wsparcie dedykowanej osoby po stronie Connectis, która zawsze jest dostępna, by pomóc Ci w sprawach związanych z projektem. Praca w międzynarodowym środowisku inżynierskim z wysoką kulturą jakości kodu (TDD, code review, clean code). Udział w dużym, wieloletnim projekcie modernizacji i migracji do chmury, realny wpływ na architekturę systemu. 🏢 Model hybrydowy, większość czasu w biurze (3 dni w tygodniu), elastyczność w pozostałe dni. Codzienny kontakt z nowoczesnym stackiem Big Data w kontekście bankowości inwestycyjnej. Sprzęt roboczy, laptop i peryferia zapewnione od pierwszego dnia. Nowoczesne, komfortowe biuro w Warszawie.
Azure Data Architect
Connectis_
⚲ Warszawa
31 920 - 38 640 PLN (B2B)
Wymagania
- Azure Data
- Azure Service Bus
- Data modeling
- Azure
- Azure Databricks (nice to have)
O projekcie: Razem z naszym Partnerem z branży dóbr konsumenckich poszukujemy osoby na stanowisko Azure Data Architect (k/m). Projekt dotyczy rozwoju i doskonalenia kluczowej platformy obserwowalności wykorzystywanej przez klienta do monitorowania, analizowania i usprawniania działania usług biznesowych oraz systemów IT. Platforma zbiera i przetwarza dane operacyjne w postaci metryk, logów oraz śladów (traces), zapewniając pełną widoczność działania środowiska technologicznego i stanowiąc fundament do szybkich decyzji operacyjnych, minimalizowania przestojów oraz poprawy jakości usług. ✨ OFERUJEMY: - Uczestnictwo w spotkaniach integracyjnych oraz meetupach technologicznych, umożliwiających dzielenie się wiedzą i doświadczeniem. - Wsparcie dedykowanej osoby kontaktowej z Connectis, dostępnej w celu pomocy w sprawach związanych z projektem. - Rozwój kariery i długofalową współpracę w firmie o ugruntowanej pozycji na rynku. - 5000 PLN za polecenie znajomych do naszych projektów. - Dostęp do najnowszych technologii i narzędzi pracy. - Szybki i zdalny proces rekrutacyjny. - Praca 100% zdalna. Dziękujemy za wszystkie zgłoszenia. Pragniemy poinformować, że skontaktujemy się z wybranymi osobami. 12686/KB Wymagania: 🔍 CZEGO OCZEKUJEMY OD CIEBIE? - Minimum 7-letnie doświadczenie w obszarze inżynierii danych, w tym min. 3 lata na stanowosku Architekta Danych. - Ekspercka znajomość system design dla systemów rozproszonych, architektury danych (caching, data modeling) oraz architektur event-driven. - Bardzo dobra znajomość ekosystemu Azure, w tym Azure Service Bus i Event Hubs. - Doświadczenie w projektowaniu API oraz przetwarzaniu danych w czasie rzeczywistym. - Doświadczenie z Azure Databricks oraz Azure Functions. Mile widziane: - Znajomość projektowania platform danych dla zastosowań observability i AIOps. - Doświadczenie z architekturą composable i zaawansowanym modelowaniem danych. Codzienne zadania: - Projektowanie end-to-end architektury typu „composable" dla mechanizmów custom data correlation i auto-triage. - Definiowanie system design, przepływów danych oraz kontraktów API umożliwiających integrację własnych modeli triage i zwracanie skorelowanych wyników w scenariuszach real-time i post-real-time. - Projektowanie i standaryzacja architektur rozproszonych, event-driven oraz wzorców integracyjnych opartych o Azure Service Bus / Event Hubs. - Projektowanie mechanizmów cachingu, modelowania danych oraz API na potrzeby platformy observability i AIOps. - Budowa mechanizmów korelacji i redukcji szumu, wdrażanie rozwiązań opartych o AI/ML oraz automatyzacja procesów operacyjnych.
Aeronautical Navigation Analyst
Link Group
⚲ Remote
19 000 - 25 000 PLN (B2B)
Wymagania
- Data analysis
- aeronautical data
- navigation services
- Analytical skills
- strong attention to detail
- ICAO (nice to have)
- EASA (nice to have)
Wymagania: Key Competencies - Analytical thinking - Accuracy and attention to detail - Responsibility and reliability - Proactive attitude - Ability to work in a structured and process-driven environment Required Qualifications - Minimum 4–6 years of professional experience in data analysis, aeronautical data, navigation services, or a related technical domain. - Solid analytical skills and strong attention to detail. - Experience working with structured data and data validation processes. - Good understanding of software development lifecycle and cooperation with technical teams. - Very good communication skills and ability to work in a cross-functional environment. - Proactive and quality-oriented mindset. - Fluent English (spoken and written). Nice to Have - Experience in aviation, air traffic management, or aeronautical data environments. - Familiarity with ICAO, EASA, or related aviation standards. - Experience with data quality tools or automation. - Exposure to Agile/Scrum environments. - Experience working with large-scale or mission-critical system Codzienne zadania: - Analyze, validate, and maintain aeronautical and navigation-related data. - Ensure data accuracy, consistency, and compliance with applicable aviation standards and internal procedures. - Support reliability and quality of aeronautical services and related systems. - Collaborate closely with product, engineering, and operational teams to ensure proper implementation of requirements. - Participate in process improvements and contribute to optimization initiatives. - Support incident analysis and resolution related to data or service quality. - Prepare documentation, reports, and data quality assessments. - Contribute to maintaining and evolving existing processes and tools.
Aeronautical Data Analyst
Link Group
⚲ Remote
19 000 - 24 000 PLN (B2B)
Wymagania
- Data analysis
- aviation data
- Analytical skills
- strong attention to detail
- ICAO (nice to have)
- EASA (nice to have)
- SQL (nice to have)
Wymagania: - Minimum 4–6 years of professional experience in data analysis, aviation data, or related technical domain. - Strong analytical and problem-solving skills with high attention to detail. - Experience working with structured datasets, data validation, and reporting. - Understanding of software development lifecycles or collaboration with technical teams. - Excellent communication and collaboration skills in cross-functional teams. - Fluent English (written and spoken). - Proactive and quality-oriented mindset. Nice to Have - Experience in aviation, air traffic management, or aeronautical data environments. - Familiarity with ICAO, EASA, or related aviation standards. - Experience with data quality tools, SQL, or data processing automation. - Exposure to Agile/Scrum environments. - Understanding of large-scale, mission-critical systems. Key Competencies - Analytical Thinking – ability to dissect complex data sets and identify anomalies or trends. - Attention to Detail – ensuring high accuracy and reliability of critical aviation data. - Problem Solving – proactively resolving data inconsistencies or process gaps. - Communication – clear reporting and collaboration with technical and operational teams. - Reliability & Responsibility – ensuring tasks are completed to high standards within deadlines. - Proactive Mindset – identifying opportunities for process improvement and automation. - Teamwork & Collaboration – working effectively across functions and geographies. Codzienne zadania: - Analyze, validate, and maintain aeronautical and navigation-related data. - Ensure data accuracy, consistency, and compliance with applicable aviation standards and internal procedures. - Support reliability and quality of aeronautical services and related systems. - Collaborate closely with product, engineering, and operational teams to ensure proper implementation of requirements. - Participate in process improvements and contribute to optimization initiatives. - Support incident analysis and resolution related to data or service quality. - Prepare documentation, reports, and data quality assessments. - Contribute to maintaining and evolving existing processes and tools.
Senior Data Engineer (Remote)
DS STREAM
⚲ Warsaw, Kraków, Wrocław, Poznań, Katowice
25 200 - 30 240 PLN (B2B)
Wymagania
- Python
- Docker
- SQL
- Databricks
- PySpark
- CI/CD
- GCP (nice to have)
- Airflow (nice to have)
- BigQuery (nice to have)
- API (nice to have)
- FastAPI (nice to have)
- Azure Databricks (nice to have)
- Azure (nice to have)
- AWS (nice to have)
- Kubernetes (nice to have)
O projekcie: [REMOTE] Senior Data Engineer We're expanding our AI Data Engineering Team at DS STREAM! This is a 100% remote role WITHIN POLAND. Project description: This initiative centers on a mature, high-availability data hub architected within Azure Databricks, utilizing Unity Catalog, Spark Structured Streaming, and Asset Bundles to ensure robust performance and governance. The solution is built upon the Medallion Architecture framework, providing a scalable foundation that is now being expanded to ingest, transform, and seamlessly integrate new data sources into the existing ecosystem. You will get - 100% remote work with the possibility to use an office in Warsaw - Flexible working hours and engaging company events - Access to Azure, GCP and Databricks certifications - Possibility to use an in-house incubator to develop your own ventures - A supportive community of 50+ senior data consultants with extensive experience in Data Warehouse and Big Data - and much more! Wymagania: We’re expanding our team! 🚀 DS STREAM is growing! We are looking for SENIOR Data Engineers. You will need at least one of these - At least 5 years of commercial experience in Data Engineering with focus on large scale data pipelines. - Proven track record using advanced solutions in Azure cloud and Databricks - Previous exposure to GCP infrastructure and tools (Airflow, Pub/Sub, BigQuery, VertexAI) - Knowledge of Spark Structured Streaming - Proficiency in Python and SQL - Ability to build pipelines using Github or similar tools Nice to have - Ability to build enterprise API integrations with FastAPI or similar - Experience in leading/mentoring engineers Codzienne zadania: - Development of a program for processing large volumes of data - Ingesting data from APIs - Developing Databricks pipelines in PySpark / SQL - Handling Spark Structure Streaming pipelines - Designing and managing objects in Unity Catalog according to Medallion Architecture
Power Platform Developer (CanvasApss and PowerBi)
Link Group
⚲ Remote
20 160 - 26 880 PLN (B2B)
Wymagania
- AI
- Hyper-automation strategies
- Canvas Apps
- Power BI
- Collaboration skills
O projekcie: We are looking for an experienced professional who can design and deliver intelligent business applications and analytics solutions using Microsoft’s Power Platform ecosystem. The ideal candidate combines strong technical expertise with the ability to translate business needs into AI-powered tools and insights. Wymagania: Preferred Qualifications - Understanding of AI agents and hyper-automation strategies. - Hands-on experience with Microsoft Fabric data pipelines and workflows. Soft Skills - Ability to collect and analyze business requirements, transforming them into AI-enhanced applications and business intelligence solutions. - Strong collaboration skills, particularly within cross-functional “fusion” teams that combine professional developers and citizen developers. Codzienne zadania: - Design and develop advanced Canvas Apps using modern UI components and AI-driven capabilities such as Copilot and automated form intelligence. - Build impactful Power BI reports and dashboards, leveraging natural language generation, predictive analytics, and seamless integration with Microsoft Fabric. - Work confidently with Dataverse and SharePoint as core data sources, ensuring smooth integration with Azure-based services. - Technical Capabilities - Create AI-first solutions by utilizing Copilot-generated logic, reusable components, and intelligent automation features. - Apply best practices in solution management, application lifecycle management (ALM), governance, and component standardization. - Ensure scalable, maintainable architectures within the Power Platform environment.
Junior Data Scientist I 1‑jähriger befristeter Vertrag
Deutsche Telekom IT Solutions Hungary
⚲ Debrecen
6 751 - 11 977 PLN (PERMANENT)
Wymagania
- Degree
- SQL
- Data base
- Statistics
- Data analytics
- Machine learning
- Power BI
- MicroStrategy
- ETL
- Cloud
O projekcie: Unternehmensbeschreibung Laut der repräsentativen Randstad-Umfrage ist Deutsche Telekom IT Solutions der attraktivste Arbeitgeber in Ungarn im Jahr 2025. Als Tochtergesellschaft der Deutschen Telekom Gruppe bietet das Unternehmen mit über 5300 Mitarbeitenden ein breites Portfolio an IT- und Telekommunikationsdienstleistungen an. Wir betreuen hunderte Großkunden, insbesondere in Deutschland und anderen europäischen Ländern. DT-ITS wurde 2019 von HIPA mit dem Preis für die „Beste Bildungskooperation“ ausgezeichnet und erhielt im selben Jahr die Auszeichung als „Ethischstes multinationales Unternehmen“. Das Unternehmen entwickelt seine vier Standorte in Budapest, Debrecen, Pécs und Szeged kontinuierlich weiter und sucht qualifizierte IT-Fachkräfte zur Verstärkung seines Teams. Wir bieten eine befristete Anstellung für ein Jahr, mit der Möglichkeit einer späteren Verlängerung. * Please be informed that our remote working possibility is only available within Hungary due to European taxation regulation. Wymagania: - Abgeschlossenes Studium in Data Science, Informatik, Mathematik, Statistik oder einem verwandten Bereich. - Erfahrung mit SQL und Datenbanken. - Kenntnisse in Statistik, Datenanalyse und Machine Learning. - Erfahrung mit BI- und Visualisierungstools (z. B. Power BI oder MicroStrategy). - Erfahrung mit Datenintegration, ETL-Prozessen oder Cloud- und Big-Data-Technologien von Vorteil. - Sehr gute Deutschkenntnisse (mind. C1) und gute Englischkenntnisse. Zusätzliche Informationen - Starkes analytisches Denkvermögen und strukturierte Arbeitsweise. - Selbstständige, lösungs- und ergebnisorientierte Arbeitsweise. - Gute Kommunikationsfähigkeiten und Fähigkeit, komplexe Inhalte verständlich darzustellen. - Teamfähigkeit und Freude an interdisziplinärer Zusammenarbeit. - Eigeninitiative und Interesse an datengetriebenen Innovationen. Codzienne zadania: - Ableitung analytischer Anforderungen unter Berücksichtigung des Business-Kontexts und Übersetzung von Geschäftsanforderungen in datengetriebene Lösungen. - Sammeln, Bereinigen, Transformieren und Strukturieren von Daten aus verschiedenen Quellen (z. B. Datenbanken, APIs). - Integration und Aufbereitung von Daten sowie Aufbau und Pflege von Datenpipelines und Datensätzen. - Durchführung explorativer Datenanalysen (EDA) zur Identifikation von Mustern, Trends und Optimierungspotenzialen. - Interpretation der Ergebnisse im Business-Kontext sowie Aufbereitung für Management- und Stakeholder-Entscheidungen. - Erstellung, Pflege und Optimierung von KPI-Definitionen, Reports und Dashboards. - Visualisierung und Präsentation von Analyseergebnissen sowie klare Kommunikation gegenüber Fachbereichen. - Zusammenarbeit mit interdisziplinären Teams (z. B. Data Engineering, IT, Produktmanagement und Business-Stakeholdern). - Mitarbeit in Projekten oder Leitung von Teilprojekten sowie Mitwirkung bei der Identifikation neuer datengetriebener Use Cases.
Junior BI Developer
Tpay
⚲ Poznań
9 000 - 12 000 PLN (B2B)
Wymagania
- Business Inteligence
- SQL
- Excel
- Tableau (nice to have)
- BigQuery (nice to have)
- Python (nice to have)
O projekcie: Rozwijaj się z polskim fintechem z siedzibą w sercu Poznania! Kim jesteśmy? Operatorem płatności dla e-commerce i usług online. Od ponad 14 lat ułatwiamy użytkownikom zakupy w sieci, pracując razem nad stale rozwijającą się bramką płatniczą. Na pewno znasz nas od dawna, bo jeśli zamawiasz jedzenie czy kupujesz bilety online —prawdopodobnie korzystasz z rozwiązań Tpay. Wśród naszych klientów znaleźć można takie marki jak RTV Euro AGD, Media Expert, Jakdojade.pl, Koleo, PKP Informatyka. Nasze wartości: W codziennej pracy cenimy wartości takie jak: Rozwój, Profesjonalizm, Kulturę osobistę i Zespołowość. Jest to kompas, który wyznacza nam kierunek każdego dnia. W Tpay liczą się ludzie. Mamy zgrane zespoły, które chętnie dzielą się wiedzą i doświadczeniem. Nowych pracowników nigdy nie zostawiamy samych sobie: możesz liczyć na preonboarding i onboarding, pełne wsparcie zespołu HR i członków Twojego nowego teamu. Szukamy osoby, która dołączy do zespołu jako BI Developer i będzie rozwijać się w obszarze raportowania i analityki. Na początku będziesz pracować pod okiem Team Leada, ucząc się naszych procesów i narzędzi. Z czasem przejmiesz odpowiedzialność za wybrane obszary raportowania - od obsługi działów wewnętrznych po wsparcie procesów finansowych. To rola dla kogoś, kto chce budować karierę w BI, lubi pracę z danymi i potrafi tłumaczyć liczby na zrozumiałe raporty. W ramach zespołu będziesz współpracować z Team Leadem (który będzie Twoim mentorem), Analytics Engineerem (modelowanie danych) i Data Engineerem (ETL, infrastruktura). Przejdź na drugą stronę bramki płatniczej i poznaj nas bliżej! W Tpay możesz liczyć na: - zatrudnienie w oparciu o umowę o pracę lub współpracę B2B - Ty wybierasz, - wynagrodzenie: 9000-12000 zł brutto UoP / 54-71 zł netto + VAT/h B2B, - biuro w ścisłym centrum Poznania, w Andersia Tower na 17. piętrze, - możliwość 100% pracy zdalnej - szanujemy Twoje preferencje, - pracę z doświadczonym i różnorodnym zespołem, który chętnie dzieli się wiedzą i doświadczeniem, - bezpłatne lekcje języka angielskiego, - kartę Multisport, - prywatną opiekę medyczną PZU, - ubezpieczenie na życie UNUM, - Workation- pracę z dowolnego miejsca w Europie przez 3 miesiące w roku, - pakiet wsparcia psychologicznego HearMe, - budżet szkoleniowy po okresie próbnym i 7 dni na rozwój w ciągu roku, - produkty Pekao S.A. i PZU na preferencyjnych warunkach (dotyczy UoP), - elastyczne godziny rozpoczęcie pracy w godz. 7.00-10.00. - nowoczesny sprzęt do pracy, - regularne imprezy integracyjne, - szansę na zdobywanie doświadczeń w obszarze fintech i pracę z fajnymi ludźmi ;) Brzmi ciekawie? APLIKUJ i dołącz do NAS! Wymagania: Dołącz do nas, jeśli: - masz 1-2+ lata doświadczenia w pracy z danymi (BI, Analytics, raportowanie), - posiadasz wykształcenie wyższe (informatyka, matematyka, ekonomia, finanse) lub jesteś w trakcie studiów ostatnich lat, - znasz SQL na poziomie średniozaawansowanym (SELECT, JOIN, GROUP BY, podstawowe window functions), - znasz narzędzia BI (Tableau, Power BI, Looker lub podobne), - posługujesz się Excelem / Google Sheets na poziomie zaawansowanym, - cechuje Cię dokładność i dbałość o szczegóły - praca z danymi finansowymi nie wybacza błędów, - jesteś komunikatywny/a - będziesz współpracować z wieloma zespołami, - chcesz rozwijać się w obszarze BI - znasz język angielski na poziomie B1+ (dokumentacja, źródła wiedzy). Mile widziane: - doświadczenie z Tableau (kursy, projekty własne, staż), - znajomość BigQuery lub innego cloud data warehouse, - podstawy Pythona (pandas, automatyzacja), - doświadczenie w fintech, e-commerce lub firmie produktowej, - znajomość procesów finansowych (księgowość, controlling, rozliczenia). Techstack: GCP, BigQuery, MySQL, Elasticsearch, Google Dataform, Tableau, Looker, Kafka/Debezium, n8n Codzienne zadania: - tworzenie i utrzymanie raportów i dashboardów w Tableau, - obsługa zgłoszeń analitycznych od zespołów wewnętrznych (Marketing, Finance, Customer Success, People, Legal), - praca z danymi w BigQuery - zapytania SQL, analizy ad-hoc, - wsparcie procesów finansowych pod okiem Team Leada (rozliczenia, raporty regulacyjne), - dokumentowanie raportów i procesów.
Ekspert Microsoft Fabric (0,5 FTE)
Square One Resources
⚲ Remote
25 200 - 30 240 PLN (B2B)
Wymagania
- MS Fabric
- DMS
O projekcie: Poszukujemy doświadczonego Eksperta ds. Migracji DMS do wsparcia w migracji i refaktoryzacji Data Warehouse (hurtowni danych) dla platformy DMS z bazy MS SQL na platformę Fabrica. Zatrudniona osoba będzie odpowiedzialna za przeprowadzenie migracji, zapewnienie zgodności z najlepszymi praktykami oraz wsparcie zespołu deweloperskiego w FCU. Wymagania: Nasze wymagania - 5-7 lat doświadczenia w migracji danych, pracy z MS SQL i Microsoft Fabric. - Znajomość platformy DMS, ETL i procesów migracji danych. - Doświadczenie w refaktoryzacji i optymalizacji hurtowni danych. - Umiejętność współpracy z zespołem developerskim i komunikacji z klientem. Codzienne zadania: - Migracja danych: Przygotowanie oraz przeprowadzenie migracji Data Warehouse z bazy MS SQL na Fabrica. - Refaktoryzacja danych: Optymalizacja struktury danych i zapewnienie zgodności z najlepszymi praktykami. - Wsparcie zespołu: Doradztwo i wsparcie dla zespołu deweloperskiego w FCU w zakresie migracji oraz refaktoryzacji. - Zapewnienie jakości: Dbałość o jakość procesu migracji oraz zgodność z wymaganiami klienta. - Dokumentacja: Przygotowanie niezbędnej dokumentacji technicznej i procesowej.
Data Science Internship | RAS TECH Summer
Ringier Axel Springer Tech
⚲ Warszawa
5 400 - 5 400 PLN (ZLECENIE)
Wymagania
- Python
- Data science
- AWS
- TensorFlow
- PyTorch
O projekcie: Masz plany na lato? Spędź je z nami! Chcesz zastosować w praktyce swoje umiejętności programistyczne w Pythonie lub technologiach javascriptowych? Marzysz o pracy jako Data Scientist, Project Manager albo UX Designer? Chcesz pracować przy realnych projektach dla największych polskich marek internetowych? Chcesz zdobyć doświadczenie w pracy zespołowej, komunikacji i zwinnych procesach w hybrydowym świecie? To świetnie trafiłeś/aś! Tego lata zrealizujesz projekt dla milionów użytkowników i użytkowniczek i zobaczysz, jak działają największe polskie media. Program stażowy skierowany jest do studentów i studentek oraz osób, które w bieżącym roku ukończą studia wyższe. Zapraszamy osoby, które dopiero zaczynają swoją karierę zawodową. Podejmij wyzwanie, wykonaj zadanie i aplikuj do programu stażowego RAS TECH Summer. Wymagania: Zespół Data Science optymalizuje i automatyzuje kluczowe filary naszego biznesu, koncentrując się na rekomendacjach treści i reklam. Dbamy o to aby użytkownicy i użytkowniczki dostawali to, czego jeszcze nie wiedzą, że chcą - i robimy to w ułamku sekundy, skalując rozwiązania na ponad 20 milionów osób w Polsce. Rekomendacje to dopiero początek. Walczymy ze spamem, przewidujemy zachowania, analizujemy zaangażowanie, wyceniamy reklamę, bo każda sekunda uwagi ma znaczenie. Dbamy także o skalowalność i stabilność modeli, tworząc środowisko do automatycznego zarządzania nimi i wspierając inne zespoły w codziennej pracy z ML. Technologie wykorzystywane w obszarze: AWS, Python, TensorFlow, PyTorch, SageMaker
Analityk / Analityczka Danych
DCG sp. z o.o.
⚲ WARSAW
10 500 - 12 600 PLN (B2B)
Wymagania
- SQL
- Python
Wymagania: - Bardzo dobra znajomość SQL - Znajomość Pythona oraz środowiska Jupyter Notebook - Podstawowa wiedza z zakresu tworzenia modeli statystycznych i uczenia maszynowego, takich jak regresja, klasyfikacja i inne techniki analizy danych - Angielski na poziomie min. B1 - Komunikatywność, otwartość oraz umiejętność pracy w zespole Codzienne zadania: - Tworzenie i wykonywanie zapytań SQL w celu pozyskiwania oraz analizy danych z różnych źródeł - Analiza danych w środowisku Python + Jupyter Notebook, przygotowywanie raportów i wizualizacji - Udział w tworzeniu oraz utrzymaniu prostych modeli statystycznych i predykcyjnych - Przygotowywanie zestawień i raportów na potrzeby biznesu - Dokumentowanie wykonywanych analiz i rekomendacji
Senior Data Scientist (DSP)
Xebia sp. z o.o.
⚲ Rzeszów, Wrocław, Gdańsk
20 000 - 30 000 PLN (B2B)
Wymagania
- DSP
- Python
- SQL
- GCP (nice to have)
- VertexAI (nice to have)
O projekcie: Who We Are While Xebia is a global tech company, our journey in CEE started with two Polish companies – PGS Software, known for world-class cloud and software solutions, and GetInData, a pioneer in Big Data. Today, we’re a team of 1,000+ experts delivering top-notch work across cloud, data, and software. And we’re just getting started. What We Do We work on projects that matter – and that make a difference. From fintech and e-commerce to aviation, logistics, media, and fashion, we help our clients build scalable platforms, data and AI solutions, and cutting-edge applications to shape the future of tech. Our clients include McLaren, Aviva, Deloitte, Spotify, Disney, ING, UPS, Tesco, Truecaller, AllSaints, Volotea, Schmitz Cargobull, Allegro, InPost, and many, many more. We value smart tech, real ownership, and continuous growth. We use modern, open-source stacks, and we’re proud to be trusted partners of Databricks, dbt, Snowflake, Azure, GCP, and AWS. Fun fact: we were the first AWS Premier Partner in Poland! Beyond Projects What makes Xebia special? Our community. We support tech communities, organize meetups (Software Talks, Data Tech Talks), and have a culture that actively support your growth via Guilds, Labs, and personal development budgets — for both tech and soft skills. It’s not just a job. It’s a place to grow. What sets us apart? Our mindset. Our vibe. Our people. And while that’s hard to capture in text – come visit us and see for yourself. Wymagania: Your profile: - Master’s or Ph.D. Degree in Computer Science, Statistics, Economics, or a hard science field preferred, - 7+ years of professional experience in a Data Scientist role, with a significant focus on the advertising technology (ad-tech) space, - deep, demonstrable expertise in DSPs, programmatic advertising, and CTV measurement, - proven track record in developing and deploying models for bidder optimization and attribution/measurement, - fluent in advanced statistical and machine learning techniques, with a strong command of Python and SQL., - upper-intermediate English (B2+), - strong communication skills, with the ability to articulate technical concepts and complex model results to non-technical stakeholders. - Work from the European Union region and a work permit are required. Nice to have: - experience with GCP and the Vertex AI ecosystem, as well as other tools such as feature stores and experiment tracking, - experience with LLMs and agentic AI frameworks/solutions, with special focus on evaluation. Codzienne zadania: - architecting and implementing machine learning models for campaign optimization, focusing on bid strategies, budget allocation, and pacing algorithms within the DSP environment for pogrammatic campaigns with focus on CTV, - leading the design of the model orchestration layer to solve complex multi-objective optimization challenges, - working at the intersection of Product and Engineering, ensuring the model suite operates in sync to maximize performance across conflicting business KPIs, - driving data and ML strategy for audience segmentation and targeting capabilities, utilizing first- and third-party data sources to enhance product performance and advertiser outcomes, - collaborating closely with Product and Engineering teams to integrate new models and data pipelines into production systems, ensuring scalability and performance, - conducting deep-dive analytics to uncover strategic insights into campaign performance, market trends, and audience behavior, translating findings into actionable product recommendations, - serving as a subject matter expert in ad-tech data science for internal and external stakeholders, presenting complex methodologies and results clearly, - mentoring junior data scientists and contributing to the team’s culture of rigorous experimentation, statistical excellence, and innovative problem-solving.
Senior Data Engineer - Diamond ID
Margo
⚲ Remote
30 240 - 33 600 PLN (B2B)
Wymagania
- Python
- SQL
- SQLAlchemy
- dbt
- Data analysis
- Cloud
- Cloud platform
- AWS
- JSON
- Jsonb
- MLFlow (nice to have)
- Sagemaker (nice to have)
- ML (nice to have)
O projekcie: Cient is developing a system of record for the diamond supply chain. A critical part of this is the diamond matching project. We are seeking a Data Engineer to own and architect the end-to-end reporting lifecycle, that’s still in an early MVP stage. You will inherit a replicated production environment and be responsible for transforming raw Python application data into a high-performance analytics layer. You will bridge the gap between backend data structures and business-ready visualizations. Wymagania: - Advanced SQL knowledge (window functions, CTEs, optimization queries) - Advanced knowledge of Data Build Tool (dbt) (or similar) - Working knowledge of code versioning and peer code reviewing process. - Working knowledge of deduplication and normalization strategies - Working knowledge of Cloud infrastructure - Working knowledge of Python coding principles and data libraries - Knowledge of ORMs such as SQLAlchemy Extra points for - Knowledge of ML tooling, such as MLFlow and Sagemaker. - Experience with AWS. Codzienne zadania: - Building and maintaining a robust, end-to-end data and analytics platform. - Developing and optimizing data pipelines to move data from online environments to the data warehouse and reporting layers. - Writing high-quality, production-ready code in SQL and Python, utilizing libraries such as pandas and SQLAlchemy. - Troubleshooting and resolving issues related to cloud data configuration, synchronization, and data latency. - Managing and processing diverse data types, including both structured and unstructured data, such as JSONB. - Designing, deploying, and maintaining automated business intelligence dashboards and internal monitoring tools.
Senior Data Engineer
DCG sp. z o.o.
⚲ Warszawa, Gdynia, Gdańsk
25 200 - 29 400 PLN (B2B)
Wymagania
- Data engineering
- Cloud
- OLAP
- Python
- PL/SQL
- ETL
- IBM DataStage
- Azure Data Factory
- Oracle
- MS SQL Server
- Snowflake
- DevOps
- Git
- Docker
- Kubernetes
- Terraform
- Jenkins
- Bamboo
- Azure DevOps
- Test automation
- Robot Framework
- GitHub
- GitLab
- Airflow
- Kafka
O projekcie: Offer: - Private medical care - Co-financing for the sports card - Constant support of dedicated consultant - Employee referral program Wymagania: Requirements: - Experience with designing OLAP systems and applying techniques such as STAR schema and denormalization - Proficiency in Python and PL/SQL development - Experience with ELT/ETL development using GUI-based tools such as IBM DataStage, Azure Data Factory (ADF), Stitch, and Matillion - Knowledge of database management systems including Oracle, MS SQL Server, and Snowflake - Understanding of DevOps and CI/CD practices, including Git, Docker, Kubernetes, Terraform, and CI/CD tools such as Jenkins, Bamboo, and Azure DevOps - Experience with test automation tools such as Robot Framework and Selenium, including knowledge of different test scenarios - Knowledge of version control systems including Git, GitHub, and GitLab - Experience with workflow orchestration tools such as Airflow and Prefect - Knowledge of streaming and batch processing concepts, including Kafka - Very good command of English, both spoken and written Codzienne zadania: - Design, build and maintain scalable ELT pipeline - Develop and optimize PLSQL queries and database objects for high performance data storage in Oracle - Write python-based data engineering scripts to process data - Implement CI/CD pipelines for data infrastructure and workflow automation - Understand and have experience of database change management - Work one or more of the major cloud vendor - Integrate and manage modern data stack - Monitor, debug and optimize data workflows and infrastructure performance - Ensure data quality, governance, and compliance with good practices
Senior Data Analyst
AVENGA (Agencja Pracy, nr KRAZ: 8448)
⚲ Remote
25 200 - 28 560 PLN (B2B)
Wymagania
- SQL
- Tableau
O projekcie: - Fluent SQL - Experience with data visualization tools (preferred: Tableau) - Strong business acumen and analytical thinking - Ability to translate data into business insights and strategic decisions - Excellent communication skills - Detail-oriented and persistent problem solver - Proactive, self-driven, and experienced in agile/Scrum environments Nice to Have - Python - Snowflake - dbt - ThoughtSpot Wymagania: - 3+ years of experience in IT & Software Validation (CSV, GAMP) - Experience leading validation for projects and system maintenance - Strong knowledge of SDLC in regulated industries - Experience authoring and reviewing validation plans, reports, risk assessments, and test documentation - Familiarity with CFR 21 Part 11, EU Annex 11 and global inspection requirements - Experience with Lean and/or Agile methodologies - Higher education degree in IT, Software Engineering, Information Systems or relevant pharma experience Codzienne zadania: - Translate business needs into technical specifications, data models, and KPIs - Deliver actionable insights across Customer Service data products (Service, Spare Parts, Training, Contact Center) - Perform end-to-end (E2E) process analysis and identify performance gaps - Validate data accuracy and investigate discrepancies between source systems and dashboards - Explain technical constraints to non-technical stakeholders - Create clear documentation and compelling data-driven user stories - Collaborate with cross-functional teams in a Scrum environment - Use analytics to uncover trends and provide strategic recommendations
Power Platform Transformation Manager
Billennium
⚲ Poland (Remote), Gdańsk, Wrocław, Kraków, Poznań
Wymagania
- Data Platform
- ETL
- Snowflake
- Databricks
Billennium is a global technology company with over 20 years of experience, committed to innovation and empowering businesses. As an employer, we offer a supportive, growth-focused environment where collaboration and creativity thrive. Join us to shape the future of technology together! An experienced Data Platform Transformation Manager is sought to support a large‑scale, multi‑country data transformation initiative. The role sits within an agile, cross‑functional structure responsible for building a new, unified technology ecosystem across the entire organization. What you will do • Lead and coordinate the end‑to‑end implementation of the Data Platform (preferably based on Databricks) across multiple countries. • Ensure alignment between the global platform strategy and local business requirements in each market. • Collaborate closely with the Product Owner, Chapter Lead, local IT and business teams, and external technology partners. • Oversee project execution, including planning, progress tracking, dependency management, and risk mitigation. • Establish and maintain data governance standards, ensuring operational continuity and adherence to best practices. • Facilitate communication and knowledge sharing across countries to ensure consistent implementation and adoption. • Monitor project risks, issues, and deliverables, ensuring timely and high‑quality outcomes. • Support change management activities and promote effective use of the new Data Platform. What we are looking for • Proven experience in at least one large‑scale Data Platform implementation project ideally involving Databricks. • Strong understanding of data platforms, data governance, and project risk management. • Demonstrated ability to coordinate complex, multi‑stakeholder initiatives in an international environment. • Excellent communication, organizational, and leadership skills. • Ability to work effectively with cross‑functional teams and external vendors. • Fluent English (C1 or higher). • Availability to start as soon as possible. • Willingness to travel occasionally within Europe and to the central office when required. Perks and benefits (our offer) • Comprehensive benefits - enjoy Udemy for Business, private medical care, Multisport card, veterinary package, language lessons, and shopping vouchers. • Flexibility - adaptable working hours and remote/hybrid work options to suit your lifestyle & location. • Career growth - access opportunities for professional development and learning, including perks related to our official partnerships with global IT giants: Microsoft, AWS, Snowflake, Salesforce & more. • Global collaboration - work with a diverse, international team. • Innovative environment - be part of a forward-thinking and growth-oriented workplace. • Engaging community – Work with passionate professionals and participate in team-building events, hackathons, and CSR initiatives to make an impact beyond work. • Team-building events including our company tradition (annual company event in Mazury). • A pleasant surprise to start your journey with us in the form of a welcome pack. Recruitment process: • HR call • Technical Interview • Interview with the dedicated Client • Final decision/ Feedback Sounds interesting? Click "Apply" and have a chance to hear more!
PostgreSQL Developer
Link Group
⚲ Warszawa
16 800 - 25 200 PLN (B2B)
Wymagania
- PostgreSQL
- Umiejętności komunikacyjne
- współpraca z działem IT
- Analiza danych
- Projekty finansowe (nice to have)
- Przetwarzanie danych historycznych (nice to have)
- Monitorowanie (nice to have)
- Optymalizację baz danych (nice to have)
O projekcie: Poszukujemy doświadczonego PostgreSQL Developera do dużego projektu dla klienta z branży finansowej. Projekt daje możliwość pracy nad złożonymi rozwiązaniami bazodanowymi, poznania całego systemu oraz aktywnego udziału w jego dalszym rozwoju i wdrażaniu nowych funkcjonalności. Wymagania: - Minimum 5 lat doświadczenia w pracy z PostgreSQL - Wykształcenie wyższe – kierunki informatyczne lub pokrewne. - Dobra znajomość języka angielskiego – intensywny kontakt z zespołem i biznesem. - Komunikatywność i umiejętność współpracy z osobami spoza działu IT. - Zainteresowanie pracą w projekcie opartym w całości na danych i ich analizie. Mile widziane - Doświadczenie w projektach finansowych lub systemach przetwarzania danych historycznych. - Znajomość narzędzi wspierających monitorowanie i optymalizację baz danych. Codzienne zadania: - Tworzenie i optymalizacja zapytań SQL oraz procedur w PostgreSQL. - Analiza struktur danych i wspieranie zespołu w projektowaniu rozwiązań bazodanowych. - Utrzymanie i rozwój istniejących baz danych wykorzystywanych w systemie. - Współpraca z zespołem developerskim i interesariuszami biznesowymi. - Identyfikacja obszarów wymagających optymalizacji i proponowanie usprawnień w zakresie danych.
Lead Data Engineer (k/m/x)
Square One Resources
⚲ Warsaw
31 920 - 40 320 PLN (B2B)
Wymagania
- Python
- Databricks
- PySpark
- Apache Spark
- SQL
- CI/CD
- AWS
- Azure
- GCP
Wymagania: - Wieloletnie doświadczenie w projektowaniu i budowie rozwiązań data engineering w oparciu o Databricks / Apache Spark - Bardzo dobra znajomość Python (w tym PySpark) oraz SQL; znajomość Scala będzie dodatkowym atutem - Doświadczenie w budowie i utrzymaniu dużych, produkcyjnych pipeline’ów danych - Solidne zrozumienie architektury danych, modelowania danych oraz zagadnień optymalizacji wydajności - Doświadczenie w pracy z chmurą publiczną (AWS, Azure lub GCP) - Praktyczna znajomość CI/CD oraz dostarczania rozwiązań klasy enterprise - Znajomość zasad data governance, bezpieczeństwa informacji oraz ochrony prywatności - Doświadczenie w roli liderskiej lub gotowość do pełnienia funkcji technicznego lidera - Umiejętność pracy w środowisku międzyzespołowym i silne nastawienie na realizację celów Codzienne zadania: - Projektowanie, rozwój i optymalizacja skalowalnych pipeline’ów danych (ingestia, transformacja, przetwarzanie, warstwa analityczna) - Definiowanie i rozwój architektury danych zgodnej z najlepszymi praktykami oraz standardami organizacyjnymi - Współtworzenie i realizacja roadmapy technologicznej dla platformy danych - Techniczne wsparcie i mentoring zespołu Data Engineerów (code review, wyznaczanie dobrych praktyk, rozwiązywanie problemów technicznych) - Ścisła współpraca z zespołami produktowymi i biznesowymi w zakresie zbierania wymagań, estymacji oraz planowania prac - Optymalizacja wydajności przetwarzania danych oraz rozwiązywanie problemów związanych z jakością i integralnością danych - Wdrażanie mechanizmów kontroli jakości danych, obserwowalności oraz automatycznej walidacji - Budowa i utrzymanie procesów CI/CD dla rozwiązań data engineering - Dbałość o zgodność rozwiązań z zasadami data governance, bezpieczeństwa oraz ochrony danych - Tworzenie i utrzymywanie dokumentacji technicznej - Komunikowanie zagadnień technicznych interesariuszom o różnym poziomie wiedzy technicznej - Aktywny udział w pracy w metodykach zwinnych (refinement, planowanie sprintów, daily, zarządzanie backlogiem)
Lead Data Engineer
Kingfisher
⚲ Kraków
30 000 - 38 000 PLN (PERMANENT)
Wymagania
- Data modelling
- Quality assurance
- Testing
- Storage
- Scripting language
- Python
- SQL
- PySpark
- Azure Data
- Azure Databricks
- Cloud
- AWS
- GCP
O projekcie: Who we are and what we create? We’re Kingfisher, a team made up of over 74,000 passionate people who bring Kingfisher - and all our other brands: Castorama, B&Q, Screwfix, Brico Dépôt and Koçtaş - to life. That’s right, we’re big, but we have ambitions to become even bigger and even better. We want to become the leading home improvement company and grow the largest community of home improvers in the world. And that’s where you come in. At Kingfisher, our customers come from all walks of life, and so do we. We want to ensure that all colleagues, future colleagues, and applicants to Kingfisher are treated equally regardless of age, gender, marital or civil partnership status, colour, ethnic or national origin, culture, religious belief, philosophical belief, political opinion, disability, gender identity, gender expression or sexual orientation. We are open to flexible and agile working. Therefore, we offer colleagues a blend of working from home and our office, located in Kraków. Talk to us about how we can best support you! At Kingfisher, we value the perspectives that any new team members bring, and we want to hear from you. We encourage you to apply for one of our roles, even if you do not feel you meet 100% of the requirements. In return, we offer an inclusive environment, where what you can achieve is limited only by your imagination! We encourage new ideas, actively support experimentation, and strive to build an environment where everyone can be their best self. We also offer a competitive benefit package and plenty of opportunities to stretch and grow your career: - 30,000 - 38,000 PLN gross per month on an employment contract - Private medical healthcare at LUXMED (including dentalcare) for you and your family - Medicover sports card (Fit&More package) - Life insurance financed by the employer - 30-minute lunch break included in the 8-hour working day - Work in a highly professional and stimulating atmosphere - Training & Buddy programme that will allow you to quickly adapt to your new role - Wellbeing programme for employees - Co-financing of monthly tickets for the public transport in Krakow - Comfortable working environment in the office and the possibility of home office - Language courses, accounting courses, access to LinkedIn Learning and the possibility of co-financing studies and certification - Employee referral programme We are going through and exciting period of change and are seeking a highly motivated and experienced Lead Data Engineer to join our Data Engineering team. You will work as part of our exciting greenfield tech hub covering all facets of technology within Kingfisher. You will be responsible for the day-to-day performance and productivity of a small team, leading by example whilst driving quality and ensuring delivery to scope. If you're looking for an exciting opportunity to step out of your comfort zone and make a real impact building better software, this is the job for you! Wymagania: What you'll bring - Strong engineering background and proven experience in developing and maintaining large-scale distributed data processing systems or equivalent expertise. - Extensive knowledge of data modelling principles, data quality assurance, testing methodologies, and best practices for data access and storage. - Strong command of data scripting languages within data ecosystem, including Python, SQL, and PySpark. - Experience with Azure Databricks and DBT for building and optimising data pipelines and workflows. - Experience in implementing cloud data solutions on at least one major cloud provider (Azure, AWS, or GCP) - Knowledge around shortening development lead time and improving data development lifecycle - Familiarity with Agile methodologies and working experience within Agile delivery frameworks - Excellent command of English (written and spoken) Codzienne zadania: - Work in agile team, collaborate with other teams, advising, mentoring and line managing other Data Engineers. - Act as an escalation point for team, unblocking technical or project related issues to maintain project progress. - Lead in design, architecture and delivery of new features and pipelines within the team - Support the Principal Data Engineer with resourcing and other day to day management duties. - Maintain high performing teams by driving continuous improvement of engineering and agile practices and standards. - Be an active member of the Kingfisher wide technical lead team to help define development processes, and code quality standards, also serve as a technical leader within the organisation. - Promote TDD to design and develop operationally maintainable solutions in accordance with Kingfisher standards. - Ensure competence in the specialism is sustained, developed and encouraged within your team by being a data engineer with a passion for leading and coaching.