Remote Data Platform Engineer
StatXplorer
⚲ Remote
15 000 - 20 000 PLN (B2B)
Wymagania
- Azure
- Airflow
- Kubernetes
- Helm
- Terraform
- Python
- SQL
- Docker
- DuckDB (nice to have)
- Airbyte connectors (nice to have)
- OpenMetadata (nice to have)
Opis stanowiska
O projekcie: Kim jesteśmy StatXplorer to firma technologiczna specjalizująca się w data science, AI/ML, digital twins i IoT. Pracujemy z klientami z sektora medycznego, przemysłowego i finansowego — budujemy dla nich systemy które naprawdę działają. Większość firm IT patrzy na problem przez pryzmat technologii. My rozumiemy biznes klienta — i to jest nasza przewaga. Inżynierowie u nas wiedzą dlaczego coś budują, nie tylko jak. Szukamy ludzi którzy myślą podobnie. Czego szukamy Szukamy inżyniera z solidnym backgroundem data engineeringowym, który rozumie również warstwę infrastrukturalną — lub chce tę kompetencję świadomie rozwinąć. Co oferujemy - Praca w pełni zdalna — bez biura, bez hybridu na siłę - Budujemy dosłownie od zera — masz realny wpływ na kształt systemu od pierwszego dnia - Dostęp do architekta który zaprojektował system — pełen kontekst decyzji technicznych - Małe środowisko, brak komitetów — decyzje podejmowane szybko - Stack open-source, cloud-native — nowoczesne narzędzia bez korporacyjnego balastu - Szukamy kogoś na długo — zależy nam na zbudowaniu solidnego core teamu, nie na rotacji kontaktorów co kwartał Jeśli masz coś na GitHubie — daj znać :) Wymagania: Wymagania: - Airflow w praktyce — projektowanie i wdrażanie DAGów, KubernetesPodOperator, diagnostyka i debugowanie - Kubernetes — deployowanie aplikacji, praca z Helm chartami, orientacja w działaniu klastra - Terraform — infrastruktura jako kod, Azure provider, zarządzanie stanem - Python na poziomie umożliwiającym samodzielne zaprojektowanie i implementację pipeline'u w Kedro - SQL — modelowanie i transformacje danych, nie tylko odpytywanie - Docker — budowanie obrazów, rozumienie przepływu przez ACR do środowiska AKS - Zdolność do samodzielnego prowadzenia zadań od analizy wymagań do wdrożenia — w projekcie greenfield liczymy na inicjatywę, nie tylko realizację Nice to have: - DuckDB - Airbyte connectors - OpenMetadata - Great Expectations - medallion architecture / data lakehouse Stack: - Apache Airflow, Kedro, Great Expectations, OpenMetadata, - Airbyte, DuckDB, Azure Blob Storage, - Azure AKS, Azure Key Vault, ACR, Terraform, Helm, Docker, Python, SQL Codzienne zadania: - Rozwój platformy danych — implementacja nowych funkcjonalności, rozbudowa warstw medallion, optymalizacja pipelines - Utrzymanie i monitoring infrastruktury — AKS, Airflow, Airbyte, storage; reagowanie na incydenty, dbanie o stabilność środowiska - Integracja źródeł danych — podpinanie nowych systemów źródłowych przez Airbyte, konfiguracja connectorów, obsługa edge cases - Infrastruktura jako kod — zarządzanie zasobami Azure przez Terraform i Helm, utrzymanie repo jako jedynego źródła prawdy - Jakość danych — konfiguracja i utrzymanie walidacji Great Expectations, nadzór nad quarantine, reagowanie na anomalie - Dokumentacja i katalog danych — utrzymanie OpenMetadata, dbanie o to żeby system był zrozumiały dla kolejnych osób w zespole - Onboarding nowych klientów — konfiguracja nowych środowisk w ramach architektury multi-tenant