Data Engineer (k/m)
Electrum Sp. z o.o.
⚲ Białystok
Wymagania
- Python
- SQL
- Apache Airflow
- PostgreSQL
- Docker
- Git
Opis stanowiska
Nasze wymagania: Programowanie: Python, SQL Orkiestracja: Apache Airflow Bazy danych: MS SQL Server, PostgreSQL Infrastruktura: Docker Integracje: REST API Kontrola wersji: Git Zdolności analityczne: Umiejętność samodzielnej analizy problemów, interpretacji danych i proponowania rozwiązań AI Fluency: Praktyczne wykorzystanie narzędzi AI (np. GitHub Copilot, ChatGPT, Claude) w codziennej pracy Systemy operacyjne: Windows, Linux Mile widziane: Doświadczenie z narzędziami do automatyzacji procesów, m.in. n8n Znajomość funkcjonowania biznesu — wiedza z zakresu finansów, optymalizacji procesów lub trenowania modeli będzie dodatkowym atutem Doświadczenie w zakresie anonimizacji danych (np. pseudonimizacja, maskowanie, tokenizacja) będzie dodatkowym atutem Znajomość dbt (data build tool) — rozważamy wdrożenie tego narzędzia i chętnie powitamy kogoś, kto pomoże nam w tym kroku Znajomość koncepcji hurtowni danych O projekcie: Jeśli interesujesz się szerokim rozwojem w obszarze przetwarzania danych, to jest idealna okazja dla Ciebie. Szukamy utalentowanego i myślącego przyszłościowo Data Engineera, który dołączy do naszego zespołu. W tej roli będziesz odpowiedzialny za budowanie, utrzymanie i optymalizację pipeline'ów danych, które wspierają kluczowe decyzje biznesowe w całej organizacji. Będziesz blisko współpracować z analitykami danych, inżynierami oprogramowania oraz osobami z innych obszarów organizacji, dbając o niezawodne, skalowalne i wydajne przepływy danych. Oczekujemy, że potrafisz nie tylko technicznie realizować zadania, ale również samodzielnie analizować problemy, wyciągać wnioski z danych i proponować rozwiązania — aktywnie wykorzystując przy tym technologie AI do usprawniania swojej pracy. Zakres obowiązków: Projektowanie, budowanie i utrzymanie pipeline'ów ETL/ELT Tworzenie i zarządzanie orkiestracją procesów za pomocą Apache Airflow Pisanie czystego, wydajnego i dobrze przetestowanego kodu w Pythonie i SQL Praca z relacyjnymi bazami danych: MS SQL Server i PostgreSQL Praca z bazami wektorowymi Budowanie i utrzymanie środowisk kontenerowych przy użyciu Dockera — tworzenie obrazów, pisanie Dockerfile'ów, zarządzanie docker-compose oraz sieciami i wolumenami Integracja danych z zewnętrznych źródeł także poprzez REST API oraz budowanie własnych serwisów REST API Zapewnienie jakości, niezawodności i wydajności danych Współpraca z zespołami w oparciu o przepływy pracy z wykorzystaniem Gita Aktywne stosowanie narzędzi AI i rozwiązań opartych na LLM w codziennej pracy Oferujemy: Pracę przy ciekawych projektach Tryb pracy hybrydowy z biurem w Białymstoku Dostęp do nowoczesnych narzędzi AI Opieka medyczna, imprezy firmowe