Data Engineer (Snowflake / Terraform / Airflow)
TQLO SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ
⚲ Warszawa
150 - 170 PLN/h netto (B2B)
Wymagania
- SQL
- Snowflake
- Terraform
- CI/CD
- Airflow
Opis stanowiska
Nasz Klient to międzynarodowa firma z branży telekomunikacyjnej z siedzibą w Belgii, realizująca nowoczesne projekty związane z transformacją i rozwojem platform danych w środowisku cloudowym. ☁️ Projekt koncentruje się na rozwoju i utrzymaniu nowoczesnej architektury Data Engineering, obejmującej migracje legacy DWH, budowę pipeline’ów danych oraz automatyzację infrastruktury i procesów deploymentowych. 🔎 Szukamy doświadczonej osoby na stanowisko Data Engineer, która dobrze odnajduje się w środowiskach cloudowych, posiada mocne kompetencje w obszarze Snowflake, Terraform oraz Airflow i potrafi samodzielnie prowadzić zadania w złożonym środowisku enterprise. 📍 TRYB PRACY: 100% zdalnie ⏱️ DOSTĘPNOŚĆ: Poszukujemy osób dostępnych ASAP lub z maksymalnie 30-dniowym okresem wypowiedzenia. 🧑💻 CZYM BĘDZIESZ SIĘ ZAJMOWAĆ? • Projektowaniem, rozwijaniem i utrzymywaniem skalowalnych pipeline’ów danych w nowoczesnym środowisku cloudowym. • Budową oraz optymalizacją rozwiązań opartych o Snowflake, ze szczególnym uwzględnieniem wydajności, bezpieczeństwa, zarządzania rolami i architektury warehouse’ów. • Automatyzacją infrastruktury przy wykorzystaniu Terraform (Infrastructure as Code) oraz rozwijaniem procesów deploymentowych i integracyjnych. • Projektowaniem oraz utrzymywaniem workflowów danych z wykorzystaniem Apache Airflow i warstw orkiestracji. • Udziałem w migracjach z legacy DWH / Teradata do nowoczesnych platform danych. • Współpracą z międzynarodowym zespołem pracującym w metodologiach Agile (Scrum / Kanban). 🔍 CZEGO OD CIEBIE OCZEKUJEMY? • ✅ Must-have: Minimum 5 lat doświadczenia w obszarze Data Engineering. • Bardzo dobrej znajomości Snowflake – w szczególności SQL, performance tuning, warehouses, roles oraz security. • Praktycznego doświadczenia z Terraform i podejściem IaC (Infrastructure as Code). • Doświadczenia w budowie end-to-end pipeline’ów danych wraz z warstwami CI/CD i orkiestracji. • Bardzo dobrej znajomości Apache Airflow oraz projektowania workflowów danych w środowiskach cloudowych. • Doświadczenia w migracjach Teradata lub legacy DWH. • Samodzielności, odpowiedzialności oraz umiejętności pracy w dynamicznym środowisku projektowym. • Języka angielskiego na poziomie minimum B2. 🤝 DLACZEGO WARTO? • 100% zdalny model pracy i współpraca z międzynarodowym zespołem. • Szybki proces rekrutacyjny – 1–2 etapy. • Możliwość pracy przy nowoczesnym stacku Data & Cloud. • Duża samodzielność oraz realny wpływ na rozwiązania techniczne. • Projekt realizowany dla stabilnego klienta z branży telekomunikacyjnej. 📩 Dziękujemy za wszystkie zgłoszenia! Skontaktujemy się z wybranymi osobami. TQLO Sp. z o.o. – nr KRAZ: 33580