Data Engineer
Scalo
⚲ Wrocław
21 840 - 23 520 PLN (B2B)
Wymagania
- SQL
- Python
- ETL
- pandas
- Airflow
- Databricks (nice to have)
- Teradata (nice to have)
- Power BI (nice to have)
Opis stanowiska
O projekcie: Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Co dla Ciebie mamy: - Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt - Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych - Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób - Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort - Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci - Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Wymagania: Ta oferta jest dla Ciebie, jeśli: - posiadasz min. 4-5 lat doświadczenia w roli Data Engineera, - posiadasz wykształcenie wyższe STEM, - bardzo dobrze znasz SQL oraz posiadasz doświadczenie w pracy z wieloma typami baz danych, - masz praktyczną znajomość zasad modelowania i optymalizacji baz danych, w tym dimension modeling, - masz doświadczenie w pracy z Python, szczególnie w obszarze manipulacji danymi i procesów ETL (Pandas, Airflow), - umiesz pracować w środowiskach danych wykorzystywanych w projektach AML, - znasz lub jesteś gotowy/a do nauki DataBricks oraz technologii chmurowych (mile widziane), - posiadasz doświadczenie z Teradata (mile widziane), - posiadasz umiejętność tworzenia dashboardów i raportów, np. w Power BI (do ustalenia w ramach projektu) (mile widziane). Codzienne zadania: - uczestnictwo w projekcie dot. branży bankowej, - projektowanie, tworzenie oraz optymalizacja procesów ETL z wykorzystaniem Python, Pandas i Airflow, - modelowanie i optymalizacja baz danych, w tym praca z podejściem dimension modeling, - analiza i przetwarzanie danych w różnych bazach danych wykorzystywanych w projekcie (w tym Teradata), - wsparcie zespołów AML w zakresie przygotowania danych i utrzymania środowiska analitycznego, - współpraca przy wdrażaniu rozwiązań opartych o DataBricks oraz technologie chmurowe, - praca zdalna (czasami się trzeba w biurze pojawić, odbiór sprzętu w biurze 1 dnia), - stawka do 140 zł/h przy B2B w zależności od doświadczenia.