Data Engineer (Python + Pyspark)
Scalo
⚲ Gdynia
20 160 - 21 840 PLN (B2B)
Wymagania
- Python
- pandas
- PySpark
- SQL
- Apache Spark
- Big Data (nice to have)
- R (nice to have)
- Scala (nice to have)
- DAX (nice to have)
- Visual Studio (nice to have)
- YAML (nice to have)
- DevOps (nice to have)
- REST API (nice to have)
- API (nice to have)
- Power BI (nice to have)
Opis stanowiska
O projekcie: Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Co dla Ciebie mamy: - Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt - Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych - Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób - Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort - Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci - Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Wymagania: Ta oferta jest dla Ciebie, jeśli: - posiadasz doświadczenie zawodowe, w tym 3-4 lata w rozwoju oprogramowania, integracji systemów, hurtowniach danych lub w podobnych obszarach, - programujesz w Pythonie, szczególnie w zakresie przetwarzania danych (pandas, PySpark), - masz praktyczną znajomość SQL i projektowania baz danych, - posiadasz doświadczenie w pracy z Apache Spark / PySpark, - masz dobrą znajomość języka angielskiego w mowie i piśmie, - masz umiejętności analityczne i zdolność dostrzegania wspólnych elementów w różnorodnych problemach. Mile widziane: - modelowania danych, szczególnie w kontekście hurtowni danych i Big Data, - znajomość języków i frameworków do zapytań i przetwarzania danych, takich jak R, Scala, DAX, XPath, Kusto Query Language, - pracy w środowisku Visual Studio Code, - tworzenia skryptów automatyzujących wdrożenia w YAML dla środowiska Microsoft DevOps, - tworzenia i korzystania z usług RESTful API, - pracy z Microsoft Power BI. Codzienne zadania: - globalna platforma do bezpiecznej wymiany danych, analiz i usług pomiędzy różnymi branżami, - projektowanie, rozwój i wsparcie rozwiązań tworzonych w oparciu o narzędzia analityczne Azure (Azure Databricks, Azure SQL, Azure Data Factory, Azure Functions), - tworzenie w pełni zautomatyzowanych potoków przetwarzania danych z wykorzystaniem komponentów Microsoft Azure, - rozwój, obsługa i dokumentowanie procesów pobierania danych, aplikacji wizualizacyjnych, zarządzania danymi i katalogów danych, - strojenie wydajności i optymalizacja aplikacji Apache Spark / PySpark, - eksploracja i analiza zbiorów danych pochodzących od dostawców zewnętrznych i wewnętrznych, - codzienna współpraca w międzynarodowym zespole, - praca zdalna, - stawka do 130 zł/h przy B2B.