NoFluffJobs Praca zdalna Senior New

Data Engineer (Python + Pyspark)

Scalo

⚲ Gdynia

20 160 - 21 840 PLN (B2B)

Wymagania

  • Python
  • pandas
  • PySpark
  • SQL
  • Apache Spark
  • Big Data (nice to have)
  • R (nice to have)
  • Scala (nice to have)
  • DAX (nice to have)
  • Visual Studio (nice to have)
  • YAML (nice to have)
  • DevOps (nice to have)
  • REST API (nice to have)
  • API (nice to have)
  • Power BI (nice to have)

Opis stanowiska

O projekcie: Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Co dla Ciebie mamy: -  Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt -  Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych -  Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób -  Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort -  Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci -  Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Wymagania: Ta oferta jest dla Ciebie, jeśli: - posiadasz doświadczenie zawodowe, w tym 3-4 lata w rozwoju oprogramowania, integracji systemów, hurtowniach danych lub w podobnych obszarach, - programujesz w Pythonie, szczególnie w zakresie przetwarzania danych (pandas, PySpark), - masz praktyczną znajomość SQL i projektowania baz danych, - posiadasz doświadczenie w pracy z Apache Spark / PySpark, - masz dobrą znajomość języka angielskiego w mowie i piśmie, - masz umiejętności analityczne i zdolność dostrzegania wspólnych elementów w różnorodnych problemach. Mile widziane: - modelowania danych, szczególnie w kontekście hurtowni danych i Big Data, - znajomość języków i frameworków do zapytań i przetwarzania danych, takich jak R, Scala, DAX, XPath, Kusto Query Language, - pracy w środowisku Visual Studio Code, - tworzenia skryptów automatyzujących wdrożenia w YAML dla środowiska Microsoft DevOps, - tworzenia i korzystania z usług RESTful API, - pracy z Microsoft Power BI. Codzienne zadania: - globalna platforma do bezpiecznej wymiany danych, analiz i usług pomiędzy różnymi branżami, - projektowanie, rozwój i wsparcie rozwiązań tworzonych w oparciu o narzędzia analityczne Azure (Azure Databricks, Azure SQL, Azure Data Factory, Azure Functions), - tworzenie w pełni zautomatyzowanych potoków przetwarzania danych z wykorzystaniem komponentów Microsoft Azure, - rozwój, obsługa i dokumentowanie procesów pobierania danych, aplikacji wizualizacyjnych, zarządzania danymi i katalogów danych, - strojenie wydajności i optymalizacja aplikacji Apache Spark / PySpark, - eksploracja i analiza zbiorów danych pochodzących od dostawców zewnętrznych i wewnętrznych, - codzienna współpraca w międzynarodowym zespole, - praca zdalna, - stawka do 130 zł/h przy B2B.