Big Data Developer
B2Bnetwork
⚲ Poland
110 - 160 PLN/h netto (B2B)
Wymagania
- Hadoop
- Apache Airflow
- SQL
- Python
- Apache Spark
Opis stanowiska
KOMPETENCJE OBLIGATORYJNE: • Doświadczenie zawodowe na stanowisku związanym z przetwarzaniem dużych zbiorów danych jako programista, minimum 2 lata • Doświadczenie projektowe w przetwarzaniu dużych zbiorów danych, minimum 1 projekt • Doświadczenie projektowe w programowaniu w języku Python, minimum 1 projekt • Doświadczenie projektowe w środowisku obliczeniowym on-premise, minimum 1 projekt • Doświadczenie w programowaniu w środowisku Apache Spark • Doświadczenie w programowaniu w Python • Doświadczenie w programowaniu w Apache Airflow • Doświadczenie w programowaniu w SQL • Znajomość zagadnień Hadoop • Programowanie procesów ELT/ETL • Znajomość zagadnień związanych z procesami CI/CD • Umiejętność korzystania z systemu kontroli wersji (Git) KOMPETENCJE DODATKOWE: • Wykształcenie wyższe • Certyfikat z obszaru zarządzania projektem metodą zwinną (np. Agile PM lub równoważny) • Certyfikat potwierdzający znajomość Apache Airflow (np. Airflow Fundamentals lub równoważny) • Certyfikat potwierdzający umiejętność tworzenia DAGów Airflow (np. Dag Authoring lub równoważny) • Certyfikat potwierdzający znajomość Apache Spark (np. Spark Developer Associate lub równoważny) • Certyfikat potwierdzający znajomość SQL (np. W3Schools SQL Certificate lub równoważny) WYMAGANIA TECHNICZNE: • Apache Spark • Python • Apache Airflow • SQL • Hadoop • Git