Data Engineer
Integral Solutions
⚲ Warszawa
129 zł netto (+ VAT) / godz.
Wymagania
- Google Cloud Platform
- Apache Airflow
- Dataflow
- Dataproc
- Kafka
- Pub/Sub
- Oracle
- PostgreSQL
- ScyllaDB
- PySpark
- Rust
- Python
- Java
- Linux
- Apache JMeter
- Grafana
Opis stanowiska
Nasze wymagania: Posiadasz minimum pięcioletnie doświadczenie jako Data Engineer GCP, obejmujące projektowanie i realizację procesów integracji danych w środowisku Google Cloud. Bardzo dobrze znasz bazy danych GCP, takie jak BigQuery, Bigtable czy Scylla Cloud, w szczególności w zakresie projektowania, tworzenia i optymalizacji ich działania. Dobrze orientujesz się w narzędziach ETL działających na GCP, m.in. Apache Airflow, Dataflow oraz Dataproc. Potrafisz pracować z systemami kolejkowymi, takimi jak Kafka czy Pub/Sub w GCP. Masz co najmniej czteroletnią praktykę w roli ETL Developera tworzącego procesy integracji danych w środowiskach on‑premises. Biegle posługujesz się narzędziami ETL on‑prem, w tym Informatica PowerCenter oraz NIFI, na poziomie zaawansowanym. Posiadasz ekspercką znajomość relacyjnych baz danych Oracle, PostgreSQL i ScyllaDB, obejmującą ich projektowanie, budowę oraz optymalizację. Bardzo dobrze znasz system harmonogramowania AutomateNow firmy Infinity Data. Potrafisz tworzyć i wystawiać usługi REST API. Masz minimum trzy lata doświadczenia w programowaniu. Bardzo dobrze znasz Pythona w obszarach integracji i analizy danych, a także posługujesz się frameworkiem PySpark. Posiadasz znajomość języka Rust, wykorzystywanego do tworzenia narzędzi i frameworków umożliwiających wydajne ładowanie danych. Docelowo przejmiesz odpowiedzialność za wybrane obszary przetwarzania i udostępniania danych, szczególnie w środowiskach wymagających wysokiej wydajności. Mile widziane: Podstawowe umiejętności w zakresie tworzenia mikroserwisów w języku Java. Swobodne korzystanie z systemu Linux na poziomie zaawansowanego użytkownika. Doświadczenie w pracy z bardzo dużymi zbiorami danych, sięgającymi około 100 TB. Zamiłowanie do analitycznego myślenia oraz szybkie przyswajanie nowych zagadnień. Samodzielność i kreatywność w poszukiwaniu oraz wdrażaniu rozwiązań. Wysoka rzetelność i terminowość podczas realizacji powierzonych zadań. Znajomość narzędzi wspierających pracę, takich jak repozytoria GIT, systemy monitorujące (np. Grafana) czy narzędzia do testowania wydajności, np. Apache JMeter. O projekcie: Szukamy doświadczonego Senior Data Engineera, który swobodnie porusza się w środowisku GCP, ETL oraz zaawansowanej pracy z bazami danych i kolejkowaniem, a także biegle programuje w Pythonie i zna narzędzia wspierające wydajne przetwarzanie danych. W tej roli będziesz rozwijać, projektować i optymalizować złożone procesy integracyjne zarówno w chmurze, jak i w środowiskach on‑prem, wykorzystując nowoczesne technologie, narzędzia MLOps/DevOps oraz rozwiązania wysokowydajnościowe. Tryb pracy: Hybrydowo, 4 dni zdalnie 1 dzień z biura w centrum Warszawy Zakres obowiązków: Jeśli chcesz przejąć odpowiedzialność za kluczowe obszary przetwarzania danych, pracować z ogromnymi wolumenami informacji i rozwijać narzędzia, które realnie wpływają na wydajność organizacji — dołącz do nas. Oferujemy: Pracę na kontrakcie B2B. Prezenty na różne okazje. Wydarzenia firmowe.