Database Developer (PostgreSQL)
Scalo
⚲ Warszawa, Wrocław, Poznań
20 160 - 21 840 PLN (B2B)
Wymagania
- PostgreSQL
- Kafka (nice to have)
- Python (nice to have)
- Go (nice to have)
- Java (nice to have)
- Citus (nice to have)
Opis stanowiska
O projekcie: Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! Co dla Ciebie mamy: - Stabilna współpraca Wyzwania technologiczne i praca z nowoczesnymi rozwiązaniami. Internal Mobility - nie musisz zmieniać firmy, żeby zmienić projekt - Ambasadorzy SCALO Rozwijaj kompetencje techniczne i presalesowe, wpływaj na kierunek rozwoju organizacji i wspieraj innych - Budowanie marki osobistej Twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako ekspert na wydarzeniach (np. ProMeet) - rozwijaj swoją markę w naturalny sposób - Benefit box Pełna opieka medyczna, karta MultiSport i szeroka oferta Motivizera - wybieraj benefity, które dbają o Twoje zdrowie, energię i codzienny komfort - Program poleceń Poleć znajomego z IT, a resztą zajmiemy się my – on dostaje nowy projekt, Ty bonus. Win–win w najczystszej postaci - Integracje i wydarzenia firmowe Wspólne wyjścia, firmowe eventy i okazje do poznania się poza projektami – bo dobre relacje tworzą najlepsze zespoły Wymagania: Ta oferta jest dla Ciebie, jeśli: - posiadasz głęboką, praktyczną znajomość PostgreSQL (wersje 14–17+), - pracujesz z: 1. Replikacją logiczną: – swobodnym projektowaniem i wdrażaniem replikacji logicznej (publication/subscription), – rozwiązywaniem konfliktów, zarządzaniem dużymi zmianami (large objects, DDL), transformacjami kolumn, – migracjami zero-downtime z użyciem logical replication. 2. Postgres_fdw: – zaawansowanym użyciem postgres_fdw w scenariuszach distributed queries, shardingu, data federation, – optymalizacją pushdown (aggregations, joins, WHERE), partition-wise joins przez FDW, – rozwiązywaniem problemów z transakcjami rozproszonymi i wydajnością. 3. Partycjonowaniem deklaratywnym: – projektowaniem i utrzymaniem dużych tabel partycjonowanych (range, list, hash, subpartitioning), – partition pruning, partition-wise join/aggregate, attach/detach w produkcji, – strategiami migracji istniejących tabel na partycjonowane bez downtime’u. 4. Posiadasz wiedzę ekspercką z obszaru indeksów, – mile widzimy doświadczenie z: HA (Patroni/pg_auto_failover), Kafka, Python/Go/Java, Citus. Codzienne zadania: - projekt dotyczący rozproszonej platformy danych, opartej o PostgreSQL, obsługującej kluczowe systemy o wysokiej dostępności. Systemy działają bez okien serwisowych, wymagają federacji danych, migracji bez przestojów oraz optymalizacji przetwarzania na dużą skalę, - projektowanie i wdrażanie replikacji logicznej (publication/subscription) oraz migracji zerodowntime, - zaawansowana praca z PostgreSQL: distributed queries, sharding, data federation, optymalizacja pushdown, - projektowanie i utrzymanie partycjonowania (range/list/hash), procesy attach/detach w produkcji, migracje na partycjonowane struktury, - optymalizacja wydajności: indeksy (Btree, GIN, GiST, BRIN), analiza planów zapytań, tuning SQL, - rozwiązywanie problemów transakcji rozproszonych i wydajności międzyserwisowej, - projektowanie architektury wysokiej dostępności oraz wsparcie zespołów backendowych, - praca zdalna i 2 x w miesiącu z jednego z biur w: Warszawie, Wrocławiu lub Poznaniu, - stawka do 130 zł/h przy B2B.