Analytics Engineer / BI Engineer
Tpay
⚲ Poznań
14 000 - 18 000 PLN (B2B)
Wymagania
- SQL
- Power BI (nice to have)
- Tableau (nice to have)
- Looker (nice to have)
- GCP (nice to have)
- Python (nice to have)
Opis stanowiska
O projekcie: Rozwijaj się z polskim fintechem z siedzibą w sercu Poznania! Kim jesteśmy? Operatorem płatności dla e-commerce i usług online. Od ponad 14 lat ułatwiamy użytkownikom zakupy w sieci, pracując razem nad stale rozwijającą się bramką płatniczą. Na pewno znasz nas od dawna, bo jeśli zamawiasz jedzenie czy kupujesz bilety online —prawdopodobnie korzystasz z rozwiązań Tpay. Wśród naszych klientów znaleźć można takie marki jak RTV Euro AGD, Media Expert, Jakdojade.pl, Koleo, PKP Informatyka. Nasze wartości: W codziennej pracy cenimy wartości takie jak: Rozwój, Profesjonalizm, Kulturę osobistę i Zespołowość. Jest to kompas, który wyznacza nam kierunek każdego dnia. W Tpay liczą się ludzie. Mamy zgrane zespoły, które chętnie dzielą się wiedzą i doświadczeniem. Nowych pracowników nigdy nie zostawiamy samych sobie: możesz liczyć na preonboarding i onboarding, pełne wsparcie zespołu HR i członków Twojego nowego teamu. Szukamy osoby, która wzmocni nasz zespół w obszarze modelowania danych. Będziesz odpowiadać za przekładanie potrzeb biznesowych na wiarygodne, udokumentowane data marty - od zrozumienia procesu, przez zaprojektowanie modelu, po wdrożenie i walidację jakości. To rola na styku inżynierii danych i analizy biznesowej. Projekty dotyczą modelowania przepływów transakcyjnych, analityki produktowej i wsparcia obszarów regulacyjnych. W ramach zespołu będziesz współpracować z Data Engineerem (ETL, infrastruktura) i BI Developerami (raportowanie), a poza nimi - z odbiorcami danych w całej organizacji i zespołami deweloperskimi, które te dane wytwarzają. Przejdź na drugą stronę bramki płatniczej i poznaj nas bliżej! W Tpay możesz liczyć na: - zatrudnienie w oparciu o umowę o pracę lub współpracę B2B - Ty wybierasz, - wynagrodzenie: 14000-18000 zł brutto UoP / 83-107 zł netto + VAT/h B2B, - biuro w ścisłym centrum Poznania, w Andersia Tower na 17. piętrze, - możliwość 100% pracy zdalnej - szanujemy Twoje preferencje, - pracę z doświadczonym i różnorodnym zespołem, który chętnie dzieli się wiedzą i doświadczeniem, - bezpłatne lekcje języka angielskiego, - kartę Multisport, - prywatną opiekę medyczną PZU, - ubezpieczenie na życie UNUM, - Workation- pracę z dowolnego miejsca w Europie przez 3 miesiące w roku, - pakiet wsparcia psychologicznego HearMe, - budżet szkoleniowy po okresie próbnym i 7 dni na rozwój w ciągu roku, - produkty Pekao S.A. i PZU na preferencyjnych warunkach (dotyczy UoP), - elastyczne godziny rozpoczęcie pracy w godz. 7.00-10.00. - nowoczesny sprzęt do pracy, - regularne imprezy integracyjne, - szansę na zdobywanie doświadczeń w obszarze fintech i pracę z fajnymi ludźmi ;) Brzmi ciekawie? APLIKUJ i dołącz do NAS! Wymagania: Dołącz do nas, jeśli: - masz 2-4+ lata pracy w obszarze danych (BI, Analytics, Data Engineering), - posiadasz wykształcenie wyższe (informatyka, matematyka, ekonometria, data science) lub równoważne doświadczenie zawodowe, - znasz SQL na poziomie zaawansowanym (window functions, CTEs, optymalizacja zapytań), - masz doświadczenie z chmurową hurtownią danych (BigQuery, Snowflake, Redshift lub podobne), - znasz techniki modelowania danych (Star Schema, mile widziane: Medallion, Data Vault), - potrafisz rozmawiać z biznesem i przekładania wymagań na struktury danych, - samodzielnie docierasz do źródeł informacji i właścicieli procesów, - znasz język angielski na poziomie B2+ (dokumentacja techniczna, praca ze źródłami anglojęzycznymi). Mile widziane: - znajomość narzędzi BI (Tableau, Looker lub Power BI), - doświadczenie z branży fintech/payments lub w pracy z danymi z produktów cyfrowych (logi, eventy, e-commerce), - doświadczenie z ekosystemem GCP, w tym BigQuery (partycjonowanie, klastrowanie, scheduled queries, optymalizacja kosztów), - certyfikat Google Cloud Platform lub pokrewny, - Python do transformacji i automatyzacji, - praktyczna znajomość dbt lub Dataform (budowa modeli, testy, praca z repozytorium Git), - narzędzia data quality (Dataplex, Great Expectations, Elementary) Nasz Techstack: GCP, BigQuery, MySQL, Elasticsearch, Google Dataform, Tableau, Looker, Kafka/Debezium, n8n Codzienne zadania: - Projektowanie i budowa datamartów w BigQuery, - zbieranie wymagań od biznesu i deweloperów, tłumaczenie ich na modele danych, - zapewnianie jakości danych - testy, walidacja, dokumentacja, - optymalizacja zapytań w BigQuery, - współpraca z Data Engineerem przy pozyskiwaniu nowych źródeł danych, - budowa raportów i dashboardów (Tableau, Looker), automatyzacja alertów na Slack, wsparcie self-service analytics.