Analityk Biznesowo-Systemowy
Link Group
⚲ Warszawa, Gdańsk, Łódź, Poznań, Wrocław
120 - 150 PLN/h netto (B2B)
Wymagania
- Google Cloud Platform
- ETL
- Scrum
- Kanban
- ELT
- API
- Confluence
- Jira
- Agile
- SQL
Opis stanowiska
Twoje zadania • Analizowanie procesów biznesowych oraz ich odwzorowanie w kontekście danych (use case’y, raportowanie, analityka, automatyzacja). • Zbieranie i definiowanie wymagań biznesowych, funkcjonalnych oraz niefunkcjonalnych (NFR), w tym dotyczących jakości i aktualności danych, a także SLA/SLO. • Projektowanie przepływów danych i integracji pomiędzy systemami źródłowymi, platformą danych oraz produktami danych i rozwiązaniami BI. • Specyfikowanie interfejsów integracyjnych: API (REST/JSON), komunikacji zdarzeniowej, wymiany plików, harmonogramów, walidacji danych, obsługi błędów i idempotencji. • Tworzenie dokumentacji analitycznej: BPMN/UML, user stories, kryteria akceptacji, modele danych (logiczne i fizyczne), słowniki danych oraz mapowania. • Ścisła współpraca z zespołami Data Engineering, BI, Data Governance, architektami oraz właścicielami produktów. • Wsparcie testów UAT i integracyjnych poprzez przygotowanie scenariuszy, danych testowych i kryteriów akceptacji. • Udział w rozwijaniu standardów analitycznych i integracyjnych (szablony, checklisty, Definition of Ready/Done). Wymagania (must-have) • Minimum 3 lata doświadczenia w roli analityka biznesowo-systemowego, najlepiej w obszarze danych lub integracji. • Bardzo dobra znajomość SQL (analizy, joiny, agregacje, kontrola jakości danych). • Rozumienie baz danych i struktur danych (modele relacyjne, klucze, normalizacja, partycjonowanie). • Doświadczenie w integracjach systemowych: API, ETL/ELT, wymiana plików, komunikacja zdarzeniowa. • Umiejętność tworzenia przejrzystej dokumentacji i specyfikacji (wymagania, mapowania, kontrakty integracyjne). • Doświadczenie w pracy w metodykach Agile (Scrum/Kanban) oraz z narzędziami Jira i Confluence. Mile widziane • Praktyka w pracy z GCP (BigQuery, Dataplex, Cloud Storage, Pub/Sub, Dataflow, Composer). • Znajomość narzędzi do modelowania i dokumentacji (np. Enterprise Architect, Draw.io, Miro) oraz standardów dokumentowania API (OpenAPI/Swagger). • Wiedza z obszaru Data Governance i Data Quality (metryki, reguły jakości, lineage, katalog danych). • Podstawowa znajomość Python/Java/JavaScript umożliwiająca analizę kodu integracyjnego.