Senior Data Engineer/Architekt
Tech Stack / Keywords
Firma i stanowisko
Jesteśmy polską firmą konsultingową działającą na rynku IT/ICT od 2012 roku, z siedzibą w Gdyni i oddziałami w Warszawie, Danii i USA. Obecnie zatrudniamy ponad 500 Konsultantów, realizujących projekty w sektorach: bankowym, telekomunikacyjnym, finansowym, produkcyjnym, edukacyjnym, FMCG, organizacjach non profit oraz innych. Świadczymy usługi z zakresu outsourcingu oraz rekrutacji kadr IT, dopasowując umiejętności ekspertów do wymagań konkretnego projektu. Tworzymy centra kompetencyjne i budujemy od podstaw zespoły specjalistów odpowiedzialnych za realizację założeń projektowych Klienta. Pomagamy optymalizować procesy biznesowe w oparciu o dokładną analizę potrzeb firm i specyfikę branży. Nasz dynamiczny rozwój doceniono zarówno w Polsce, jak i na Świecie, co zaowocowało wyróżnieniami Financial Times FT1000 (2020-2025), Diamentów Miesięcznika Forbes (2020-2025) oraz szczególnie prestiżowym Europe’s Long-Term Growth Champions 2025.
Wymagania
- min 6 lat doświadczenia w obszarze Data Engineering
- bardzo dobra znajomość aspektów związanych z budową pipeline-ów zasilających ETL/ELT
- doświadczenie w budowaniu i projektowaniu rozwiązań Data Lake i DWH
- znajomość technologii wykorzystywanych w ramach architektury sterowanej zdarzeniami takich jak np. Kafka, Pub/Sub
- znajomość aspektów związanych z budową rozwiązań BigData wykorzystujących możliwości GenAI
- znajomość Google BigQuery
- znajomość Kubernetes (Google Kubernetes Engine i OpenShift)
- znajomość relacyjnych baz danych Oracle i PostgreSQL (projektowanie, budowa i tuning baz danych)
- znajomość Python i/lub Rust
- znajomość Apache AirFlow
Nice to have:
- znajomość koncepcji data mesh, baz wektorowych i grafowych
- znajomość Apache Spark - najlepiej GCP Data Proc, Apache Beam – najlepiej GCP DataFlow, AutomateNow, Informatica Power Center
Obowiązki
- budowa rozwiązań klasy Data Lake i DWH (procesy zasilania on-line i off-line)
- projektowanie modeli logicznych i fizycznych danych
- tuning zapytań SQL w środowiskach on-premise oraz w chmurze GCP
- tworzenie przepływów danych w Python i Rust (dane strukturalne i niestrukturalne)
- budowa tematycznych datamartów (relacyjne i kolumnowe)
- praca w modelu DevSecOps: serwisowanie oprogramowania, usuwanie incydentów i wsparcie testów
Oferta
- 23.5k–28.6k PLN netto/m (B2B)
- B2B - Elastyczne godziny pracy (100%)
- Praca zdalna: Możliwa częściowo
- Pakiet medyczny
- Pakiet sportowy
Inne informacje
Miejsce pracy: hybrydowo (Warszawa) - praca z biura min 1 raz w tygodniu lub raz na 2 tygodnie dla osób z dalszych lokalizacji
ITFS
185 aktywnych ofert