Data Platform Engineer

Data Platform Engineer

Scalo

Praca zdalna

Lokalizacja
Wrocław
Rodzaj umowy
B2B
B2B
Apache Kafka
Apache Spark
data lakehouse
Python
PySpark
CI/CD
Nessie

Hexjobs Insights

Poszukujemy Data Platform Engineer do pracy w zdalnym zespole w Wrocławiu. Zakres: projektowanie pipeline’ów ETL, prace z architekturą data lakehouse oraz współpraca z zespołami DevOps.

Słowa kluczowe

Apache Kafka
Apache Spark
data lakehouse
Python
PySpark
CI/CD
Nessie

Benefity

  • prywatna opieka medyczna - Luxmed
  • kafeteryjny system benefitów - Motivizer
  • dostęp do karty Multisport
  • program poleceń pracowniczych z nagrodami
  • integracje i wydarzenia firmowe

W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom. Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie. Cześć! U nas znajdziesz to, czego szukasz - przekonaj się! W Scalo czeka na Ciebie:udział w międzynarodowym projekcie mającym na celu rozwój skalowalnej platformy Customer Data Platform (CDP) przetwarzającej setki milionów rekordów dziennie,projektowanie i rozwój pipeline’ów ETL opartych o Apache Kafka i Spark,budowa i utrzymanie architektury data lakehouse (Apache Iceberg, Nessie, MinIO),praca nad automatycznymi mechanizmami wdrożeń środowisk,implementacja rozwiązań multi-tenancy,ścisła współpraca z zespołami data, DevOps oraz zespołami biznesowymi,rozwój i utrzymanie CI/CD ze szczególnym naciskiem na versioning i branching w Nessie,praca z narzędziami: Metabase, FastAPI, Dremio,udział w długofalowym projekcie,praca w modelu zdalnym,stawka do 175 zł/h przy B2B.Ta oferta jest dla Ciebie, jeśli:posiadasz doświadczenie w projektowaniu i implementacji pipeline’ów danych opartych o Apache Kafka i Spark,masz solidne doświadczenie w pracy z architekturą data lakehouse (Apache Iceberg, Nessie, MinIO),pracujesz z procesami ETL dla dużych wolumenów danych (setki milionów rekordów dziennie),dobrze znasz Python i PySpark,masz praktyczne doświadczenie w budowie i utrzymaniu CI/CD,rozumiesz zagadnienia versioningu i branchingu danych (w szczególności Nessie),masz doświadczenie w automatyzacji wdrożeń w środowiskach zabezpieczonych (on-premise, firewalle),potrafisz diagnozować problemy związane z wydajnością, bezpieczeństwem i stabilnością systemów rozproszonych,cenisz współpracę zespołową i potrafisz działać w środowisku cross-funkcyjnym,swobodnie komunikujesz się w języku angielskim (min. B2+).Co dla Ciebie mamy:stabilną współpracę i różnorodne projekty (Software, Embedded, Data, Cloud Services), możliwość rozwoju kompetencji jako Ambasador Scalo - doskonal skille techniczne i presalesowe w społeczności naszych ekspertów, wpływaj na rozwój organizacji, wspieraj innych,przestrzeń do budowania marki osobistej - twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako prelegent na wydarzeniach (np. ProMeet),prywatną opiekę medyczną - Luxmed,kafeteryjny system benefitów - Motivizer, dostęp do karty Multisport, program poleceń pracowniczych z nagrodami,integracje i wydarzenia firmowe. Brzmi interesująco? Aplikuj – czekamy na Twoje CV!

Zaloguj się, aby zobaczyć pełne szczegóły

Utwórz darmowe konto, aby uzyskać dostęp do pełnego opisu oferty i zaaplikować.

Wyświetlenia: 36
Opublikowanadzień temu
Wygasaza 7 dni
Rodzaj umowyB2B
Źródło
Logo

Podobne oferty, które mogą Cię zainteresować

Na podstawie "Data Platform Engineer"

Nie znaleziono ofert, spróbuj zmienić kryteria wyszukiwania.