Data Engineer

Data Engineer (Praca zdalna)

SCALO

Wrocław +1 więcej
160 - 160 PLN / godzina
B2B, PERMANENT
💼 B2B
PERMANENT
📊 Data Lake
🐍 Python
📊 BigData
GCP BigQuery
PostgreSQL
Kafka
Linux
Apache Spark
🤖 GenAI
🤖 Airflow

Podsumowanie

Stanowisko: Data Engineer. Kluczowe obowiązki: projektowanie rozwiązań Data Lake, programowanie w Pythonie/Rust, analiza danych. Wymagania: doświadczenie w data lakes, znajomość GCP i baz danych. Forma pracy: hybrydowa.

Słowa kluczowe

Data LakePythonBigDataGCP BigQueryPostgreSQLKafkaLinuxApache SparkGenAIAirflow

Benefity

  • Stabilną współpracę
  • Możliwość rozwoju kompetencji jako Ambasador Scalo
  • Prywatną opiekę medyczną - Luxmed
  • Kafeteryjny system benefitów - Motivizer
  • Dostęp do karty Multisport
  • Program poleceń pracowniczych z nagrodami
  • Integracje i wydarzenia firmowe

Opis stanowiska

W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom. Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie. Cześć! U nas znajdziesz to, czego szukasz - przekonaj się!W Scalo czeka na Ciebie: Projektowanie i budowa rozwiązań klasy Data Lake i DWH, procesy zasilania online i offline, Tworzenie przepływów danych w Pythonie i Rust dla danych strukturalnych i niestrukturalnych, Analiza danych oraz przygotowywanie modeli logicznych i fizycznych, Strojenie zapytań SQL na bazach relacyjnych i hurtowniach danych (on-prem i GCP), Tworzenie datamartów tematycznych na bazach relacyjnych i kolumnowych, Projektowanie i implementacja rozwiązań zgodnie z wymaganiami biznesowymi, Usuwanie incydentów, wsparcie testów, wdrożeń i serwisowanie oprogramowania, Praca zgodnie z modelem DevSecOps. Praca hybrydowa (raz w tygodniu praca z Warszawy) Stawka: do 160 zł netto + VAT/H/B2B Ta oferta jest dla Ciebie, jeśli: Masz doświadczenie w budowaniu i projektowaniu rozwiązań Data Lake Programujesz w Pythonie i/lub Rust Znasz technologie wykorzystywane w architekturze sterowanej zdarzeniami (np. Kafka, Pub/Sub) Masz dobrą znajomość baz danych GCP BigQuery – projektowanie, budowa i tuning baz danych Znasz Oracle i PostgreSQL – projektowanie, budowa i tuning baz danych Dobrze poruszasz się w systemie Linux na poziomie zaawansowanego użytkownika   Mile widziane: Doświadczenie w tworzeniu rozwiązań Big Data wykorzystujących GenAI (przetwarzanie danych niestrukturalnych: transkrypcje audio, dokumenty tekstowe, obrazy) Znajomość narzędzi Automate Now, Airflow Praktyka w Apache Spark (GCP Dataproc) lub Apache Beam (GCP DataFlow) Doświadczenie z Informatica PowerCenter Co dla Ciebie mamy? Stabilną współpracę i różnorodne projekty (Software, Embedded, Data, Cloud Services),  możliwość rozwoju kompetencji jako Ambasador Scalo - doskonal skille techniczne i presalesowe w społeczności naszych ekspertów, wpływaj na rozwój organizacji, wspieraj innych, przestrzeń do budowania marki osobistej - twórz wartościowe treści, dziel się wiedzą i doświadczeniem, występuj jako prelegent na wydarzeniach (np. ProMeet), prywatną opiekę medyczną - Luxmed, kafeteryjny system benefitów - Motivizer,  dostęp do karty Multisport,  program poleceń pracowniczych z nagrodami, integracje i wydarzenia firmowe. GCP, Data Lake, Python, BigDataSeniordo160 PLN/h (B2B)HybrydowaZobacz jak do nas dołączyć:

Zaloguj się, aby zobaczyć pełny opis oferty

Wyświetlenia: 5
Opublikowana3 dni temu
Wygasaza 26 dni
Rodzaj umowyB2B, PERMANENT
Źródło
Logo

Podobne oferty, które mogą Cię zainteresować

Na podstawie "Data Engineer"

Nie znaleziono ofert, spróbuj zmienić kryteria wyszukiwania.