Regular Data Engineer GCP

Regular Data Engineer GCP (Praca zdalna)

P&P Solutions

Warszawa
115 - 130 PLN / godzina
B2B
💼 B2B
📊 Data Engineer
GCP
ETL
Kafka
Spark
Cloudera Hadoop
SQL
🐍 Python
Linux

Podsumowanie

Data Engineer (GCP) – remote (Warsaw) full‑time B2B. Build/maintain data pipelines, develop ETL, integrate Kafka, MQ, SFTP, APIs on GCP/Cloudera. 3+ yrs data analyst/quality experience, SQL, Python, Linux, GCP, Hadoop, Kafka/Spark, English B2. Benefits: private medical care, MyBenefit cafeteria (Multisport, prepaid cards), fast invoice payment.

Słowa kluczowe

Data EngineerGCPETLKafkaSparkCloudera HadoopSQLPythonLinuxB2B

Benefity

  • Bogaty pakiet prywatnej opieki medycznej
  • Dostęp do platformy kafeteryjnej MyBenefit (karty Multisport, przedpłacone do Ikea, Zalando, Notino i inne)
  • Przelew w dogodnej formie
  • 14‑dniowy termin płatności faktury

Opis stanowiska

Lokalizacja: zdalnie ze sporadycznymi wizytami w biurze w WarszawieWidełki: 115 - 130 PLN/h netto na b2bOpis klienta:Klient to jeden z czołowych operatorów telekomunikacyjnych w Polsce, oferujący usługi telefonii komórkowej, internetu i rozwiązań cyfrowych. Jako część międzynarodowej grupy firma koncentruje się na innowacjach, transformacji cyfrowej i rozwoju technologii, aby utrzymać przewagę konkurencyjną na rynku.Opis projektu:Projekt obejmuje migrację Hurtowni Danych z Oracle na Google Cloud Platform (GCP).Wymagania Doświadczenie w pracy z platformami chmurowymi i usługami GCP – MUST HAVE Minimum 3 lata doświadczenia jako Data Analyst lub Data Quality Analyst w organizacji data-driven Doświadczenie w zarządzaniu jakością danych i praktykach zarządzania danymi Zaawansowana znajomość SQL i PL/SQL Biegłość w Python Doświadczenie w Linux i Bash scripting Znajomość technologii Cloudera Hadoop stack (Apache Spark, Apache Kafka) Znajomość zasad przetwarzania danych, w tym procesów ETL i przetwarzania danych w czasie rzeczywistym Mile widziane: Doświadczenie z CI/CD i narzędziami automatyzacji Doświadczenie w Scala Znajomość zasad zarządzania danymi, w tym metadata management i frameworków jakości danych Doświadczenie w pracy z różnymi typami systemów źródłowych (Kafka, MQ, SFTP, bazy danych, API, file shares) Udział w projektach międzynarodowych lub wielokrajowych Umiejętność przekładania wyników technicznych na wnioski biznesowe Samodzielność, chęć ciągłego uczenia się i dbałość o szczegóły Biegła znajomość języka angielskiego (B2) Obowiązki Budowa i utrzymanie procesów pobierania danych z różnych źródeł do Data Lake Projektowanie, rozwój i optymalizacja złożonych potoków danych zapewniających niezawodny przepływ danych Tworzenie i utrzymanie frameworków ułatwiających budowę potoków danych Wdrażanie kompleksowych frameworków testowych dla potoków danych Współpraca z analitykami i naukowcami danych w celu zapewnienia wysokiej jakości danych Zapewnienie solidnych praktyk w zakresie zarządzania danymi, bezpieczeństwa i zgodności Badanie i wdrażanie nowych technologii w celu poprawy wydajności potoków danych Integracja danych z różnych systemów źródłowych, w tym Kafka, MQ, SFTP, bazy danych, API oraz udziały plików Technologie w projekcie: Apache Kafka, Apache Spark Cloudera Hadoop stack GCP (Google Cloud Platform) SQL / PL/SQL, Python, Scala (mile widziane) Linux, Bash, ETL SFTP, MQ, API, udziały plików Oferujemy Stawka do 130 zł/h netto na b2b Przelew w dogodnej formie  Krótki 14-dniowy termin płatności faktury Bogaty pakiet usług prywatnej opieki medycznej Dostęp do platformy kafeteryjnej MyBenefit (umożliwiającej zamawianie kart Multisport, kart przedpłaconych do Ikea, Zalando, Notino i wielu innych)

Zaloguj się, aby zobaczyć pełny opis oferty

Wyświetlenia: 7
Opublikowanaokoło 2 miesiące temu
Wygasaza około miesiąc
Rodzaj umowyB2B
Źródło
Logo

Podobne oferty, które mogą Cię zainteresować

Na podstawie "Regular Data Engineer GCP"

Nie znaleziono ofert, spróbuj zmienić kryteria wyszukiwania.