
H2B Group
Senior Data Engineer (GCP) – projektowanie, rozwój i utrzymanie pipeline’ów danych w GCP, praca z BigQuery, Cloud Functions, Airflow/Kubernetes, dbt, Airbyte, Terraform, Python (pandas) oraz monitorowanie w PagerDuty. Wymagania: kilka lat doświadczenia, biegłość w SQL/BigQuery, Airflow, Python, Terraform, komunikacja po angielsku, background check. Zdalna praca, elastyczne projekty, umowa B2B, rozwój technologiczny.
Kim jest H2B Group?Jesteśmy firmą konsultingową, która pomaga klientom w automatyzacji procesów biznesowych przy pomocy AI, a specjalistom IT rozwijać karierę w modelu B2B. Oferujemy projekty z branż takich jak fintech, medtech, edutech czy automatyka przemysłowa. Dzięki ścisłej współpracy wspieramy rozwój naszych klientów poprzez dostarczanie szybkich i mierzalnych efektów, jednocześnie zapewniając specjalistom IT możliwości rozwoju kariery i zdobywania cennego doświadczenia.Dlaczego warto z nami współpracować?✨ Elastyczność – Dobierasz projekty dopasowane do Twoich umiejętności i zainteresowań, z możliwością zmiany w ramach naszej firmy lub grupy Euvic.💡 Przejrzystość – Jasne zasady współpracy i pełna transparentność wynagrodzenia oraz warunków.🚀 Szybkość działania – Dzięki naszej efektywności szybko znajdziesz lub zmienisz projekt odpowiadający Twoim kompetencjom.🌟 Możliwość rozwoju – Praca przy innowacyjnych projektach i nowoczesnych technologiach, które realnie rozwijają Twoje umiejętności.Do projektu naszego klienta poszukujemy osoby na stanowisko Senior Data Engineera z GCP.Szczegóły projektu: Start: ASAP Czas trwania: 3 miesiące na start, z możliwością przedłużenia Lokalizacja pracownika: Europa Lokalizacja klienta: USA Wymagany Background Check Zakres obowiązków: Projektowanie, rozwój i utrzymanie pipeline’ów danych w chmurze GCP. Praca z BigQuery, Cloud Functions, Airflow (na Kubernetes) i Dbt w procesach ETL/ELT. Integracja danych z wykorzystaniem narzędzi typu Airbyte. Automatyzacja infrastruktury i zarządzanie konfiguracją przy użyciu Terraform. Analiza danych oraz tworzenie rozwiązań wspierających procesy biznesowe w Pythonie (m.in. pandas). Monitorowanie i utrzymanie jakości danych, w tym reagowanie na alerty w PagerDuty. Wymagania: Minimum kilka lat doświadczenia jako Data Engineer, w tym w projektach opartych na GCP. Biegłość w SQL oraz w pracy z BigQuery. Doświadczenie w orkiestracji zadań i harmonogramowaniu procesów w Airflow (preferowane w Kubernetes). Znajomość Dbt, Airbyte, Cloud Functions i narzędzi IaC (Terraform). Umiejętność programowania w Pythonie, w szczególności w pracy z danymi (pandas). Doświadczenie w monitorowaniu systemów i reagowaniu na alerty w PagerDuty. Dobra komunikacja w języku angielskim i gotowość do pracy z zespołem klienta w USA. Doświadczenie w projektach wymagających weryfikacji bezpieczeństwa danych (Background Check). Co oferujemy? Pracę zdalną – elastyczność, która pozwala pracować z każdego zakątka świata! Ciekawe projekty – dobierane zgodnie z Twoimi umiejętnościami i zainteresowaniami. Umowa B2B bez zapisu o wyłączności – współpracuj na swoich zasadach. Rozwój zawodowy – praca z najnowszymi technologiami i w zróżnicowanych środowiskach.
Zaloguj się, aby zobaczyć pełny opis oferty
| Opublikowana | 26 dni temu |
| Wygasa | za 4 dni |
| Rodzaj umowy | B2B |
| Źródło |
Nie znaleziono ofert, spróbuj zmienić kryteria wyszukiwania.