Znasz na zaawansowanym poziomie Pythona w kontekście programowania aplikacji i automatyzacji.
Masz doświadczenie z technologiami Big Data: Spark, Trino, HDFS, Apache Airflow.
Sprawnie pracujesz z Kubernetes, Helm i ArgoCD.
Cechuje Cię zainteresowanie i umiejętności w zakresie programowania aplikacji AI i machine learning, w tym wykorzystania bibliotek i frameworków do uczenia maszynowego.
Masz doświadczenie z bazami danych (Oracle, Postgres, Redis).
Posiadasz praktyczną znajomość narzędzi CI/CD, takich jak GitLab Actions, Tekton, Vault, Harbour.
Systemy uwierzytelniania i autoryzacji (AD, LDAP, Kerberos, ConnectID, OAuth) są Ci dobrze znane.
Doświadzenie w konfiguracji narzędzi open source jak JupyterHub, Apache Superset, MLFlow będzie dodatkowym atutem.
Twój zakres obowiązków
Tworzenie i rozwój aplikacji oraz skryptów automatyzujących procesy na platformie raportowo-analitycznej.
Utrzymanie i optymalizacja środowisk Big Data oraz potoków danych.
Współpraca przy konfiguracji oraz rozwoju narzędzi analitycznych i opartych na projektach open source.
Projektowanie i wdrażanie rozwiązań CI/CD wspierających szybkie i bezpieczne wdrożenia.
Zarządzanie infrastrukturą kontenerową oraz aplikacjami działającymi w Kubernetes.
Wsparcie przy implementacji i wdrażaniu projektów opartych o AI.
Integracja rozwiązań z systemami uwierzytelniania i autoryzacji.
Monitorowanie, diagnozowanie i rozwiązywanie problemów związanych z infrastrukturą i aplikacjami.