SkySnap to firma zajmująca się usługami w zakresie monitoringu infrastruktury (drogi, koleje, sieci energetyczne) na każdym etapie – od planowania poprzez budowę, aż po prace związane z jej utrzymaniem. Budujemy nowoczesne narzędzia analityczne oparte o dane geoprzestrzenne pozyskiwane z dronów, samolotów i satelitów oraz algorytmy ML/AI.
Obecnie rozwijamy geoportal, który integruje wizualizację danych przestrzennych, zautomatyzowane analizy oparte o algorytmy Machine Learningu oraz raportowanie. Szukamy DevOps Engineer’a, który dołączy do naszego zespołu i pomoże nam w realizacji ambitnych projektów.
Czym będziesz się zajmować?
Projektowaniem, wdrażaniem i rozwijaniem architektury systemowej portalu i komponentów AI w środowiskach rozproszonych (on-premise, chmurowych, hybrydowych).
Utrzymaniem i automatyzacją środowisk klientów opartych o Docker Compose i/lub Kubernetes.
Zarządzaniem konfiguracją i infrastrukturą jako kod (IaC), w tym utrzymaniem szablonów wdrożeniowych dopasowanych do różnych środowisk i profili klienta.
Obsługą serwerów fizycznych (bare-metal), w tym systemów Linux, konfiguracją sieci, storage’u, środowisk GPU i wirtualizacji.
Zapewnieniem bezpieczeństwa wdrożeniowego i infrastrukturalnego, w tym szyfrowania danych, kontroli dostępu, zarządzania sekretami i integracji z systemami uwierzytelniania.
Wspieraniem zespołów backendowych, frontendowych i AI w zakresie integracji komponentów, przygotowania środowisk i standaryzacji procesu wdrażania.
Współtworzeniem dokumentacji technicznej, diagramów architektury oraz dobrych praktyk wdrożeniowych.
Udziałem w analizach problemów technicznych i incydentów oraz proponowaniem rozwiązań poprawiających stabilność i bezpieczeństwo systemu.
Nasze oczekiwania
Umiejętność projektowania architektury rozproszonych systemów z uwzględnieniem skalowalności, wysokiej dostępności, zarządzania incydentami, bezpieczeństwa oraz wydajności.
Zaawansowana znajomość systemów operacyjnych opartych na Linuksie oraz narzędzi administracyjnych.
Umiejętność automatyzacji zadań operacyjnych i konfiguracyjnych z wykorzystaniem języków skryptowych (np. Bash, Python).
Doświadczenie w zarządzaniu infrastrukturą jako kod (np. Terraform).
Biegłość w administrowaniu i diagnozowaniu środowisk bare-metal oraz wirtualnych, w tym konfiguracji sieci (VLAN, bonding, routing, PXE), zarządzania kartami sieciowymi, rozwiązywania problemów systemowych i sprzętowych (np. dmesg, journalctl, SMART, memtest) oraz obsługi narzędzi diagnostycznych (np. tcpdump, iproute2, Wireshark, nmap).
Doświadczenie w instalacji i utrzymaniu środowisk wirtualizacji (np. KVM/QEMU, Proxmox).
Doświadczenie w tworzeniu, utrzymaniu i optymalizacji kontenerów aplikacyjnych (np. Docker, Podman, OCI).
Umiejętność definiowania i zarządzania środowiskami wielokontenerowymi (np. Docker Compose, Kubernetes) oraz znajomość narzędzi orkiestracji i zarządzania konfiguracją (np. Helm, Kustomize).
Znajomość zasad bezpieczeństwa systemów i kontenerów, w tym separacji uprawnień, tworzenia bezpiecznych obrazów i skanowania podatności.
Umiejętność zapewnienia szyfrowania komunikacji wewnętrznej i zewnętrznej (np. TLS, mTLS, VPN).
Umiejętność konfiguracji i utrzymania systemów monitoringu, alertowania i analizy wydajności (np. Prometheus, OpenTelemetry, Jaeger).
Znajomość pełnego cyklu życia modeli uczenia maszynowego – od trenowania, przez ewaluację, po wdrażanie, wersjonowanie i monitorowanie.
Doświadczenie w integracji modeli jako usług inferencyjnych (np. NVIDIA Triton), w tym konfiguracji środowisk z GPU (np. sterowniki NVIDIA, CUDA Toolkit) i monitorowaniu ich obciążenia oraz dostępności.
Doświadczenie w pracy z systemami MLOps (np. MLflow, Kubeflow).
Umiejętność efektywnej współpracy z zespołami backendowymi, frontendowymi, AI, QA, produktowymi i biznesowymi, także w środowiskach rozproszonych lub wielodyscyplinarnych.
Mile widziane
Doświadczenie w integrowaniu komponentów aplikacyjnych i infrastrukturalnych w środowiskach wielowarstwowych (on-premise, chmurowych i hybrydowych).
Zdolność planowania i dokumentowania architektury systemu (np. diagramy systemowe, przepływy danych, schematy sieciowe).
Umiejętność tworzenia i utrzymywania szablonów wdrożeniowych dostosowanych do różnych środowisk (np. staging, produkcja, środowiska klientów).
Doświadczenie w konfiguracji i zarządzaniu persistent storage i wolumenami (np. LVM, RAID, ZFS, CIFS, Ceph).
Znajomość koncepcji CI/CD oraz doświadczenie w budowaniu, automatyzacji i utrzymaniu pipeline’ów wdrożeniowych, z wykorzystaniem systemów wersjonowania kodu (np. Git) i narzędzi CI/CD (np. GitLab CI/CD), również w podejściu GitOps.
Doświadczenie w zarządzaniu poufnymi danymi i sekretami w środowiskach produkcyjnych.
Znajomość metod monitorowania działania modeli uczenia maszynowego i oceny jakości predykcji (np. analiza metryk modelu, monitorowanie zużycia GPU/CPU).
Umiejętność przekładania wymagań biznesowych na rozwiązania techniczne oraz prezentowania i argumentowania decyzji technicznych przed zespołem i interesariuszami.
Co oferujemy?
Pracę hybrydową – biuro zlokalizowane w Warszawie przy metrze Wilanowska.
Forma zatrudnienia - umowa o pracę lub umowa zlecenie.
Kartę Multisport oraz wsparcie w rozwoju zawodowym.
Realny wpływ na kierunek rozwoju aplikacji i technologii stosowanych w firmie.