Zakres obowiązków:
- Wdrażanie modeli machine learning LLM do środowisk produkcyjnych,
- Monitorowanie działania modeli i ich wydajności w czasie rzeczywistym,
- Tworzenie i utrzymywanie pipeline'ów CI/CD,
- Konfiguracja i zarządzanie kontenerami Docker oraz klastrami Kubernetes,
- Ustawianie i rozwijanie monitoringu systemów przy użyciu narzędzi takich jak Prometheus, Thanos, Grafana,
- Implementacja testów A/B oraz integracja z service mesh (np. Istio),
- Praca z platformami do zarządzania modelami, takimi jak Kubeflow i OpenDataHub,
- Automatyzacja zadań za pomocą skryptów (np. Bash, Python),
- Rozwiązywanie problemów technicznych i optymalizacja działania systemów,
- Współpraca z zespołami Data Science, DevOps i inżynierii w celu zapewnienia stabilności wdrożeń.
Wymagania:
- Udokumentowane doświadczenie w wdrażaniu i monitorowaniu modeli machine learning w środowiskach produkcyjnych,
- Minimum 5 lat doświadczenia w pracy z Dockerem, Kubernetesem, Helm i pipeline'ami CI/CD,
- Co najmniej 5 lat pracy z narzędziami do monitorowania, takimi jak Prometheus, Thanos czy Grafana,
- Znajomość narzędzi do monitorowania modeli, takich jak Arize, *Evidently AI czy Alibi Detect,
- Doświadczenie w przeprowadzaniu testów A/B oraz pracy z oprogramowaniem typu service mesh (np. Istio),
- Biegłość w korzystaniu z platform takich jak Kubeflow czy OpenDataHub do wdrażania i zarządzania modelami,
- Bardzo dobra znajomość zagadnień związanych z monitorowaniem infrastruktury i najlepszymi praktykami w tym zakresie,
- Świetne umiejętności rozwiązywania problemów i diagnozowania złożonych zagadnień technicznych,
- Doświadczenie w pracy z platformami chmurowymi (AWS LUB Google Cloud Platform LUB Azure),
- Znajomość języków skryptowych i automatyzacji (np. Bash, Python).
- Znajomość j. angielskiego pozwalającą na swobodną komunikację zarówno w mowie jak i w piśmie
Proponujemy:
- płatny urlop
- Pracę w środowisku międzynarodowym - stały - całość pracy w środowisku anglojęzycznym