Kurzusleírás

A gépi tanulási modelliek üzembe helyezésének előkészítése

  • Modelliek csomagolása Dockerrel
  • Modelliek exportálása a TensorFlow-ból és PyTorchból
  • Verziókezelési és tárolási megfontolások

Gépi tanulási modelliek szolgáltatása Kubernetes-sen

  • Következtetési kiszolgálók áttekintése
  • TensorFlow Serving és TorchServe üzembe helyezése
  • Modell-végpontok beállítása

Következtetési optimalizálási technikák

  • Tömeges feldolgozás stratégiák
  • Egyszerre érkező kérések kezelése
  • Késleltetés és átviteli sebesség finomhangolása

Gépi tanulási terheléselemzések automatikus méretezése

  • Horizontális Pod Autoscaler (HPA)
  • Vertikális Pod Autoscaler (VPA)
  • Kubernetes Event-Driven Autoscaling (KEDA)

GPU biztosítása és erőforrás-kezelés

  • GPU csomópontok konfigurálása
  • NVIDIA eszköz-plugin áttekintése
  • Erőforrás-kérelmek és határok a gépi tanulási terheléselemzésekhez

Gépi tanulási modell-beviteli stratégiák implementálása

  • Blue/green üzembe helyezések
  • Canary beviteli mintázatok
  • A/B tesztelés a modell-értékeléshez

A gépi tanulás éles környezetben történő figyelése és megfigyelhetőségének biztosítása

  • Következtetési terheléselemzések metrikái
  • Naplózás és nyomkövetés gyakorlatok
  • Ikonpultok és riasztások

Biztonsági és megbízhatósági szempontok

  • Modell-végpontok biztonságossá tételének biztosítása
  • Hálózati házirendek és hozzáférés-vezérlés
  • Magas rendelkezésre állás biztosítása

Összefoglalás és a következő lépések

Követelmények

  • Konténerezett alkalmazás-munkafolyamatok ismerete
  • Python-alapú gépi tanulási modelliek gyakorlata
  • Kubernetes alapjainak ismerete

Célcsoport

  • Gépi tanulási mérnökök
  • DevOps mérnökök
  • Platform mérnöki csapatok
 14 Órák

Résztvevők száma


Ár per résztvevő

Vélemények (5)

Közelgő kurzusok

Rokon kategóriák