Kurzusleírás

Gépi tanulási modellek felkészítése üzembe helyezésre

  • Modellek csomagolása Dockerrel
  • Modellek exportálása TensorFlow és PyTorch segítségével
  • Verziókezelés és tárolási szempontok

Modellek kiszolgálása Kubernetesen

  • A következtetési szerverek áttekintése
  • TensorFlow Serving és TorchServe üzembe helyezése
  • Modell végpontok beállítása

Következtetési optimalizációs technikák

  • Kötegelési stratégiák
  • Egyidejű kérések kezelése
  • Késleltetés és átviteli sebesség finomhangolása

ML munkaterhelések automatikus skálázása

  • Horizontális Pod Autoscaler (HPA)
  • Vertikális Pod Autoscaler (VPA)
  • Kubernetes Event-Driven Autoscaling (KEDA)

GPU kiépítés és erőforrás-kezelés

  • GPU csomópontok konfigurálása
  • NVIDIA eszköz bővítmény áttekintése
  • Erőforrás-kérelmek és korlátok ML munkaterhelésekhez

Modell bevezetési és kiadási stratégiák

  • Blue/green üzembe helyezés
  • Canary bevezetési minták
  • A/B tesztelés modellértékeléshez

Monitorozás és megfigyelhetőség ML-hez éles környezetben

  • Metrikák következtetési munkaterhelésekhez
  • Naplózási és nyomkövetési gyakorlatok
  • Irányítópultok és riasztások

Biztonsági és megbízhatósági szempontok

  • Modell végpontok biztonságossá tétele
  • Hálózati házirendek és hozzáférés-vezérlés
  • Magas rendelkezésre állás biztosítása

Összefoglalás és következő lépések

Követelmények

  • A konténerbe zárt alkalmazások munkafolyamatainak ismerete
  • Tapasztalat Python-alapú gépi tanulási modellek terén
  • Alapvető ismeretek a Kubernetesről

Közönség

  • ML mérnökök
  • DevOps mérnökök
  • Platformfejlesztő csapatok
 14 Órák

Résztvevők száma


Ár per résztvevő

Vélemények (5)

Közelgő kurzusok

Rokon kategóriák