Kurzusleírás

Bevezetés az AI inferencia a Dockerrel

  • Az AI inferencia munkaterhelések ismerete
  • A kontenerizált inferencia előnyei
  • Telepítési forgatókönyvek és korlátozások

AI inferencia kontenerök építése

  • Alaplemezek és keretrendszerek kiválasztása
  • Előre tanított modell csomagolása
  • Az inferencia kód strukturálása kontener futtatásához

Kontenerizált AI szolgáltatások biztonságossá tételének módja

  • A kontener támadási felület csökkentése
  • Titkos adatok és érzékeny fájlok kezelése
  • Biztonságos hálózati és API elérési stratégiák

Hordozható üzemeltetési technikák

  • A kontenerek hordozhatóságának optimalizálása
  • Megfelelő futási környezetek biztosítása
  • Platformok közötti függőségek kezelése

Helyi üzemeltetés és tesztelés

  • Szolgáltatások helyi futtatása a Dockerrel
  • Inferencia kontenerök hibakeresése
  • Teljesítmény és megbízhatóság tesztelése

Szerverek és felhő VM-kön való üzemeltetés

  • Kontenerek alkalmazása távoli környezetekben
  • Biztonságos szerverhoz való hozzáférés konfigurálása
  • AI inferencia API-k üzemeltetése felhő VM-kön

Docker Compose használata több szolgáltatásos AI rendszerekhez

  • Inferencia és támogató komponensek orkestrálása
  • Környezeti változók és konfigurációk kezelése
  • Mikroszolgáltatások skálázása a Compose segítségével

AI inferencia szolgáltatások figyelése és karbantartása

  • Naplózás és megfigyelési lehetőségek
  • Hibaérzékelés az inferencia folyamatokban
  • Modell frissítése és verziókezelése a termelésben

Összefoglalás és következő lépések

Követelmények

  • Alapvető gépi tanulás alapok ismerete
  • Python vagy háttérfejlesztés tapasztalata
  • Kontenerizációs alapfogalmak ismerete

Célcsoport

  • Fejlesztők
  • Háttérfejlesztők
  • AI szolgáltatások üzemeltetéséért felelős csapatok
 14 Órák

Résztvevők száma


Ár résztvevőnként

Vélemények (5)

Közelgő kurzusok

Rokon kategóriák