Kurzusleírás

Bevezetés a GPU-gyorsított konténerizációba

  • A GPU használatának megértése mélytanulási munkafolyamatokban
  • Hogyan támogatja a Docker a GPU-alapú munkaterheléseket
  • Kulcsfontosságú teljesítményszempontok

Az NVIDIA Container Toolkit telepítése és konfigurálása

  • Illesztőprogramok és CUDA kompatibilitás beállítása
  • GPU-hozzáférés ellenőrzése konténerekben
  • A futásidejű környezet konfigurálása

GPU-val ellátott Docker képek készítése

  • CUDA alapú képek használata
  • AI keretrendszerek csomagolása GPU-kész konténerekbe
  • Függőségek kezelése tanításhoz és következtetéshez

GPU-gyorsított AI munkaterhelések futtatása

  • Tanítási feladatok végrehajtása GPU-k használatával
  • Több GPU-val rendelkező munkaterhelések kezelése
  • GPU kihasználtság monitorozása

Teljesítmény és erőforrás-allokáció optimalizálása

  • GPU erőforrások korlátozása és izolálása
  • Memória, batch méretek és eszköz elhelyezés optimalizálása
  • Teljesítményhangolás és diagnosztika

Konténerizált következtetés és modell szolgáltatás

  • Következtetésre kész konténerek készítése
  • Nagy terhelésű munkaterhelések szolgáltatása GPU-kon
  • Modell futtatók és API-k integrálása

GPU munkaterhelések skálázása Dockerrel

  • Stratégiák elosztott GPU-alapú tanításhoz
  • Következtetési mikroszolgáltatások skálázása
  • Több konténerből álló AI rendszerek koordinálása

Biztonság és megbízhatóság GPU-val ellátott konténerekhez

  • Biztonságos GPU-hozzáférés biztosítása megosztott környezetekben
  • Konténerképek megerősítése
  • Frissítések, verziók és kompatibilitás kezelése

Összefoglalás és következő lépések

Követelmények

  • A mélytanulás alapjainak ismerete
  • Tapasztalat Pythonban és közös AI keretrendszerekben
  • Alapvető konténerizációs fogalmak ismerete

Közönség

  • Mélytanulási mérnökök
  • Kutatási és fejlesztési csapatok
  • AI modellképzők
 21 Órák

Résztvevők száma


Ár per résztvevő

Vélemények (5)

Közelgő kurzusok

Rokon kategóriák