Kurzusleírás

A kínai AI GPU ökoszisztéma áttekintése

  • A Huawei Ascend, Biren, Cambricon MLU összehasonlítása
  • CUDA vs CANN, Biren SDK és BANGPy modellek
  • Ipari trendek és szállítói ökoszisztémák

Felkészülés a migrációra

  • A CUDA kód alapjainak felmérése
  • Célplatformok és SDK verziók azonosítása
  • Eszközlánc telepítése és környezet beállítása

Kódfordítási technikák

  • CUDA memória hozzáférés és kernel logika migrálása
  • Számítási rács/szál modellek leképezése
  • Automatizált vs manuális fordítási lehetőségek

Platformspecifikus implementációk

  • Huawei CANN operátorok és egyedi kernel használata
  • Biren SDK konverziós folyamat
  • Modellek újraépítése BANGPy-vel (Cambricon)

Keresztplatformos tesztelés és optimalizálás

  • Végrehajtás profilozása minden célplatformon
  • Memória finomhangolás és párhuzamos végrehajtás összehasonlítása
  • Teljesítmény nyomon követése és iteráció

Vegyes GPU környezetek kezelése

  • Hibrid üzembe helyezések több architektúrával
  • Visszaesési stratégiák és eszköz észlelés
  • Absztrakciós rétegek a kód karbantarthatósága érdekében

Esettanulmányok és ajánlott eljárások

  • Látási/NLP modellek migrálása Ascendre vagy Cambriconra
  • Inference folyamatok felújítása Biren klasztereken
  • Verzió eltérések és API hiányok kezelése

Összefoglalás és következő lépések

Követelmények

  • Tapasztalat CUDA vagy GPU-alapú alkalmazások programozásában
  • GPU memória modellek és számítási magok ismerete
  • Ismeret az AI modellek üzembe helyezéséről vagy gyorsítási munkafolyamatokról

Célközönség

  • GPU programozók
  • Rendszerarchitekták
  • Migrálási szakemberek
 21 Órák

Résztvevők száma


Ár per résztvevő

Közelgő kurzusok

Rokon kategóriák