Kurzusleírás

AI fenyelemelési veszélymodellezés bevezetése* Mit teszi az AI rendszerek sebezhetővé?* AI támadási felület vs hagyományos rendszerek* Kulcs támadásvektorok: adat, modell, kimenet és interfészképes rétegekAdversarial támadások AI modellek ellen* Adversarial példák és perturbáció technikák megértése* White-box vs black-box támadások* FGSM, PGD és DeepFool módszerek* Adversarial minták vizualizálása és készítéseModell inverzió és privát adatok kiszivárgása* Edzőadatok levezetése modellkimenetből* Tagsági inferencia támadások* Klasszikus és generatív modellek privát adatok kockázataiAdatmérgezés és háttörés-beültetés* Milyen hatással van a mérgezett adat a modell viselkedésére* Trigger alapú háttörések és trójai támadások* Érzékelési és tisztítási stratégiákTartósság és védelmi technikák* Adversarial edzés és adatbővítés* Gradientszűrők és bemeneti előfeldolgozás* Modell simítás és szabályozási technikákPrivát adatok megóvó AI védelmek* Differenciális privát adatok bevezetése* Zajbefecskendezés és privát adatok költségvetése* Szövetségi tanulás és biztonságos összegezésAI Security gyakorlatban* Fenyelemelési tudatos modellértékelés és telepítés* ART (Adversarial Robustness Toolbox) használata alkalmazott környezetekben* Ipari esettanulmányok: valós eszközök és megoldásokÖsszegzés és következő lépések

Követelmények

  • Gépesített tanulás munkafolyamatainak és modellképzésének megértése
  • Python tapasztalat és közönséges ML keretrendszerek, mint PyTorch vagy TensorFlow
  • Alapbiztonsági vagy fenyegetésmodellezési fogalmak ismerete előnyös

Célközönség

  • Gépesített tanulás mérnökök
  • Kiberbiztonsági analitikák
  • AI kutatók és modell validációs csapatok
 14 Órák

Résztvevők száma


Ár résztvevőnként

Közelgő kurzusok

Rokon kategóriák