Kurzusleírás

AI fenyelemelési veszélymodellezés bevezetése * Mit teszi az AI rendszerek sebezhetővé? * AI támadási felület vs hagyományos rendszerek * Kulcs támadásvektorok: adat, modell, kimenet és interfészképes rétegek Adversarial támadások AI modellek ellen * Adversarial példák és perturbáció technikák megértése * White-box vs black-box támadások * FGSM, PGD és DeepFool módszerek * Adversarial minták vizualizálása és készítése Modell inverzió és privát adatok kiszivárgása * Edzőadatok levezetése modellkimenetből * Tagsági inferencia támadások * Klasszikus és generatív modellek privát adatok kockázatai Adatmérgezés és háttörés-beültetés * Milyen hatással van a mérgezett adat a modell viselkedésére * Trigger alapú háttörések és trójai támadások * Érzékelési és tisztítási stratégiák Tartósság és védelmi technikák * Adversarial edzés és adatbővítés * Gradientszűrők és bemeneti előfeldolgozás * Modell simítás és szabályozási technikák Privát adatok megóvó AI védelmek * Differenciális privát adatok bevezetése * Zajbefecskendezés és privát adatok költségvetése * Szövetségi tanulás és biztonságos összegezés AI Security gyakorlatban * Fenyelemelési tudatos modellértékelés és telepítés * ART (Adversarial Robustness Toolbox) használata alkalmazott környezetekben * Ipari esettanulmányok: valós eszközök és megoldások Összegzés és következő lépések

Követelmények

  • Gépesített tanulás munkafolyamatainak és modellképzésének megértése
  • Python tapasztalat és közönséges ML keretrendszerek, mint PyTorch vagy TensorFlow
  • Alapbiztonsági vagy fenyegetésmodellezési fogalmak ismerete előnyös

Célközönség

  • Gépesített tanulás mérnökök
  • Kiberbiztonsági analitikák
  • AI kutatók és modell validációs csapatok
 14 Órák

Résztvevők száma


Ár résztvevőnként

Közelgő kurzusok

Rokon kategóriák