Kurzusleírás

Bevezetés az AI fenyegetésmodellezésbe

  • Mi teszi az AI rendszereket sebezhetővé?
  • AI támadási felület vs hagyományos rendszerek
  • Kulcsfontosságú támadási vektorok: adat, modell, kimenet és interfész rétegek

Ellenséges támadások AI modelleken

  • Az ellenséges példák és perturbációs technikák megértése
  • Fehér doboz vs fekete doboz támadások
  • FGSM, PGD és DeepFool módszerek
  • Ellenséges minták vizualizálása és készítése

Modell inverzió és adatvédelmi szivárgás

  • Tanítási adatok kikövetkeztetése a modell kimenetéből
  • Tagsági következtetési támadások
  • Adatvédelmi kockázatok osztályozási és generatív modellekben

Adatmérgezés és hátsó ajtós támadások

  • Hogyan befolyásolja a megmérgezett adat a modell viselkedését?
  • Eseményindító alapú hátsó ajtók és Trójai támadások
  • Észlelési és tisztítási stratégiák

Robusztusság és védekezési technikák

  • Ellenséges tanítás és adatbővítés
  • Gradiens maszkolás és bemeneti előfeldolgozás
  • Modellsimítás és regularizációs technikák

Adatvédelmi AI védekezési módszerek

  • Bevezetés a differenciális adatvédelembe
  • Zajbefecskendezés és adatvédelmi keretek
  • Federált tanulás és biztonságos aggregáció

AI biztonság a gyakorlatban

  • Fenyegetés-érzékeny modellértékelés és üzembe helyezés
  • Az ART (Adversarial Robustness Toolbox) használata gyakorlati környezetekben
  • Ipari esettanulmányok: valós világbeli incidensek és enyhítések

Összefoglalás és következő lépések

Követelmények

  • A gépi tanulási munkafolyamatok és modelltanítás ismerete
  • Tapasztalat Pythonban és gyakori ML keretrendszerekben, mint például PyTorch vagy TensorFlow
  • Alapvető biztonsági vagy fenyegetésmodellezési fogalmak ismerete hasznos lehet

Közönség

  • Gépi tanulási mérnökök
  • Kiberbiztonsági elemzők
  • AI kutatók és modellvalidációs csapatok
 14 Órák

Résztvevők száma


Ár per résztvevő

Vélemények (1)

Közelgő kurzusok

Rokon kategóriák