Kurzusleírás

Bevezetés az AI fenyegetésmodellezésbe

  • Mi teszi az AI rendszereket sebezhetővé?
  • AI támadási felület vs hagyományos rendszerek
  • Kulcsfontosságú támadási vektorok: adatok, modell, kimenet és interfészképletek rétegei

Adversarial támadások AI modellre

  • Ellenséges példák és zavarás technikák megértése
  • Fehér doboz vs fekete doboz támadások
  • FGSM, PGD és DeepFool módszerek
  • Ellenséges minták vizualizálása és készítése

Modellinverzió és adatszivárgás

  • Modellkimenet alapján tanítóadatok következtetése
  • Tagságinferencia támadások
  • Osztályozó és generatív modellben rejlő privátiszkik

Adatmérgezés és hátsó ajtók bevezetése

  • Mérgezett adatok hatása a modell viselkedésére
  • Kiváltó alapú hátsó ajtók és trójai támadások
  • Érzékenységi és szanitizálási stratégiák

Biztonság és védelmi technikák

  • Adversarial tréning és adatbővítés
  • Gradiensmaskolás és bemeneti előfeldolgozás
  • Modell simítása és reguláris technikák

Privátiszkat tartó AI védelmi mechanizmusok

  • Bevezetés a differenciális privátiszkba
  • Zaj bevezetése és privátiszkbudzset
  • Szövetségi tanulás és biztonságos agregálás

AI Security a gyakorlatban

  • Fenyegetés-tudatos modellértékelés és telepítés
  • ART (Adversarial Robustness Toolbox) használata gyakorlati környezetben
  • Ipari esettanulmányok: valós brechek és megoldások

Összegzés és következő lépések

Követelmények

  • A machine learning munkafolyamatok és modellkiképzés megértése
  • Tapasztalat a Python-mal és közönséges ML keretrendszerek, mint például PyTorch vagy TensorFlow használatával
  • Segítség a biztonsági vagy fenyegetésmodellezés alapfogalmaival

A közönség

  • Machine learning mérnökök
  • Cyberbiztonsági analitikák
  • AI kutatók és modellvalidációs csapatok
 14 Órák

Résztvevők száma


Ár résztvevőnként

Közelgő kurzusok

Rokon kategóriák