Kurzusleírás

Bevezetés az AI fenyegetések modellezésébe

  • Mi teszi az AI rendszereket kihasználhatóvá?
  • Az AI támadási felülete vs. a hagyományos rendszerek
  • Kulcsfontosságú támadási vektorok: adat, modell, kimenet és interfész rétegek

Ellenálló támadások az AI modelleken

  • Az ellenálló példák és perturbációs technikák megértése
  • Nyílt- és zárt-látható támadások
  • FGSM, PGD és DeepFool módszerek
  • Ellenálló minták vizualizálása és készítése

Modellinverzió és titoktartás elvesztése

  • A tanítási adatok levezetése a modell kimenete alapján
  • Tagozati felismérési támadások
  • Titoktartási kockázatok a kategóriák és generatív modellekben

Adatfertőzés és háttérbeli beavatkozások

  • A fertőzött adat hatása a modell viselkedésére
  • Eszköztár alapú háttérbeli beavatkozások és trója-támadások
  • Észlelési és tisztítási stratégiák

Robusztusság és védelmi technikák

  • Ellenálló tanítás és adattöbbletteremtés
  • Gradiens maszkolás és bemeneti előfeldolgozás
  • Modell szórás és regularizálási technikák

Titoktartás-megőrző AI védelmi technikák

  • Bevezetés a differenciális titoktartásba
  • Zajbeavatkozás és titoktartási költségvetések
  • Federált tanulás és biztonságos összegzés

AI biztonság a gyakorlatban

  • Fenyegetésérzékeny modellértékelés és üzembe helyezés
  • Az ART (Adversarial Robustness Toolbox) alkalmazása a gyakorlatban
  • Ipari esettanulmányok: valós támadások és kezelések

Összefoglaló és következő lépések

Követelmények

  • Egyetértés a gépi tanulási folyamatakkal és modelltanításokkal.
  • Tapasztalat Pythonnal és népszerű ML keretrendszerekkel, mint például a PyTorch vagy TensorFlow.
  • Alapvető biztonsági vagy fenyegetésmodellezési konceptek ismerete hasznos.

Célcsoport

  • Gépi tanulási mérnökök
  • Cyberbiztonsági analitikusok
  • AI kutatók és modell ellenőrzési csapatok
 14 Órák

Résztvevők száma


Ár résztvevőnként

Közelgő kurzusok

Rokon kategóriák