Kurzusleírás

Bevezetés az AI vöröscsapatokba

  • Az AI fenyegetési környezet megértése
  • A vörös csapatok szerepe az AI biztonságban
  • Etikai és jogi szempontok

Ellenőrző Machine Learning

  • Támadás típusok: elkerülés, mérgezés, kivonás, következtetés
  • Ellenőrző példák generálása (pl. FGSM, PGD)
  • Célzott vs. nem célzott támadások és sikeres méretek

Modell robusztusságának tesztelése

  • Robusztusság értékelése zavarások alatt
  • Modell vakpontok és hibamódok feltárása
  • Osztályozás, látó- és NLP-modellek stressztesztelése

AI pipelinék vöröscsapatos vizsgálata

  • AI pipelinék támadási felülete: adatok, modell, telepítés
  • Biztonságos modell API-k és végpontok kihasználása
  • Modell viselkedésének és kimeneteinek visszafejtése

Szimuláció és eszközök

  • Az Adversarial Robustness Toolbox (ART) használata
  • Vöröscsapatos vizsgálat TextAttack és IBM ART eszközökkel
  • Szandóckozási, figyelési és megfigyelési eszközök

AI vöröscsapatos stratégia és védelem Collaboration

  • Vöröscsapatos gyakorlatok és célok kidolgozása
  • Találatok közlése a kék csapatokkal
  • Vöröscsapatos vizsgálat integrálása az AI kockázatkezelésbe

Összefoglalás és következő lépések

Követelmények

  • A gépetanulás és mélytanulási architektúrák megértése
  • Tapasztalat Python-val és ML keretrendszerekkel (pl. TensorFlow, PyTorch)
  • Ismeret a kiberbiztonsági fogalmakkal vagy támadó biztonsági technikákkal

Célközönség

  • Biztonsági kutatók
  • Támadó biztonsági csapatok
  • AI biztosítási és vörös csapat profik
 14 Órák

Résztvevők száma


Ár résztvevőnként

Közelgő kurzusok

Rokon kategóriák