Kurzusleírás

Bevezetés az AI Red Teamingbe

  • Az AI fenyegetési környezet megértése
  • A red teamek szerepe az AI biztonságban
  • Etikai és jogi megfontolások

Ellenséges gépi tanulás

  • Támadások típusai: elkerülés, mérgezés, kivonás, következtetés
  • Ellenséges példák generálása (pl. FGSM, PGD)
  • Célzott és célzatlan támadások és sikerességi mutatók

Modell robusztusság tesztelése

  • Robusztusság értékelése perturbációk mellett
  • Modell vakfoltjainak és hibamódjainak feltárása
  • Osztályozási, látási és NLP modellek stressztesztelése

AI folyamatok red teamingje

  • AI folyamatok támadási felülete: adatok, modell, telepítés
  • Biztonságtalan modell API-k és végpontok kihasználása
  • Modell viselkedés és kimenetek visszafejtése

Szimuláció és eszközök

  • Az Adversarial Robustness Toolbox (ART) használata
  • Red teaming eszközökkel, mint a TextAttack és az IBM ART
  • Sandboxing, monitorozás és megfigyelési eszközök

AI Red Team Stratégia és Védekezési Együttműködés

  • Red team gyakorlatok és célok kidolgozása
  • Eredmények kommunikálása a blue teamekkel
  • Red teaming integrálása az AI kockázatkezelésbe

Összefoglalás és következő lépések

Követelmények

  • A gépi tanulás és mélytanulási architektúrák ismerete
  • Tapasztalat Pythonnal és ML keretrendszerekkel (pl. TensorFlow, PyTorch)
  • Ismeretek a kiberbiztonsági fogalmakról vagy offenzív biztonsági technikákról

Célközönség

  • Biztonsági kutatók
  • Offenzív biztonsági csapatok
  • AI biztosítási és red team szakemberek
 14 Órák

Résztvevők száma


Ár per résztvevő

Vélemények (1)

Közelgő kurzusok

Rokon kategóriák