Kurzusleírás

AI Red Teaming Bevezetése

  • Az AI fenyegetési környezet megértése
  • A vörös csapat szerepe az AI biztonságában
  • Etikai és jogi szempontok

Adversarial Machine Learning

  • Az támadások típusai: elkerülés, mérgezés, kivonás, következtetés
  • Adversarial példák generálása (pl. FGSM, PGD)
  • Célzott vs. nem célzott támadások és sikeres metrikák

A Modell Rugalmaságának Tesztelése

  • A rugalmaság kiértékelése zavarások alatt
  • A modell vakpontok és hibás működési módok kutatása
  • Osztályozási, látási és NLP modell stressztesztelése

AI Pipelines Red Teaming

  • AI pipelines támadásfelülete: adatok, modell, telepítés
  • Biztonságtalan modell API-k és végpontok kihasználása
  • A modell viselkedésének és kimeneteinek visszafejlesztése

Szimuláció és eszközök

  • Az Adversarial Robustness Toolbox (ART) használata
  • TextAttack és IBM ART eszközökkel történő red teaming
  • Sandboxing, monitorozás és megfigyelés eszközök

AI Red Team Stratégia és Védelme Collaboration

  • Vörös csapat gyakorlatok és célok kidolgozása
  • A találmányok kommunikálása a kék csapatoknak
  • A red teaming integrálása az AI kockázatkezelésbe

Összegzés és Következő Lépések

Követelmények

  • Gépek tanulásának és mély tanulási architektúrák megértése
  • Python és ML keretek tapasztalata (pl. TensorFlow, PyTorch)
  • Ismeret a kibertanulmányok fogalmával vagy támadó biztonsági technikákkal

Audience

  • Biztonsági kutatók
  • Támadó biztonsági csapatok
  • AI biztosítás és piros csapat szakemberek
 14 Órák

Résztvevők száma


Ár résztvevőnként

Közelgő kurzusok

Rokon kategóriák