Köszönjük, hogy elküldte érdeklődését! Csapatunk egyik tagja hamarosan felveszi Önnel a kapcsolatot.
Köszönjük, hogy elküldte foglalását! Csapatunk egyik tagja hamarosan felveszi Önnel a kapcsolatot.
Kurzusleírás
AI Red Teaming Bevezetése
- Az AI fenyegetési környezet megértése
- A vörös csapat szerepe az AI biztonságában
- Etikai és jogi szempontok
Adversarial Machine Learning
- Az támadások típusai: elkerülés, mérgezés, kivonás, következtetés
- Adversarial példák generálása (pl. FGSM, PGD)
- Célzott vs. nem célzott támadások és sikeres metrikák
A Modell Rugalmaságának Tesztelése
- A rugalmaság kiértékelése zavarások alatt
- A modell vakpontok és hibás működési módok kutatása
- Osztályozási, látási és NLP modell stressztesztelése
AI Pipelines Red Teaming
- AI pipelines támadásfelülete: adatok, modell, telepítés
- Biztonságtalan modell API-k és végpontok kihasználása
- A modell viselkedésének és kimeneteinek visszafejlesztése
Szimuláció és eszközök
- Az Adversarial Robustness Toolbox (ART) használata
- TextAttack és IBM ART eszközökkel történő red teaming
- Sandboxing, monitorozás és megfigyelés eszközök
AI Red Team Stratégia és Védelme Collaboration
- Vörös csapat gyakorlatok és célok kidolgozása
- A találmányok kommunikálása a kék csapatoknak
- A red teaming integrálása az AI kockázatkezelésbe
Összegzés és Következő Lépések
Követelmények
- Gépek tanulásának és mély tanulási architektúrák megértése
- Python és ML keretek tapasztalata (pl. TensorFlow, PyTorch)
- Ismeret a kibertanulmányok fogalmával vagy támadó biztonsági technikákkal
Audience
- Biztonsági kutatók
- Támadó biztonsági csapatok
- AI biztosítás és piros csapat szakemberek
14 Órák