Köszönjük, hogy elküldte érdeklődését! Csapatunk egyik tagja hamarosan felveszi Önnel a kapcsolatot.
Köszönjük, hogy elküldte foglalását! Csapatunk egyik tagja hamarosan felveszi Önnel a kapcsolatot.
Kurzusleírás
Bevezetés az AI Red Teamingbe
- Az AI fenyegetési környezet megértése
- A red teamek szerepe az AI biztonságban
- Etikai és jogi megfontolások
Ellenséges gépi tanulás
- Támadások típusai: elkerülés, mérgezés, kivonás, következtetés
- Ellenséges példák generálása (pl. FGSM, PGD)
- Célzott és célzatlan támadások és sikerességi mutatók
Modell robusztusság tesztelése
- Robusztusság értékelése perturbációk mellett
- Modell vakfoltjainak és hibamódjainak feltárása
- Osztályozási, látási és NLP modellek stressztesztelése
AI folyamatok red teamingje
- AI folyamatok támadási felülete: adatok, modell, telepítés
- Biztonságtalan modell API-k és végpontok kihasználása
- Modell viselkedés és kimenetek visszafejtése
Szimuláció és eszközök
- Az Adversarial Robustness Toolbox (ART) használata
- Red teaming eszközökkel, mint a TextAttack és az IBM ART
- Sandboxing, monitorozás és megfigyelési eszközök
AI Red Team Stratégia és Védekezési Együttműködés
- Red team gyakorlatok és célok kidolgozása
- Eredmények kommunikálása a blue teamekkel
- Red teaming integrálása az AI kockázatkezelésbe
Összefoglalás és következő lépések
Követelmények
- A gépi tanulás és mélytanulási architektúrák ismerete
- Tapasztalat Pythonnal és ML keretrendszerekkel (pl. TensorFlow, PyTorch)
- Ismeretek a kiberbiztonsági fogalmakról vagy offenzív biztonsági technikákról
Célközönség
- Biztonsági kutatók
- Offenzív biztonsági csapatok
- AI biztosítási és red team szakemberek
14 Órák
Vélemények (1)
A szakmai ismeretek és az úgy, ahogyan ő bemutatta ezeket nekünk
Miroslav Nachev - PUBLIC COURSE
Kurzus - Cybersecurity in AI Systems
Gépi fordítás