Köszönjük, hogy elküldte érdeklődését! Csapatunk egyik tagja hamarosan felveszi Önnel a kapcsolatot.
Köszönjük, hogy elküldte foglalását! Csapatunk egyik tagja hamarosan felveszi Önnel a kapcsolatot.
Kurzusleírás
AI fenyelemelési veszélymodellezés bevezetése
* Mit teszi az AI rendszerek sebezhetővé?
* AI támadási felület vs hagyományos rendszerek
* Kulcs támadásvektorok: adat, modell, kimenet és interfészképes rétegek
Adversarial támadások AI modellek ellen
* Adversarial példák és perturbáció technikák megértése
* White-box vs black-box támadások
* FGSM, PGD és DeepFool módszerek
* Adversarial minták vizualizálása és készítése
Modell inverzió és privát adatok kiszivárgása
* Edzőadatok levezetése modellkimenetből
* Tagsági inferencia támadások
* Klasszikus és generatív modellek privát adatok kockázatai
Adatmérgezés és háttörés-beültetés
* Milyen hatással van a mérgezett adat a modell viselkedésére
* Trigger alapú háttörések és trójai támadások
* Érzékelési és tisztítási stratégiák
Tartósság és védelmi technikák
* Adversarial edzés és adatbővítés
* Gradientszűrők és bemeneti előfeldolgozás
* Modell simítás és szabályozási technikák
Privát adatok megóvó AI védelmek
* Differenciális privát adatok bevezetése
* Zajbefecskendezés és privát adatok költségvetése
* Szövetségi tanulás és biztonságos összegezés
AI Security gyakorlatban
* Fenyelemelési tudatos modellértékelés és telepítés
* ART (Adversarial Robustness Toolbox) használata alkalmazott környezetekben
* Ipari esettanulmányok: valós eszközök és megoldások
Összegzés és következő lépések
Követelmények
- Gépesített tanulás munkafolyamatainak és modellképzésének megértése
- Python tapasztalat és közönséges ML keretrendszerek, mint PyTorch vagy TensorFlow
- Alapbiztonsági vagy fenyegetésmodellezési fogalmak ismerete előnyös
Célközönség
- Gépesített tanulás mérnökök
- Kiberbiztonsági analitikák
- AI kutatók és modell validációs csapatok
14 Órák