Köszönjük, hogy elküldte érdeklődését! Csapatunk egyik tagja hamarosan felveszi Önnel a kapcsolatot.
Köszönjük, hogy elküldte foglalását! Csapatunk egyik tagja hamarosan felveszi Önnel a kapcsolatot.
Kurzusleírás
AI fenyelemelési veszélymodellezés bevezetése* Mit teszi az AI rendszerek sebezhetővé?* AI támadási felület vs hagyományos rendszerek* Kulcs támadásvektorok: adat, modell, kimenet és interfészképes rétegekAdversarial támadások AI modellek ellen* Adversarial példák és perturbáció technikák megértése* White-box vs black-box támadások* FGSM, PGD és DeepFool módszerek* Adversarial minták vizualizálása és készítéseModell inverzió és privát adatok kiszivárgása* Edzőadatok levezetése modellkimenetből* Tagsági inferencia támadások* Klasszikus és generatív modellek privát adatok kockázataiAdatmérgezés és háttörés-beültetés* Milyen hatással van a mérgezett adat a modell viselkedésére* Trigger alapú háttörések és trójai támadások* Érzékelési és tisztítási stratégiákTartósság és védelmi technikák* Adversarial edzés és adatbővítés* Gradientszűrők és bemeneti előfeldolgozás* Modell simítás és szabályozási technikákPrivát adatok megóvó AI védelmek* Differenciális privát adatok bevezetése* Zajbefecskendezés és privát adatok költségvetése* Szövetségi tanulás és biztonságos összegezésAI Security gyakorlatban* Fenyelemelési tudatos modellértékelés és telepítés* ART (Adversarial Robustness Toolbox) használata alkalmazott környezetekben* Ipari esettanulmányok: valós eszközök és megoldásokÖsszegzés és következő lépések
Követelmények
- Gépesített tanulás munkafolyamatainak és modellképzésének megértése
- Python tapasztalat és közönséges ML keretrendszerek, mint PyTorch vagy TensorFlow
- Alapbiztonsági vagy fenyegetésmodellezési fogalmak ismerete előnyös
Célközönség
- Gépesített tanulás mérnökök
- Kiberbiztonsági analitikák
- AI kutatók és modell validációs csapatok
14 Órák