Kurzusleírás

AI-Specific Risk Értelmezése Go kormányzati környezetekben

  • Hogyan különbözik az AI-risk az hagyományos IT és adat-veszélyektől
  • Az AI-veszélyek kategóriái: technikai, műveleti, hírnévi és etikai
  • A nyilvános felelősség és a kormányzati risk-percepció

AI Risk Management keretek

  • NIST AI Risk Management keret (AI RMF)
  • ISO/IEC 42001:2023 — AI Management rendszer szabvány
  • Más szakmai és nemzetközi irányelvek (pl. OECD, UNESCO)

Biztonsági fenyegetések az AI-rendszerek ellen

  • Ellenséges bemenetek, adatmérgezés és modellfordítás
  • Érzékeny edzésadatok leleplezése
  • Ellátólánc és harmadrész modelveszélyek

Go kormányzás, ellenőrzés és ellenőrzési mechanizmusok

  • Ember a folyamatban és felelősségi mechanizmusok
  • Audithozott AI: dokumentáció, verziókezelés és értelmezhetőség
  • Belső ellenőrzések, felügyeleti szerepek és megfelelési pontok

Risk-értékelés és csökkentési tervezés

  • Risk-regiszterek létrehozása AI használati esetekhez
  • Együttműködés beszerezési, jogi és szolgáltatástervezési csapatokkal
  • Előzetes és utólagos telepítési értékelések végrehajtása

Incidens-kezelés és a közszféra ellenálló képessége

  • Reagálás AI-hoz kapcsolódó incidensekre és törésekre
  • Kommunikáció érintettek és a közösséggel
  • AI risk-pratikák beépítése a cyberbiztonsági irányelvekbe

Összegzés és következő lépések

Követelmények

  • Közreműködési tapasztalat IT üzemeltetés, kockázatkezelés, kiberbiztonság vagy megfelelés terén kormányintézményekben
  • Ismerős az szervezeti biztonsági gyakorlatokkal és digitális szolgáltatás-leadásokkal
  • Nem szükséges korábbi technikai ismeret AI-rendszerekkel kapcsolatban

Audience

  • Gokormány IT csapatok, akik digitális szolgáltatásokkal és rendszintegrációval foglalkoznak
  • Kiberbiztonsági és kockázati szakemberek közintézményekben
  • Közszektor audit, megfelelés és kormányzati személyzet
 7 Órák

Résztvevők száma


Ár résztvevőnként

Közelgő kurzusok

Rokon kategóriák