Az Edge AI és az Beágyazott Intelligencia Védelme Képzés
Az Edge AI és az beágyazott intelligencia védelmének gyakorolása a gépi tanulási modellek és adatok védelmét jelenti korlátozott, gyakran fizikailag kitetett környezetekben, mint például a drónok, érzékelők, okos kamerák és önvezető rendszerek esetén.
Ez az interaktív, élő képzés (online vagy személmélyesen) középhaladó szintű mérnököknek és biztonsági szakembereknek szánt, akik szeretnék biztonságosítani az edge-en üzemeltetett AI modelleket veszéletek ellen, mint például a manipulálás, adatcsökkenés, ellenséges bemenetek és fizikai támadások.
A képzés végén a résztvevők képesek lesznek:
- Azonosítani és becsülni a biztonsági kockázatokat az edge AI üzembe helyezéseknél.
- Manipulálás elleni ellenőrizhetőséget és titkosított következtetési technikákat alkalmazni.
- Megrobbanthatatlan edge üzembe helyezett modelleket készíteni és biztonságos adattömegátviteli csatornákat biztosítani.
- Beágyazott és korlátozott rendszerekre vonatkozó fenyegetések elleni mitígálási stratégiákat implementálni.
Képzés formátuma
- Interaktív előadás és diskussion.
- Sok gyakorlat és tanulási lehetőség.
- Élő labor környezetben történő praktikumok.
Képzés személyre szabás lehetőségei
- A képzés személyre szabott változatának kérése érdekében lépjen kapcsolatba velünk a rendezéshez.
Kurzusleírás
Bevezetés az Edge AI és a beágyazott rendszerekbe
- Mi az Edge AI? Használati esetek és korlátozások
- Edge hardver platformok és szoftver veremek
- Biztonsági kihívások a beágyazott és decentralizált környezetekben
Fenyegetéskép az Edge AI számára
- Fizikai hozzáférés és manipulálás kockázatai
- Ellenséges példák és modell manipulációk
- Adatcsökkenés és modell invertálási fenyegetések
A modell védelme
- Modell megrobbanthatatlansága és kvantizálás stratégiái
- Vízjeles és ujjlenyomatozott modellök
- Védelmi distilláció és lehúzás
Titkosított következtetés és biztonságos futtatás
- Megbízható futási környezetek (TEEs) az AI-nak
- Biztonságos tartományok és konfidenciális számítás
- Titkosított következtetés homomorfa titkosítással vagy SMPC-vel
Manipuláció észlelése és eszköz szintű ellenőrzések
- Biztonságos indítás és firmware integritás-ellenőrzések
- Érzékelő ellenőrzése és anomália észlelése
- Távoli igazolás és eszköz egészségügyi figyelés
Edge-to-Cloud biztonságos integráció
- Biztonságos adattovábbítás és kulcskezelés
- Végpont-tól végpontig titkosítás és adatéletciklus védelme
- Cloud AI szimfoni az edge biztonsági korlátozásokkal
Legjobb gyakorlatok és kockázatmitigálási stratégia
- Fenyegetésképzés az edge AI rendszerek számára
- Biztonsági tervezési elvek a beágyazott intelligencia számára
- Incidenskezelés és firmware frissítések kezelése
Összegzés és következő lépések
Követelmények
- Beágyazott rendszerek vagy edge AI üzembe helyezési környezetek ismerete
- Tapasztalat Python és ML keretrendszerekkel (pl., TensorFlow Lite, PyTorch Mobile)
- Alapvető ismeretek a cybersecurity-ből vagy az IoT fenyegetési modellekből
Célközönség
- Beágyazott AI fejlesztők
- IoT biztonsági szakemberek
- Edge vagy korlátozott eszközökön üzembe helyezett ML modelleket fejlesztő mérnökök
A nyílt képzésekhez 5+ résztvevő szükséges.
Az Edge AI és az Beágyazott Intelligencia Védelme Képzés - Foglalás
Az Edge AI és az Beágyazott Intelligencia Védelme Képzés - Érdeklődés
Az Edge AI és az Beágyazott Intelligencia Védelme - Érdeklődjön a vezetői tanácsadásról!
Érdeklődjön a vezetői tanácsadásról!
Közelgő kurzusok
Rokon tanfolyam
ISACA Haladó Képesség az Mesterséges Intelligencia Biztonsági Vezetésben (AAISM)
21 ÓrákAz AAISM egy haladó keretrendszert képez, mely az mesterséges intelligencia rendszerek biztonsági kockázatainak kiértékelésére, vezetésére és kezelésére szolgál.
Ez a tanár által irányított élő képzés (online vagy helyszíni) haladó szintű szakembereknek készült, akik hatékony biztonsági ellenőrzéseket és vezetési gyakorlatokat szeretnék bevezetni az vállalati mesterséges intelligencia környezetekben.
A képzés végén a résztvevők felkészültek lesznek arra, hogy:
- Az ipar által elismert módszerekkel értékeljék ki az mesterséges intelligencia biztonsági kockázatait.
- Felelősségteljes mesterséges intelligencia üzembe helyezésére szolgáló vezetési modellt implementáljanak.
- Igazítsák a biztonsági irányelveket az organizáció céllal és a szabályozás várakozásaihoz.
- Növelessék a rugalmasságot és felelősségteljességet az mesterséges intelligencia meghajtott műveletek között.
Képzés formája
- Gazdagon részletesebb előadások, amelyeket szakértői elemzések támogatnak.
- Gyakorlati műhelyek és kiértékelés alapú tevékenységek.
- Alkalmazott gyakorlatok valós életbeli mesterséges intelligencia vezetés forgatókönyveivel.
Képzés személyre szabása lehetőségei
- Testreszabott képzés a vállalati mesterséges intelligencia stratégiájának igazításához, kérjük, lépjek kapcsolatba velünk a képzés testreszabásával kapcsolatban.
AI Governálás, Compliance, és Biztonság Vállalkozási Vezetők Száma
14 ÓrákEz az oktató által vezetett, élő (online vagy helyszíni) képzés a középszintű vállalati vezetőknek szól, akik meg akarják érteni, hogyan kell felelősen és az EU AI Aktus, GDPR, ISO/IEC 42001 és az USA-i elnöki rendelet az AI-ról szóló globális keretrendszerekhez megfelelően irányítani és biztosítani az AI rendszereket.
A képzés végén a résztvevők képesek lesznek:
- Megérteni az AI használatával kapcsolatos jogi, etikai és szabályozási kockázatokat az osztályokon belül.
- Megértetik és alkalmazzák a fő AI irányítási keretrendszereket (EU AI Aktus, NIST AI RMF, ISO/IEC 42001).
- Biztonsági, audit és felügyeleti politikákat állítanak be az AI bevezetéséhez a vállalaton belül.
- Beszerzési és használati irányelveket fejlesztenek harmadik fél és házon belüli AI rendszerek számára.
AI Risk Management és Biztonság a Közszférben
7 ÓrákAz Észlemes Mesterséges Intelligencia (AI) új műveleti kockázatokkal, kormányzati kihívásokkal és kiberbiztonsági kitételekkel jár az államigazgatási szervek és hivatali szervek számára.
Ez az oktatóvezetett, élő képzés (online vagy helyszínen) az államigazgatási IT- és kockázatkezelő szakembereket célozza meg, akiknek nincs jelentős előzetes AI- tapasztalatauk és akik szeretnék megérteni, hogyan értékelhetnek, figyelhetnek és biztosíthatnak AI-rendszereket egy kormány vagy szabályozó kontextusban.
Ez a képzés végén a résztvevők képesek lesznek:
- Értelmezni az AI-rendszerekkel kapcsolatos kulcsfontosságú kockázati fogalmakat, beleértve az elkésést, az előrejelzetlenséget és a modell eltérését.
- Alkalmazni AI-specifikus kormányzati és audit keretrendszereket, mint a NIST AI RMF és az ISO/IEC 42001.
- Felismerni az AI-modelleket és az adatszállító csöveket célzó kiberbiztonsági fenyegetéseket.
- Alapozni átdepartementális kockázatkezelési terveket és politikai harmonizációt az AI-bevezetéshez.
A képzés formátuma
- Interaktív előadás és az államigazgatási ügyfél esetek megvitatása.
- AI kormányzati keretrendszer gyakorlatok és politikamappa készítése.
- Szenáriobázisú fenyegetésmodellezés és kockázatértékelés.
A képzés testreszabási lehetőségei
- A testreszabott képzés megkérését erre a képzésre, kérjük, lépjen kapcsolatba velünk.
AI Trust, Risk, and Security Management (AI TRiSM) Bevezetése
21 ÓrákEz az oktatóvezetett, élő tanfolyam (online vagy helyszínen) a kezdőtől a középfokú IT szakembereket célozza meg, akik szeretnék megismerni és megvalósítani az AI TRiSM-t az organizaícójukban.
A tanfolyam befejezésekor a résztvevők képesek lesznek:
- Megragadni az AI bizalom, kockázat és biztonság kezelésének kulcsfontosságú fogalmait és jelentőségét.
- Az AI rendszerekkel kapcsolatos kockázatok azonosítására és csökkentésére.
- Az AI számára biztonsági legjobb gyakorlatok bevezetésére.
- Az AI szabályszerűsítésének és etikai szempontokának megértésére.
- Hatékony AI kormányzati és kezelési stratégiák kidolgozására.
Building Secure and Responsible LLM Applications
14 ÓrákEz a tanfolyamoktatói, élő képzés Magyarország (online vagy helyszínen) középszintű és előkelő szintű AI-fejlesztők, architektusok és termékmenedzserek számára szolgál, akik szeretnének azonosítani és csökkenteni az LLM-meghajtott alkalmazásokkal kapcsolatos kockázatokat, beleértve a prompt-becsapás, adatszivárgás és szűretlen kimenet problémáit, beépítve biztonsági ellenőrzéseket, mint például bemeneti validáció, emberi felügyelet és kimeneti korlátok.
Ez a képzés végére a résztvevők képesek lesznek:
- Értsék meg az LLM alapú rendszerek alapvető gyengeségeit.
- Alkalmazzák a biztonságos tervezési elveket az LLM alkalmazás architektúrában.
- Használjanak eszközöket, mint Guardrails AI és LangChain validálásra, szűrésekre és biztonságra.
- Beépítsenek technikákat, mint a sandboxing, red teaming és emberi felügyeleti áttekintés gyártási szintű folyamatokba.
Kiberbiztonság az AI-rendszerekben
14 ÓrákEz oktatóvezetett, élő (online vagy helyszíni) képzés célja, hogy a középszakmai szintű AI és kiberbiztonsági szakemberek megismerhessék és kezelhessék az AI-modellek és rendszerekre jellemző biztonsági hiányosságokat, különösen azok a szabályozott iparágakban, mint a pénzügyi szektor, az adattulajdonosi szabályozás és a tanácsadási szakma.
E képzés végére a résztvevők képesek lesznek:
- Megérteni az AI rendszereket célzó támadóak típusait és a védelmet őket ellen.
- Modelmegerősítési technikákat alkalmazni a gépitanulás folyamatainak biztonságának biztosítására.
- Biztonságot és integritást biztosítani a gépitanulás modelljeiben.
- Navigálni az AI-biztonságkal kapcsolatos szabályozási követelményeken.
Bevezetés az AI Security és Risk Management témákba
14 ÓrákEz oktatóvezetésű, élő tanfolyam online vagy helyszínen Magyarország célja, hogy a kezdő szintű IT-biztonsági, kockázatkezelési és megfelelési szakemberek megismerjék az alapvető AI-biztonsági fogalmakat, fenyegetési vektorokat és globális keretrendszereket, mint a NIST AI RMF és az ISO/IEC 42001.
A tanfolyam végén a résztvevők képesek lesznek:
- Megérteni az AI-rendszerek által bevezetett egyedi biztonsági kockázatokat.
- Az ellenfelei támadások, adatmérgezés és modellfordítás fenyegetési vektorokat azonosítják.
- Alapvető kormányzati modelleket alkalmaznak, mint a NIST AI Risk Management Framework.
- Az AI használatát összehangolják az újabban kialakult szabványokkal, megfelelési irányelvekkel és etikai elvekkel.
OWASP GenAI Security
14 ÓrákA legfrissebb OWASP GenAI Security Project iránymutatása alapján a résztvevők megtanulják az AI-szpecifikus fenyegetések azonosítását, értékelését és csökkentését gyakorlati feladatokon és valós helyzetekben.
Adatvédelmi megőrzés Machine Learning
14 ÓrákEz az oktatóvezetett, élő (online vagy helyszíni) képzés az olyan, haladó szintű szakembereknek szánva, akik szeretnék megvalósítani és kiértékelni olyan technikákat, mint a federált tanulás, biztonságos többpárti számítás, homomorf kriptográfia és differenciális bizalmaság valós világbeli gépi tanulási folyamatokban.
A képzés végén a résztvevők képesek lesznek:
- Értenek és összehasonlítják az ML-ben használt kulcsfontosságú bizalmaságvédelmi technikákat.
- Megvalósítanak federált tanulási rendszereket nyílt forráskódú keretek segítségével.
- Alkalmaznak differenciális bizalmaságot biztonságos adatmegosztáshoz és modellképzéshez.
- Használnak kriptográfiai és biztonságos számítási technikákat a modellbevitel és -kimenet védelméhez.
Red Teaming AI Systems: Offensive Security for ML Models
14 ÓrákEz oktatóvezetett, élő képzés (online vagy helyszínen) az előrehaladott szintű biztonsági szakembereknek és ML-szakértőknek szól, akik az AI-rendszerek támadásainak szimulálására, sebezhetőségek feltárására és a telepített AI-modellek robustusságának növelésére szeretnének készülni.
Ez a képzés végére a résztvevők képesek lesznek:
- Valós világbeli fenyegetéseket szimulálni a gépi tanulási modellekre.
- Ellenálló példákat generálni a modell robustusságának teszteléséhez.
- Az AI API-k és folyamatok támadási felületét értékelni.
- Red teaming stratégiákat tervezni az AI telepítési környezetekhez.
AI Modellak védelme: fenyegetések, támadások és védő mechanizmusok
14 ÓrákEz az oktatási program (online vagy személyes) olyan középhaladó szintű gépi tanulási és cyberbiztonsági szakembereknek irányzott, akik meg szeretnék érteni és kezelni a kifertőző fenyegetéseket az AI modell ellen, konceptuális keretek és gyakorlati védő mechanizmusok, mint például a robusztus tanítás és a differenciális titoktartás használatával.
Az oktatás végeztével a résztvevők képesek lesznek:
- Azonosítani és osztályozni az AI-specifikus fenyegetéseket, mint például az ellenálló támadásokat, inverziót és fertőzést.
- Eszközöket használni, mint például az Adversarial Robustness Toolbox (ART) a támadások szimulálásához és a modell teszteléséhez.
- Alkalmazni gyakorlati védő mechanizmusokat, mint az ellenálló tanítást, zajbeavatkozást és titoktartás-megőrző technikákat.
- Fenyegetésérzékeny modellértékelési stratégiákat tervezni a gyakorlati környezetben.
Biztonság és adatvédelem a TinyML alkalmazásokban
21 ÓrákA TinyML egy olyan megközelítés, amely gépi tanulási modellt helyiíti át alacsony fogyasztású, erőforrás-szoros eszközökön, melyek az adathálózat peremén működnek.
Ez a tanárvezetett élő képzés (online vagy személyes) a haladó szintű szakembereknek szól, akik biztonságosan szeretnék felállítani TinyML folyamatokat és adatvédelmi technikákat szeretnék alkalmazni az edge AI alkalmazásokban.
A képzés végére a résztvevők képesek lesznek:
- Az eszközön belüli TinyML következtetés biztonsági kockázatait azonosítani.
- Adatvédelmi mechanizmusokat valósítani a határérték AI üzemeltesésekben.
- A TinyML modellt és beágyazott rendszereket védni az ellenálló fenyegetések ellen.
- Legjobb gyakorlatokat alkalmazni a biztonságos adatkezeléshez korlátozott környezetben.
Képzés formája
- Érdeklődésből származó előadások, amelyeket szakértő vezet.
- Gyakorlati gyakorlatok a valóságos fenyegetésszénak megalkotása érdekében.
- Kézi implementáció beágyazott biztonsági és TinyML eszközökkel.
Képzés testreszabási opciói
- A szervezetek egy rendszerezett változatot kérhetnek a képzésből, hogy megfeleljenek a biztonságos és megfelelős igényeiknek.
Biztonságos és megbízható agens alapú mesterséges intelligencia: kormányzás, azonosságkezelés és ellenőrző csoport tesztelés
21 ÓrákEz a kurzus a kormányzás, az azonosságkezelés és az ellenőrző csoport (red-teaming) tesztelést tartalmazza agens alapú mesterséges intelligencia rendszerek esetén, összpontosítva vállalati biztonsági üzembe helyezési minták és gyakorlati ellenőrző csoport technikák felhasználásán.
Ez a tanár vezetett, élő képzés (online vagy helyszínen) a haladó szintű gyakornokokra irányul, akik szeretnének tervezni, biztonságosan kezelni és értékelni az agens alapú mesterséges intelligencia rendszereket termelési környezetben.
A képzés végén a résztvevők képesek lesznek:
- Biztonságos agens alapú mesterséges intelligencia üzembe helyezésére vonatkozó kormányzási modelleket és szabályokat definiálni.
- Nem emberi azonosságkezelési és hitelesítési folyamatokat tervezni agensek esetében a minimális jogosultsággal rendelkező hozzáférés érdekében.
- Hozzáférés-ellenőrzéseket, naplózási nyomvonalakat és megfigyelhetőséget kifejleszteni önálló agensek számára.
- Tervezni és végrehajtani ellenőrző csoport gyakorlatokat a rosszindulatú használathoz, jogosultság emelkedéshez és adattamásztási kockázatokhoz vezető útvonalak felderítése érdekében.
- A leggyakoribb fenyegetések elleni védelemet szabályozás, mérnöki ellenőrzések és figyelés segítségével megerősíteni.
Kurzus formátuma
- Interaktív előadások és fenyegetésmódszer-modellezési munkafélék.
- Gyakorlóterek: azonosságkiállítás, szabályzat végrehajtása és ellenséges szimuláció.
- Ellenőrző csoport / kék-csoport gyakorlatok és kurzus végi értékelés.
Kurzus testreszabási lehetőségek
- Testreszabott képzés kéréséhez lépjen kapcsolatba velünk a rendezés érdekében.