Adatvédelmi megőrzés Machine Learning Képzés
A Privacy-Preserving Machine Learning egy olyan terület, amely a személyes adatok védelmét célul tűzi ki, miközben lehetővé teszi az előrehaladott AI képességeket decentralizált vagy korlátozott környezetekben.
Ez az oktató által vezetett, élő (online vagy helyszíni) képzés azokat a haladó szintű szakembereket célozza, akik olyan technikákat szeretnének megvalósítani és kiértékelni, mint a federált tanulás, a biztonságos többpárti számítás, a homomorf titkosítás és a differenciális privatizáció valós világbeli gépi tanulás folyamatokban.
A képzés végére a résztvevők képesek lesznek:
- Megérteni és összehasonlítani a kulcsfontosságú privacy-preserving technikákat ML-ben.
- Federált tanulás rendszereket valósítsanak meg nyílt forráskódú keretek segítségével.
- Alkalmazzanak differenciális privatizációt a biztonságos adatmegosztáshoz és modellképzéshez.
- Titkosítást és biztonságos számítási technikákat használnak a modellbeviteli és -kimeneti védelemhez.
A képzés formája
- Interaktív előadás és viták.
- Sok gyakorlat és gyakorló feladat.
- Kézzel készített megvalósítás élő-labor környezetben.
A képzés egyéni igények szerinti módosítási lehetőségei
- A képzés egyéni igény szerinti módosítását kérek, vegye fel a kapcsolatot velünk, hogy megegyezzen.
Kurzusleírás
Adatvédelemmel rendelkező ML bevezetése
- Motivációk és kockázatok érzékeny adatkörnyezetekben
- Az adatvédelemmel rendelkező ML technikák áttekintése
- Fenyegetési modellek és szabályozási szempontok (pl. GDPR, HIPAA)
Federated Learning
- A federált tanulás fogalma és architektúrája
- Kliens-szerver szinkronizáció és agregálás
- PySyft és Flower használata az implementáláshoz
Differenciális privacy
- A differenciális privacy matematikája
- DP alkalmazása adatlekérdezésekben és modellképzésben
- Opacus és TensorFlow Privacy használata
Biztonságos Többpárti Számítás (SMPC)
- SMPC protokollok és alkalmazási esetek
- Titkosítás alapú vs. titkosításos megközelítések
- Biztonságos számítási folyamatok CrypTen vagy PySyft használatával
Homomorf titkosítás
- Teljes vs. részleges homomorf titkosítás
- Titkosított következtetés érzékeny munkaterhelésekhez
- Práxis TenSEAL és Microsoft SEAL használatával
Alkalmazások és ipari esettanulmányok
- Az egészségügyben az adatvédelem: federált tanulás orvosi AI-hez
- Biztonságos együttműködés a pénzügyekben: kockázatmodellek és engedélyezhetőség
- Védelmi és kormányzati alkalmazási esetek
Összegzés és következő lépések
Követelmények
- A gépes tanulás elvei megértése
- Tapasztalat Python és ML könyvtárak (pl. PyTorch, TensorFlow) használatában
- Adatvédelmi vagy kiberbiztonsági fogalmak ismerete hasznos
Célközönség
- Műszaki intelligencia kutatók
- Adatvédelmi és adatvédelmi engedélyezési csapatok
- Szabályozott iparakban dolgozó biztonsági mérnökök
A nyílt képzésekhez 5+ résztvevő szükséges.
Adatvédelmi megőrzés Machine Learning Képzés - Foglalás
Adatvédelmi megőrzés Machine Learning Képzés - Érdeklődés
Adatvédelmi megőrzés Machine Learning - Érdeklődjön a vezetői tanácsadásról!
Érdeklődjön a vezetői tanácsadásról!
Közelgő kurzusok
Rokon tanfolyam
ISACA Haladó Képesség az Mesterséges Intelligencia Biztonsági Vezetésben (AAISM)
21 ÓrákAz AAISM egy haladó keretrendszert képez, mely az mesterséges intelligencia rendszerek biztonsági kockázatainak kiértékelésére, vezetésére és kezelésére szolgál.
Ez a tanár által irányított élő képzés (online vagy helyszíni) haladó szintű szakembereknek készült, akik hatékony biztonsági ellenőrzéseket és vezetési gyakorlatokat szeretnék bevezetni az vállalati mesterséges intelligencia környezetekben.
A képzés végén a résztvevők felkészültek lesznek arra, hogy:
- Az ipar által elismert módszerekkel értékeljék ki az mesterséges intelligencia biztonsági kockázatait.
- Felelősségteljes mesterséges intelligencia üzembe helyezésére szolgáló vezetési modellt implementáljanak.
- Igazítsák a biztonsági irányelveket az organizáció céllal és a szabályozás várakozásaihoz.
- Növelessék a rugalmasságot és felelősségteljességet az mesterséges intelligencia meghajtott műveletek között.
Képzés formája
- Gazdagon részletesebb előadások, amelyeket szakértői elemzések támogatnak.
- Gyakorlati műhelyek és kiértékelés alapú tevékenységek.
- Alkalmazott gyakorlatok valós életbeli mesterséges intelligencia vezetés forgatókönyveivel.
Képzés személyre szabása lehetőségei
- Testreszabott képzés a vállalati mesterséges intelligencia stratégiájának igazításához, kérjük, lépjek kapcsolatba velünk a képzés testreszabásával kapcsolatban.
AI Governálás, Compliance, és Biztonság Vállalkozási Vezetők Száma
14 ÓrákEz az oktató által vezetett, élő (online vagy helyszíni) képzés a középszintű vállalati vezetőknek szól, akik meg akarják érteni, hogyan kell felelősen és az EU AI Aktus, GDPR, ISO/IEC 42001 és az USA-i elnöki rendelet az AI-ról szóló globális keretrendszerekhez megfelelően irányítani és biztosítani az AI rendszereket.
A képzés végén a résztvevők képesek lesznek:
- Megérteni az AI használatával kapcsolatos jogi, etikai és szabályozási kockázatokat az osztályokon belül.
- Megértetik és alkalmazzák a fő AI irányítási keretrendszereket (EU AI Aktus, NIST AI RMF, ISO/IEC 42001).
- Biztonsági, audit és felügyeleti politikákat állítanak be az AI bevezetéséhez a vállalaton belül.
- Beszerzési és használati irányelveket fejlesztenek harmadik fél és házon belüli AI rendszerek számára.
AI Risk Management és Biztonság a Közszférben
7 ÓrákAz Észlemes Mesterséges Intelligencia (AI) új műveleti kockázatokkal, kormányzati kihívásokkal és kiberbiztonsági kitételekkel jár az államigazgatási szervek és hivatali szervek számára.
Ez az oktatóvezetett, élő képzés (online vagy helyszínen) az államigazgatási IT- és kockázatkezelő szakembereket célozza meg, akiknek nincs jelentős előzetes AI- tapasztalatauk és akik szeretnék megérteni, hogyan értékelhetnek, figyelhetnek és biztosíthatnak AI-rendszereket egy kormány vagy szabályozó kontextusban.
Ez a képzés végén a résztvevők képesek lesznek:
- Értelmezni az AI-rendszerekkel kapcsolatos kulcsfontosságú kockázati fogalmakat, beleértve az elkésést, az előrejelzetlenséget és a modell eltérését.
- Alkalmazni AI-specifikus kormányzati és audit keretrendszereket, mint a NIST AI RMF és az ISO/IEC 42001.
- Felismerni az AI-modelleket és az adatszállító csöveket célzó kiberbiztonsági fenyegetéseket.
- Alapozni átdepartementális kockázatkezelési terveket és politikai harmonizációt az AI-bevezetéshez.
A képzés formátuma
- Interaktív előadás és az államigazgatási ügyfél esetek megvitatása.
- AI kormányzati keretrendszer gyakorlatok és politikamappa készítése.
- Szenáriobázisú fenyegetésmodellezés és kockázatértékelés.
A képzés testreszabási lehetőségei
- A testreszabott képzés megkérését erre a képzésre, kérjük, lépjen kapcsolatba velünk.
AI Trust, Risk, and Security Management (AI TRiSM) Bevezetése
21 ÓrákEz az oktatóvezetett, élő tanfolyam (online vagy helyszínen) a kezdőtől a középfokú IT szakembereket célozza meg, akik szeretnék megismerni és megvalósítani az AI TRiSM-t az organizaícójukban.
A tanfolyam befejezésekor a résztvevők képesek lesznek:
- Megragadni az AI bizalom, kockázat és biztonság kezelésének kulcsfontosságú fogalmait és jelentőségét.
- Az AI rendszerekkel kapcsolatos kockázatok azonosítására és csökkentésére.
- Az AI számára biztonsági legjobb gyakorlatok bevezetésére.
- Az AI szabályszerűsítésének és etikai szempontokának megértésére.
- Hatékony AI kormányzati és kezelési stratégiák kidolgozására.
Building Secure and Responsible LLM Applications
14 ÓrákEz a tanfolyamoktatói, élő képzés Magyarország (online vagy helyszínen) középszintű és előkelő szintű AI-fejlesztők, architektusok és termékmenedzserek számára szolgál, akik szeretnének azonosítani és csökkenteni az LLM-meghajtott alkalmazásokkal kapcsolatos kockázatokat, beleértve a prompt-becsapás, adatszivárgás és szűretlen kimenet problémáit, beépítve biztonsági ellenőrzéseket, mint például bemeneti validáció, emberi felügyelet és kimeneti korlátok.
Ez a képzés végére a résztvevők képesek lesznek:
- Értsék meg az LLM alapú rendszerek alapvető gyengeségeit.
- Alkalmazzák a biztonságos tervezési elveket az LLM alkalmazás architektúrában.
- Használjanak eszközöket, mint Guardrails AI és LangChain validálásra, szűrésekre és biztonságra.
- Beépítsenek technikákat, mint a sandboxing, red teaming és emberi felügyeleti áttekintés gyártási szintű folyamatokba.
Kiberbiztonság az AI-rendszerekben
14 ÓrákEz oktatóvezetett, élő (online vagy helyszíni) képzés célja, hogy a középszakmai szintű AI és kiberbiztonsági szakemberek megismerhessék és kezelhessék az AI-modellek és rendszerekre jellemző biztonsági hiányosságokat, különösen azok a szabályozott iparágakban, mint a pénzügyi szektor, az adattulajdonosi szabályozás és a tanácsadási szakma.
E képzés végére a résztvevők képesek lesznek:
- Megérteni az AI rendszereket célzó támadóak típusait és a védelmet őket ellen.
- Modelmegerősítési technikákat alkalmazni a gépitanulás folyamatainak biztonságának biztosítására.
- Biztonságot és integritást biztosítani a gépitanulás modelljeiben.
- Navigálni az AI-biztonságkal kapcsolatos szabályozási követelményeken.
Bevezetés az AI Security és Risk Management témákba
14 ÓrákEz oktatóvezetésű, élő tanfolyam online vagy helyszínen Magyarország célja, hogy a kezdő szintű IT-biztonsági, kockázatkezelési és megfelelési szakemberek megismerjék az alapvető AI-biztonsági fogalmakat, fenyegetési vektorokat és globális keretrendszereket, mint a NIST AI RMF és az ISO/IEC 42001.
A tanfolyam végén a résztvevők képesek lesznek:
- Megérteni az AI-rendszerek által bevezetett egyedi biztonsági kockázatokat.
- Az ellenfelei támadások, adatmérgezés és modellfordítás fenyegetési vektorokat azonosítják.
- Alapvető kormányzati modelleket alkalmaznak, mint a NIST AI Risk Management Framework.
- Az AI használatát összehangolják az újabban kialakult szabványokkal, megfelelési irányelvekkel és etikai elvekkel.
OWASP GenAI Security
14 ÓrákA legfrissebb OWASP GenAI Security Project iránymutatása alapján a résztvevők megtanulják az AI-szpecifikus fenyegetések azonosítását, értékelését és csökkentését gyakorlati feladatokon és valós helyzetekben.
Red Teaming AI Systems: Offensive Security for ML Models
14 ÓrákEz oktatóvezetett, élő képzés (online vagy helyszínen) az előrehaladott szintű biztonsági szakembereknek és ML-szakértőknek szól, akik az AI-rendszerek támadásainak szimulálására, sebezhetőségek feltárására és a telepített AI-modellek robustusságának növelésére szeretnének készülni.
Ez a képzés végére a résztvevők képesek lesznek:
- Valós világbeli fenyegetéseket szimulálni a gépi tanulási modellekre.
- Ellenálló példákat generálni a modell robustusságának teszteléséhez.
- Az AI API-k és folyamatok támadási felületét értékelni.
- Red teaming stratégiákat tervezni az AI telepítési környezetekhez.
Az Edge AI és az Beágyazott Intelligencia Védelme
14 ÓrákEz az interaktív, élő képzés Magyarország (online vagy személmélyesen) középhaladó szintű mérnököknek és biztonsági szakembereknek szánt, akik szeretnék biztonságosítani az edge-en üzemeltetett AI modelleket veszéletek ellen, mint például a manipulálás, adatcsökkenés, ellenséges bemenetek és fizikai támadások.
A képzés végén a résztvevők képesek lesznek:
- Azonosítani és becsülni a biztonsági kockázatokat az edge AI üzembe helyezéseknél.
- Manipulálás elleni ellenőrizhetőséget és titkosított következtetési technikákat alkalmazni.
- Megrobbanthatatlan edge üzembe helyezett modelleket készíteni és biztonságos adattömegátviteli csatornákat biztosítani.
- Beágyazott és korlátozott rendszerekre vonatkozó fenyegetések elleni mitígálási stratégiákat implementálni.
AI Modellak védelme: fenyegetések, támadások és védő mechanizmusok
14 ÓrákEz az oktatási program (online vagy személyes) olyan középhaladó szintű gépi tanulási és cyberbiztonsági szakembereknek irányzott, akik meg szeretnék érteni és kezelni a kifertőző fenyegetéseket az AI modell ellen, konceptuális keretek és gyakorlati védő mechanizmusok, mint például a robusztus tanítás és a differenciális titoktartás használatával.
Az oktatás végeztével a résztvevők képesek lesznek:
- Azonosítani és osztályozni az AI-specifikus fenyegetéseket, mint például az ellenálló támadásokat, inverziót és fertőzést.
- Eszközöket használni, mint például az Adversarial Robustness Toolbox (ART) a támadások szimulálásához és a modell teszteléséhez.
- Alkalmazni gyakorlati védő mechanizmusokat, mint az ellenálló tanítást, zajbeavatkozást és titoktartás-megőrző technikákat.
- Fenyegetésérzékeny modellértékelési stratégiákat tervezni a gyakorlati környezetben.
Biztonság és adatvédelem a TinyML alkalmazásokban
21 ÓrákA TinyML egy olyan megközelítés, amely gépi tanulási modellt helyiíti át alacsony fogyasztású, erőforrás-szoros eszközökön, melyek az adathálózat peremén működnek.
Ez a tanárvezetett élő képzés (online vagy személyes) a haladó szintű szakembereknek szól, akik biztonságosan szeretnék felállítani TinyML folyamatokat és adatvédelmi technikákat szeretnék alkalmazni az edge AI alkalmazásokban.
A képzés végére a résztvevők képesek lesznek:
- Az eszközön belüli TinyML következtetés biztonsági kockázatait azonosítani.
- Adatvédelmi mechanizmusokat valósítani a határérték AI üzemeltesésekben.
- A TinyML modellt és beágyazott rendszereket védni az ellenálló fenyegetések ellen.
- Legjobb gyakorlatokat alkalmazni a biztonságos adatkezeléshez korlátozott környezetben.
Képzés formája
- Érdeklődésből származó előadások, amelyeket szakértő vezet.
- Gyakorlati gyakorlatok a valóságos fenyegetésszénak megalkotása érdekében.
- Kézi implementáció beágyazott biztonsági és TinyML eszközökkel.
Képzés testreszabási opciói
- A szervezetek egy rendszerezett változatot kérhetnek a képzésből, hogy megfeleljenek a biztonságos és megfelelős igényeiknek.
Biztonságos és megbízható agens alapú mesterséges intelligencia: kormányzás, azonosságkezelés és ellenőrző csoport tesztelés
21 ÓrákEz a kurzus a kormányzás, az azonosságkezelés és az ellenőrző csoport (red-teaming) tesztelést tartalmazza agens alapú mesterséges intelligencia rendszerek esetén, összpontosítva vállalati biztonsági üzembe helyezési minták és gyakorlati ellenőrző csoport technikák felhasználásán.
Ez a tanár vezetett, élő képzés (online vagy helyszínen) a haladó szintű gyakornokokra irányul, akik szeretnének tervezni, biztonságosan kezelni és értékelni az agens alapú mesterséges intelligencia rendszereket termelési környezetben.
A képzés végén a résztvevők képesek lesznek:
- Biztonságos agens alapú mesterséges intelligencia üzembe helyezésére vonatkozó kormányzási modelleket és szabályokat definiálni.
- Nem emberi azonosságkezelési és hitelesítési folyamatokat tervezni agensek esetében a minimális jogosultsággal rendelkező hozzáférés érdekében.
- Hozzáférés-ellenőrzéseket, naplózási nyomvonalakat és megfigyelhetőséget kifejleszteni önálló agensek számára.
- Tervezni és végrehajtani ellenőrző csoport gyakorlatokat a rosszindulatú használathoz, jogosultság emelkedéshez és adattamásztási kockázatokhoz vezető útvonalak felderítése érdekében.
- A leggyakoribb fenyegetések elleni védelemet szabályozás, mérnöki ellenőrzések és figyelés segítségével megerősíteni.
Kurzus formátuma
- Interaktív előadások és fenyegetésmódszer-modellezési munkafélék.
- Gyakorlóterek: azonosságkiállítás, szabályzat végrehajtása és ellenséges szimuláció.
- Ellenőrző csoport / kék-csoport gyakorlatok és kurzus végi értékelés.
Kurzus testreszabási lehetőségek
- Testreszabott képzés kéréséhez lépjen kapcsolatba velünk a rendezés érdekében.