Security and Privacy in TinyML Applications Képzés
TinyML is an approach to deploying machine learning models on low-power, resource-constrained devices operating at the network edge.
This instructor-led, live training (online or onsite) is aimed at advanced-level professionals who wish to secure TinyML pipelines and implement privacy-preserving techniques in edge AI applications.
At the conclusion of this course, participants will be able to:
- Identify security risks unique to on-device TinyML inference.
- Implement privacy-preserving mechanisms for edge AI deployments.
- Harden TinyML models and embedded systems against adversarial threats.
- Apply best practices for secure data handling in constrained environments.
Format of the Course
- Engaging lectures supported by expert-led discussions.
- Practical exercises emphasizing real-world threat scenarios.
- Hands-on implementation using embedded security and TinyML tooling.
Course Customization Options
- Organizations may request a tailored version of this training to align with their specific security and compliance needs.
Kurzusleírás
Introduction to Security in TinyML
- Security challenges in resource-constrained ML systems
- Threat models for TinyML deployments
- Risk categories for embedded AI applications
Data Privacy in Edge AI
- Privacy considerations for on-device data processing
- Minimizing data exposure and transfer
- Techniques for decentralized data handling
Adversarial Attacks on TinyML Models
- Model evasion and poisoning threats
- Input manipulation on embedded sensors
- Assessing vulnerability in constrained environments
Security Hardening for Embedded ML
- Firmware and hardware protection layers
- Access control and secure boot mechanisms
- Best practices for safeguarding inference pipelines
Privacy-Preserving TinyML Techniques
- Quantization and model design considerations for privacy
- Techniques for on-device anonymization
- Lightweight encryption and secure computation methods
Secure Deployment and Maintenance
- Secure provisioning of TinyML devices
- OTA updates and patching strategies
- Monitoring and incident response at the edge
Testing and Validation of Secure TinyML Systems
- Security and privacy testing frameworks
- Simulating real-world attack scenarios
- Validation and compliance considerations
Case Studies and Applied Scenarios
- Security failures in edge AI ecosystems
- Designing resilient TinyML architectures
- Evaluating trade-offs between performance and protection
Summary and Next Steps
Követelmények
- An understanding of embedded system architectures
- Experience with machine learning workflows
- Knowledge of cybersecurity fundamentals
Audience
- Security analysts
- AI developers
- Embedded engineers
A nyílt képzésekhez 5+ résztvevő szükséges.
Security and Privacy in TinyML Applications Képzés - Foglalás
Security and Privacy in TinyML Applications Képzés - Érdeklődés
Security and Privacy in TinyML Applications - Érdeklődjön a vezetői tanácsadásról!
Érdeklődjön a vezetői tanácsadásról!
Közelgő kurzusok
Rokon tanfolyam
AI Governálás, Compliance, és Biztonság Vállalkozási Vezetők Száma
14 ÓrákEz az oktató által vezetett, élő (online vagy helyszíni) képzés a középszintű vállalati vezetőknek szól, akik meg akarják érteni, hogyan kell felelősen és az EU AI Aktus, GDPR, ISO/IEC 42001 és az USA-i elnöki rendelet az AI-ról szóló globális keretrendszerekhez megfelelően irányítani és biztosítani az AI rendszereket.
A képzés végén a résztvevők képesek lesznek:
- Megérteni az AI használatával kapcsolatos jogi, etikai és szabályozási kockázatokat az osztályokon belül.
- Megértetik és alkalmazzák a fő AI irányítási keretrendszereket (EU AI Aktus, NIST AI RMF, ISO/IEC 42001).
- Biztonsági, audit és felügyeleti politikákat állítanak be az AI bevezetéséhez a vállalaton belül.
- Beszerzési és használati irányelveket fejlesztenek harmadik fél és házon belüli AI rendszerek számára.
AI Risk Management és Biztonság a Közszférben
7 ÓrákAz Észlemes Mesterséges Intelligencia (AI) új műveleti kockázatokkal, kormányzati kihívásokkal és kiberbiztonsági kitételekkel jár az államigazgatási szervek és hivatali szervek számára.
Ez az oktatóvezetett, élő képzés (online vagy helyszínen) az államigazgatási IT- és kockázatkezelő szakembereket célozza meg, akiknek nincs jelentős előzetes AI- tapasztalatauk és akik szeretnék megérteni, hogyan értékelhetnek, figyelhetnek és biztosíthatnak AI-rendszereket egy kormány vagy szabályozó kontextusban.
Ez a képzés végén a résztvevők képesek lesznek:
- Értelmezni az AI-rendszerekkel kapcsolatos kulcsfontosságú kockázati fogalmakat, beleértve az elkésést, az előrejelzetlenséget és a modell eltérését.
- Alkalmazni AI-specifikus kormányzati és audit keretrendszereket, mint a NIST AI RMF és az ISO/IEC 42001.
- Felismerni az AI-modelleket és az adatszállító csöveket célzó kiberbiztonsági fenyegetéseket.
- Alapozni átdepartementális kockázatkezelési terveket és politikai harmonizációt az AI-bevezetéshez.
A képzés formátuma
- Interaktív előadás és az államigazgatási ügyfél esetek megvitatása.
- AI kormányzati keretrendszer gyakorlatok és politikamappa készítése.
- Szenáriobázisú fenyegetésmodellezés és kockázatértékelés.
A képzés testreszabási lehetőségei
- A testreszabott képzés megkérését erre a képzésre, kérjük, lépjen kapcsolatba velünk.
AI Trust, Risk, and Security Management (AI TRiSM) Bevezetése
21 ÓrákEz az oktatóvezetett, élő tanfolyam (online vagy helyszínen) a kezdőtől a középfokú IT szakembereket célozza meg, akik szeretnék megismerni és megvalósítani az AI TRiSM-t az organizaícójukban.
A tanfolyam befejezésekor a résztvevők képesek lesznek:
- Megragadni az AI bizalom, kockázat és biztonság kezelésének kulcsfontosságú fogalmait és jelentőségét.
- Az AI rendszerekkel kapcsolatos kockázatok azonosítására és csökkentésére.
- Az AI számára biztonsági legjobb gyakorlatok bevezetésére.
- Az AI szabályszerűsítésének és etikai szempontokának megértésére.
- Hatékony AI kormányzati és kezelési stratégiák kidolgozására.
Building Secure and Responsible LLM Applications
14 ÓrákEz a tanfolyamoktatói, élő képzés Magyarország (online vagy helyszínen) középszintű és előkelő szintű AI-fejlesztők, architektusok és termékmenedzserek számára szolgál, akik szeretnének azonosítani és csökkenteni az LLM-meghajtott alkalmazásokkal kapcsolatos kockázatokat, beleértve a prompt-becsapás, adatszivárgás és szűretlen kimenet problémáit, beépítve biztonsági ellenőrzéseket, mint például bemeneti validáció, emberi felügyelet és kimeneti korlátok.
Ez a képzés végére a résztvevők képesek lesznek:
- Értsék meg az LLM alapú rendszerek alapvető gyengeségeit.
- Alkalmazzák a biztonságos tervezési elveket az LLM alkalmazás architektúrában.
- Használjanak eszközöket, mint Guardrails AI és LangChain validálásra, szűrésekre és biztonságra.
- Beépítsenek technikákat, mint a sandboxing, red teaming és emberi felügyeleti áttekintés gyártási szintű folyamatokba.
Kiberbiztonság az AI-rendszerekben
14 ÓrákEz oktatóvezetett, élő (online vagy helyszíni) képzés célja, hogy a középszakmai szintű AI és kiberbiztonsági szakemberek megismerhessék és kezelhessék az AI-modellek és rendszerekre jellemző biztonsági hiányosságokat, különösen azok a szabályozott iparágakban, mint a pénzügyi szektor, az adattulajdonosi szabályozás és a tanácsadási szakma.
E képzés végére a résztvevők képesek lesznek:
- Megérteni az AI rendszereket célzó támadóak típusait és a védelmet őket ellen.
- Modelmegerősítési technikákat alkalmazni a gépitanulás folyamatainak biztonságának biztosítására.
- Biztonságot és integritást biztosítani a gépitanulás modelljeiben.
- Navigálni az AI-biztonságkal kapcsolatos szabályozási követelményeken.
Bevezetés az AI Security és Risk Management témákba
14 ÓrákEz oktatóvezetésű, élő tanfolyam online vagy helyszínen Magyarország célja, hogy a kezdő szintű IT-biztonsági, kockázatkezelési és megfelelési szakemberek megismerjék az alapvető AI-biztonsági fogalmakat, fenyegetési vektorokat és globális keretrendszereket, mint a NIST AI RMF és az ISO/IEC 42001.
A tanfolyam végén a résztvevők képesek lesznek:
- Megérteni az AI-rendszerek által bevezetett egyedi biztonsági kockázatokat.
- Az ellenfelei támadások, adatmérgezés és modellfordítás fenyegetési vektorokat azonosítják.
- Alapvető kormányzati modelleket alkalmaznak, mint a NIST AI Risk Management Framework.
- Az AI használatát összehangolják az újabban kialakult szabványokkal, megfelelési irányelvekkel és etikai elvekkel.
AI betelepítése mikrovezérlőkön TinyML segítségével
21 ÓrákAz oktató vezette, élő képzés Magyarország (online vagy helyszínen) célja az intermediális szintű beágyazott rendszerek mérnökeinek és AI fejlesztőinek az, akik machine learning modelleket szeretnének telepíteni mikrovezérlőkön TensorFlow Lite és Edge Impulse segítségével.
Ez a képzés végén a résztvevők képesek lesznek:
- Megérteni a TinyML alapjait és az előnyöket az edge AI alkalmazásokhoz.
- Beállítani a fejlesztői környezetet TinyML projektekhez.
- Kiképzi, optimalizálja és telepíti az AI modelleket alacsony fogyasztású mikrovezérlőkön.
- TensorFlow Lite és Edge Impulse használatát valós TinyML alkalmazásokhoz.
- Optimalizálja az AI modelleket az energiahatékonyság és memóriakorlátok tekintetében.
OWASP GenAI Security
14 ÓrákA legfrissebb OWASP GenAI Security Project iránymutatása alapján a résztvevők megtanulják az AI-szpecifikus fenyegetések azonosítását, értékelését és csökkentését gyakorlati feladatokon és valós helyzetekben.
Adatvédelmi megőrzés Machine Learning
14 ÓrákEz az oktatóvezetett, élő (online vagy helyszíni) képzés az olyan, haladó szintű szakembereknek szánva, akik szeretnék megvalósítani és kiértékelni olyan technikákat, mint a federált tanulás, biztonságos többpárti számítás, homomorf kriptográfia és differenciális bizalmaság valós világbeli gépi tanulási folyamatokban.
A képzés végén a résztvevők képesek lesznek:
- Értenek és összehasonlítják az ML-ben használt kulcsfontosságú bizalmaságvédelmi technikákat.
- Megvalósítanak federált tanulási rendszereket nyílt forráskódú keretek segítségével.
- Alkalmaznak differenciális bizalmaságot biztonságos adatmegosztáshoz és modellképzéshez.
- Használnak kriptográfiai és biztonságos számítási technikákat a modellbevitel és -kimenet védelméhez.
Red Teaming AI Systems: Offensive Security for ML Models
14 ÓrákEz oktatóvezetett, élő képzés (online vagy helyszínen) az előrehaladott szintű biztonsági szakembereknek és ML-szakértőknek szól, akik az AI-rendszerek támadásainak szimulálására, sebezhetőségek feltárására és a telepített AI-modellek robustusságának növelésére szeretnének készülni.
Ez a képzés végére a résztvevők képesek lesznek:
- Valós világbeli fenyegetéseket szimulálni a gépi tanulási modellekre.
- Ellenálló példákat generálni a modell robustusságának teszteléséhez.
- Az AI API-k és folyamatok támadási felületét értékelni.
- Red teaming stratégiákat tervezni az AI telepítési környezetekhez.
Securing Edge AI és Beágyazott Intelligence
14 ÓrákEz oktatóvezetett, élő képzés (online vagy helyszínen) az középszintű mérnökök és biztonsági szakemberek számára van szolgálva, akik az érzékeny helyeken telepített AI-modellek védelmére kíváncsiak a hamisítás, adatkiadás, ellenséges bemenetek és fizikai támadások elleni fenyegetésekkel szemben.
A képzés végeztével a résztvevők képesek lesznek:
- Biztonsági kockázatokat azonosítani és értékelni az érzékeny helyen telepített AI-rendszerekben.
- Tamperellenes és titkosított levezetési technikákat alkalmazni.
- Meghátrányozott érzékeny helyen telepített modelleket és biztonságos adatfolyamatokat biztosítani.
- Fenyegetéscsökkentő stratégiákat alkalmazni az embedelt és korlátozott rendszerekben.
Securing AI Models: Threats, Attacks, and Defenses
14 ÓrákEz az oktatóvezetett, élő tanulmány (online vagy helyszínen) az olyan középfokú gépi tanulás és kiberbiztonsági szakemberek számára szolgál, akik meg szeretnék érteni és kevesebbbé szeretnék tegyenek az AI-modellekre irányuló újfajta fenyegetéseket, koncepcuális keretek és gyakorlati védekezési módok (pl. robusztus képzés és differenciális privátosság) használatával.
A képzés végén a résztvevők képesek lesznek:
- Felismerni és osztályozni az AI-modellekre irányuló fenyegetéseket, mint például az ellenséges támadások, visszafordítás és mérgezés.
- Eszközöket, mint az Adversarial Robustness Toolbox (ART) használatával támadások szimulálására és modellek tesztelésére.
- Pratikus védelmi módokat alkalmazni, mint például ellenséges képzés, zajbeszúrás és privátvédelem.
- Fenyegetés-tudatos modellértékelési stratégiák kialakítását a termelési környezetben.
Biztonságos és megbízható agens alapú mesterséges intelligencia: kormányzás, azonosságkezelés és ellenőrző csoport tesztelés
21 ÓrákEz a kurzus a kormányzás, az azonosságkezelés és az ellenőrző csoport (red-teaming) tesztelést tartalmazza agens alapú mesterséges intelligencia rendszerek esetén, összpontosítva vállalati biztonsági üzembe helyezési minták és gyakorlati ellenőrző csoport technikák felhasználásán.
Ez a tanár vezetett, élő képzés (online vagy helyszínen) a haladó szintű gyakornokokra irányul, akik szeretnének tervezni, biztonságosan kezelni és értékelni az agens alapú mesterséges intelligencia rendszereket termelési környezetben.
A képzés végén a résztvevők képesek lesznek:
- Biztonságos agens alapú mesterséges intelligencia üzembe helyezésére vonatkozó kormányzási modelleket és szabályokat definiálni.
- Nem emberi azonosságkezelési és hitelesítési folyamatokat tervezni agensek esetében a minimális jogosultsággal rendelkező hozzáférés érdekében.
- Hozzáférés-ellenőrzéseket, naplózási nyomvonalakat és megfigyelhetőséget kifejleszteni önálló agensek számára.
- Tervezni és végrehajtani ellenőrző csoport gyakorlatokat a rosszindulatú használathoz, jogosultság emelkedéshez és adattamásztási kockázatokhoz vezető útvonalak felderítése érdekében.
- A leggyakoribb fenyegetések elleni védelemet szabályozás, mérnöki ellenőrzések és figyelés segítségével megerősíteni.
Kurzus formátuma
- Interaktív előadások és fenyegetésmódszer-modellezési munkafélék.
- Gyakorlóterek: azonosságkiállítás, szabályzat végrehajtása és ellenséges szimuláció.
- Ellenőrző csoport / kék-csoport gyakorlatok és kurzus végi értékelés.
Kurzus testreszabási lehetőségek
- Testreszabott képzés kéréséhez lépjen kapcsolatba velünk a rendezés érdekében.
Bevezetés a TinyML-ba
14 ÓrákEz oktatóvezetett, élő (online vagy helyszínen) képzés célközönsége azok a kezdő szintű mérnökök és adat tudósok, akik meg akarnák ismerni a TinyML alapelveit, feltárolni alkalmazásait és AI-modelleket szeretnének telepíteni mikrovezérlőkre.
Ez a képzés során a résztvevők képesek lesznek:
- Megérteni a TinyML alapelveit és jelentőségét.
- Telepíteni könnyű AI-modelleket mikrovezérlőkre és szélegyeszközökre.
- Optimalizálni és finomítani a gépi tanulásmodelleket alacsony fogyasztásra.
- Alkalmaznia a TinyMLt valós világbeli alkalmazásokra, például mozgásfelismerésre, anomáliafelismerésre és hangfeldolgozásra.
TinyML: Ultra-alacsony hatalomú szélső eszközökön futó AI
21 ÓrákEz a tanárvezetett élő képzés (online vagy helyszíni) a középszintű beágyazott rendszerek mérnökeinek, IoT fejlesztőknek és AI kutatóknak szól, akik szeretnének TinyML technikákat alkalmazni AI-hatékony alkalmazásokhoz energiahatékony hardveren.
A képzés végén a résztvevők képesek lesznek:
- Megérteni a TinyML és az edge AI alapjait.
- Könnyű AI modelleket telepítenek mikrovezérlőkre.
- Optimálisan hasznosítják az AI inferenciát alacsony energiafogyasztásra.
- Összekapcsolják a TinyML-t valós IoT alkalmazásokkal.