Adatstreamelés és valós idejű adatfeldolgozás Képzés
Kurzus áttekintés
Ez a kurzus gyakorlati és strukturált bevezetést nyújt a valós idejű adatstreamelési rendszerek felépítésébe. A kurzus során megismerkedhetünk az alapfogalmakkal, architektúrai mintákkal és az iparágban használt eszközökkel, amelyek a folyamatos adatok nagy léptékű feldolgozásához szükségesek. A résztvevők megtanulják, hogyan tervezzenek, implementáljanak és optimalizáljanak streamelési folyamatokat modern keretrendszerek segítségével. A kurzus az alapvető elméleti ismeretektől a gyakorlati alkalmazásokig halad, lehetővé téve a résztvevők számára, hogy magabiztosan építsenek üzemi környezetben használható valós idejű megoldásokat.
Képzés formátuma
• Oktató által vezetett előadások részletes magyarázatokkal
• Fogalmi bemutatások valós példákkal
• Gyakorlati bemutatók és kódolási feladatok
• A nap témájához igazodó fokozatos laborok
• Interaktív beszélgetések és kérdések-válaszok
Kurzus céljai
• A valós idejű adatstreamelés alapfogalmainak és rendszerarchitektúrájának megértése
• A kötegelt és streamelt adatfeldolgozási modellek közötti különbségek megkülönböztetése
• Skálázható és hibatűrő streamelési folyamatok tervezése
• Munka elosztott streamelési eszközökkel és keretrendszerekkel
• Eseményidő alapú feldolgozás, ablakozási technikák és állapotalapú műveletek alkalmazása
Valós idejű adatmegoldások építése és optimalizálása üzleti használati esetekhez
Kurzusleírás
Kurzus vázlat – 1. nap
• Bevezetés az adatstreamelés alapfogalmaiba
• Kötegelt és valós idejű feldolgozás alapjai
• Eseményvezérelt architektúra alapjai
• Gyakori használati esetek az iparágban
• A streamelési ökoszisztéma áttekintése
2. nap
• Streamelési architektúra tervezési minták
• Az elosztott üzenetküldő rendszerek alapjai
• Termelők és fogyasztók
• Témák, partíciók és adatáramlás
• Adatbetöltési stratégiák
3. nap
• Stream feldolgozási alapfogalmak és keretrendszerek
• Eseményidő és feldolgozási idő
• Ablakozási technikák és használati esetek
• Állapotalapú stream feldolgozás
• Hibatűrés és ellenőrzőpontozás alapjai
4. nap
• Adatátalakítás streamelési folyamatokban
• ETL és ELT valós idejű rendszerekben
• Séma kezelés és fejlődés
• Stream összekapcsolások és bővítések
• Bevezetés a felhőalapú streamelési szolgáltatásokba
5. nap
• Monitorozás és megfigyelhetőség streamelési rendszerekben
• Biztonság és hozzáférés-vezérlés alapjai
• Teljesítményhangolás és optimalizálás
• Végpontok közötti folyamat tervezési áttekintés
• Valós használati esetek, például csalásfelismerés és IoT feldolgozás
A nyílt képzésekhez 5+ résztvevő szükséges.
Adatstreamelés és valós idejű adatfeldolgozás Képzés - Foglalás
Adatstreamelés és valós idejű adatfeldolgozás Képzés - Érdeklődés
Adatstreamelés és valós idejű adatfeldolgozás - Érdeklődjön a vezetői tanácsadásról!
Vélemények (1)
GYAKORLÓ FELADATOK. A tanfolyam eredetileg 5 naposnak kellett volna lennie, de a három nap is sok kérdést válaszolt az eddigi NiFi használatomból fakadóan.
James - BHG Financial
Kurzus - Apache NiFi for Administrators
Gépi fordítás
Közelgő kurzusok
Rokon tanfolyam
Adminisztrátori képzés Apache Hadoophoz
35 ÓrákCélközönség:
A képzés azon IT szakemberek számára készült, akik megoldást keresnek nagy adathalmazok tárolására és feldolgozására elosztott rendszerkörnyezetben.
Cél:
Mélyreható ismeretek szerezése a Hadoop klaszter adminisztrációjáról.
Big Data Analytics Google Colab és Apache Spark segítségével
14 ÓrákEz az oktató által vezetett, élő képzés Magyarország-ben (online vagy helyszíni) középhaladó szintű adattudósok és mérnökök számára készült, akik a Google Colab és Apache Spark használatával szeretnék feldolgozni és elemezni a nagy adatokat.
A képzés végére a résztvevők képesek lesznek:
- Big Data környezet beállítása a Google Colab és Spark segítségével.
- Nagy adathalmazok hatékony feldolgozása és elemzése Apache Spark segítségével.
- Big Data vizualizáció együttműködő környezetben.
- Apache Spark integrálása felhőalapú eszközökkel.
Big Data Analytics az Egészségügyben
21 ÓrákA big data analytics magában foglalja a nagy mennyiségű és változatos adathalmazok elemzésének folyamatát, hogy felfedezzünk korrelációkat, rejtett mintákat és egyéb hasznos betekintéseket.
Az egészségügyi ipar rendelkezik hatalmas mennyiségű, összetett és heterogén orvosi és klinikai adattal. A big data analytics alkalmazása az egészségügyi adatokon hatalmas potenciállal bír a megállapítások levonásában az egészségügyi ellátás javítása érdekében. Azonban ezeknek az adathalmazoknak a hatalmas mérete nagy kihívásokat jelent az elemzésekben és a gyakorlati alkalmazásokban egy klinikai környezetben.
Ebben az oktató által vezetett, élő képzésen (távolról) a résztvevők megtanulják, hogyan végezzenek big data analytics-t az egészségügyben, miközben egy sor gyakorlati, élő laborfeladaton keresztül haladnak.
A képzés végére a résztvevők képesek lesznek:
- Telepíteni és konfigurálni a big data analytics eszközöket, mint például a Hadoop MapReduce és a Spark
- Megérteni az orvosi adatok jellemzőit
- Big data technikákat alkalmazni az orvosi adatok kezelésére
- Big data rendszereket és algoritmusokat tanulmányozni az egészségügyi alkalmazások kontextusában
Közönség
- Fejlesztők
- Adattudósok
A képzés formátuma
- Részben előadás, részben vita, gyakorlatok és intenzív gyakorlati munka.
Megjegyzés
- Ha testre szabott képzést kérne ehhez a kurzushoz, kérjük, lépjen kapcsolatba velünk a megbeszélés érdekében.
Hadoop rendszergazdáknak
21 ÓrákAz Apache Hadoop a legnépszerűbb keretrendszer a Big Data feldolgozására szerverklasztereken. Ezen a három (opcionálisan négy) napos tanfolyamon a résztvevők megismerik a Hadoop és az ökoszisztémája üzleti előnyeit és használati eseteit, hogyan tervezhetik meg a klaszter üzembe helyezését és bővítését, valamint hogyan telepíthetik, karbantarthatják, monitorozhatják, hibaelháríthatják és optimalizálhatják a Hadoopot. Gyakorolni fogják a klaszter tömeges adatbetöltését, megismerkednek a különböző Hadoop disztribúciókkal, valamint gyakorolni fogják a Hadoop ökoszisztéma eszközeinek telepítését és kezelését. A tanfolyam a klaszter biztonságossá tételéről szóló vitával zárul, amelyben a Kerberos kerül bemutatásra.
“…Az anyagok nagyon jól elkészítettek és alaposak voltak. A laborok nagyon hasznosak és jól szervezettek voltak.”
— Andrew Nguyen, Főbb integrációs DW mérnök, Microsoft Online Advertising
Célközönség
Hadoop rendszergazdák
Formátum
Előadások és gyakorlati laborok, megközelítőleg 60% előadás, 40% labor.
Hadoop fejlesztőknek (4 nap)
28 ÓrákAz Apache Hadoop a legnépszerűbb keretrendszer a Big Data feldolgozására szerverklasztereken. Ez a kurzus bemutatja a fejlesztőknek a Hadoop ökoszisztéma különböző összetevőit (HDFS, MapReduce, Pig, Hive és HBase).
Haladó Hadoop fejlesztőknek
21 ÓrákAz Apache Hadoop az egyik legnépszerűbb keretrendszer nagy adatok feldolgozására szerverklasztereken. Ez a kurzus a HDFS-ben való adatkezelésbe, valamint a haladó Pig, Hive és HBase használatába mélyül bele. Ezek a haladó programozási technikák hasznosak lehetnek tapasztalt Hadoop fejlesztők számára.
Célközönség: fejlesztők
Időtartam: három nap
Formátum: előadások (50%) és gyakorlati laborok (50%).
Hadoop Adminisztráció a MapR rendszeren
28 ÓrákCélközönség:
Ez a kurzus célja, hogy demisztifikálja a big data/hadoop technológiát, és megmutassa, hogy nem nehéz megérteni.
Hadoop és Spark rendszergazdáknak
35 ÓrákEz az oktató által vezetett, élő képzés Magyarország (online vagy helyszíni) rendszergazdáknak szól, akik meg szeretnének tanulni, hogyan állíthatnak üzembe, helyezhetnek üzembe és kezelhetnek Hadoop klasztereket szervezetükön belül.
A képzés végére a résztvevők képesek lesznek:
- Az Apache Hadoop telepítésére és konfigurálására.
- A Hadoop ökoszisztéma négy fő komponensének megértésére: HDFS, MapReduce, YARN és Hadoop Common.
- A Hadoop Distributed File System (HDFS) használatára a klaszter százakra vagy ezrekre történő skálázásához.
- A HDFS beállítására, hogy tárolómotorként működjön helyszíni Spark üzemelő példányokhoz.
- A Spark beállítására alternatív tárolási megoldásokhoz, mint az Amazon S3 és NoSQL adatbázis-rendszerek, például Redis, Elasticsearch, Couchbase, Aerospike stb.
- Adminisztratív feladatok végrehajtására, mint az Apache Hadoop klaszter kiépítése, kezelése, monitorozása és biztonságba helyezése.
HBase fejlesztőknek
21 ÓrákEz a kurzus bemutatja a HBase-t, egy NoSQL adattárolót a Hadoop rendszeren. A kurzus célközönsége a HBase-t alkalmazásfejlesztéshez használó fejlesztők és a HBase klasztereket kezelő rendszergazdák.
A kurzus során bemutatjuk a HBase architektúráját, az adatmodellezést és az alkalmazásfejlesztést a HBase-en. Szó lesz a MapReduce használatáról a HBase-szel, valamint néhány adminisztrációs témáról, amelyek a teljesítményoptimalizálással kapcsolatosak. A kurzus nagyon gyakorlatias, számos laborgyakorlattal.
Időtartam: 3 nap
Célközönség: Fejlesztők és rendszergazdák
Apache NiFi rendszergazdáknak
21 ÓrákAz Apache NiFi egy nyílt forráskódú, folyamalapú adatintegrációs és eseményfeldolgozó platform. Lehetővé teszi az automatizált, valós idejű adatirányítást, átalakítást és rendszerközvetítést különböző rendszerek között, webalapú felhasználói felülettel és részletes ellenőrzéssel.
Ez az oktató által vezetett, élő képzés (helyszíni vagy távoli) középszintű rendszergazdáknak és mérnököknek szól, akik szeretnék üzembe helyezni, kezelni, biztosítani és optimalizálni a NiFi adatfolyamokat éles környezetekben.
A képzés végére a résztvevők képesek lesznek:
- Apache NiFi klaszterek telepítése, konfigurálása és karbantartása.
- Adatfolyamok tervezése és kezelése különböző forrásokból és célokból.
- Folyamat automatizálás, irányítás és átalakítási logika implementálása.
- Teljesítmény optimalizálása, műveletek monitorozása és hibák elhárítása.
A képzés formátuma
- Interaktív előadás valós világi architektúrák megvitatásával.
- Gyakorlati laborok: folyamok építése, üzembe helyezése és kezelése.
- Forgatókönyv alapú gyakorlatok élő labor környezetben.
Kurzus testreszabási lehetőségek
- Ha testreszabott képzést szeretne kérni ehhez a kurzushoz, kérjük, lépjen kapcsolatba velünk.
Apache NiFi fejlesztőknek
7 ÓrákEzen oktatóvezetésű, élő képzés során Magyarország a résztvevők megismerik a folyamatalapú programozás alapjait, miközben számos demó kiterjesztést, komponenst és processzort fejlesztenek az Apache NiFi segítségével.
A képzés végére a résztvevők képesek lesznek:
- Megérteni a NiFi architektúráját és az adatfolyam koncepcióit.
- Kiterjesztéseket fejleszteni a NiFi és harmadik féltől származó API-k használatával.
- Saját Apache NiFi processzort fejleszteni.
- Valós idejű adatokat betölteni és feldolgozni különböző és szokatlan fájlformátumokból és adatforrásokból.
PySpark és gépi tanulás
21 ÓrákEz a képzés gyakorlati bevezetést nyújt a skálázható adatfeldolgozó és gépi tanulási munkafolyamatok felépítéséhez PySpark segítségével. A résztvevők megismerik, hogyan működik az Apache Spark a modern Big Data ökoszisztémákban, és hogyan dolgozzák hatékonyan fel a nagy adathalmazokat a elosztott számítási elvek alapján.
Python és Spark a Big Data-hez (PySpark)
21 ÓrákEbben az oktató által vezetett, élő képzésben Magyarország, a résztvevők megtanulják, hogyan használhatják a Pythont és a Sparkot együtt nagy adatok elemzéséhez, miközben gyakorlati feladatokon dolgoznak.
A képzés végére a résztvevők képesek lesznek:
- Megtanulják, hogyan használhatják a Sparkot Pythonnal nagy adatok elemzéséhez.
- Valós eseteket utánzó gyakorlatokon dolgoznak.
- Különböző eszközöket és technikákat használnak nagy adatok elemzéséhez a PySpark segítségével.
Python, Spark és Hadoop a Big Data-hez
21 ÓrákEz az oktató által vezetett, élőben zajló képzés Magyarország-ben (online vagy helyszíni) azoknak a fejlesztőknek szól, akik szeretnék használni és integrálni a Sparkot, Hadoopot és Pythont nagy és összetett adathalmazok feldolgozására, elemzésére és átalakítására.
A képzés végén a résztvevők képesek lesznek:
- Beállítani a szükséges környezetet a big data feldolgozásának megkezdéséhez Spark, Hadoop és Python segítségével.
- Megérteni a Spark és Hadoop jellemzőit, alapvető összetevőit és architektúráját.
- Megtanulni, hogyan integrálható a Spark, Hadoop és Python a big data feldolgozásához.
- Felfedezni a Spark ökoszisztéma eszközeit (Spark MLlib, Spark Streaming, Kafka, Sqoop, Kafka és Flume).
- Kollaboratív szűrésű ajánlórendszereket építeni, hasonlóan a Netflix, YouTube, Amazon, Spotify és Google rendszereihez.
- Az Apache Mahout használata gépi tanulási algoritmusok skálázására.
Stratio: Rocket és Intelligence modulok PySparkkal
14 ÓrákA Stratio egy adatközpontú platform, amely a big data, az AI és a governance integrációját kínálja egyetlen megoldásban. A Rocket és Intelligence moduljai lehetővé teszik a gyors adatfeltárást, átalakítást és haladó elemzéseket vállalati környezetekben.
Ez az oktató által vezetett, élő képzés (online vagy helyszíni) középhaladó szintű adatszakembereknek szól, akik hatékonyan szeretnék használni a Rocket és Intelligence modulokat a Stratio-ban PySparkkal, különös tekintettel a ciklusstruktúrákra, felhasználó által definiált függvényekre és haladó adatlogikára.
A képzés végére a résztvevők képesek lesznek:
- Navigálni és dolgozni a Stratio platformon a Rocket és Intelligence modulok segítségével.
- PySpark alkalmazása adatbetöltés, átalakítás és elemzés során.
- Ciklusok és feltételes logika használata az adatmunkafolyamatok és a jellemzőmérnöki feladatok szabályozására.
- Felhasználó által definiált függvények (UDF) létrehozása és kezelése újrafelhasználható adatműveletekhez PySparkban.
A képzés formátuma
- Interaktív előadás és megbeszélés.
- Számos gyakorlat és gyakorlati feladat.
- Gyakorlati implementáció élő laboratóriumi környezetben.
Képzés testreszabási lehetőségei
- Ha testreszabott képzést szeretne kérni ehhez a kurzushoz, kérjük, lépjen kapcsolatba velünk.