Advanced Apache Iceberg Képzés
Az Apache Iceberg egy nyílt forráskódú táblaformátum nagyméretű adatkészletekhez, amely a SQL táblák megbízhatóságát és egyszerűségét hozza a nagy adatokhoz. Úgy tervezték, hogy megoldja a nagy adatok kezelésével kapcsolatos kihívásokat az adattókban, amelyek gyakran összetett sémák, nagy fájlok és változatos adatforrások kezelésével járnak.
Ez az oktató által vezetett, élő (online vagy helyszíni) képzés azoknak a haladó szintű adatszakembereknek szól, akik szeretnék optimalizálni az adatfeldolgozási munkafolyamatokat, biztosítani szeretnék az adatok integritását, és olyan robusztus Data Lakehouse megoldásokat valósítanak meg, amelyek képesek kezelni a modern big data alkalmazások összetettségeit.
A képzés végére a résztvevők képesek lesznek:
- Mélyreható ismereteket szerezhet az Iceberg architektúrájáról, beleértve a metaadatkezelést és a fájlelrendezést.
- Konfigurálja az Iceberget az optimális teljesítmény érdekében különböző környezetekben, és integrálja több adatfeldolgozó motorral.
- Nagyméretű Iceberg táblák kezelése, összetett sémamódosítások végrehajtása és partíciófejlődés kezelése.
- Mester technikák a lekérdezési teljesítmény és az adatolvasás hatékonyságának optimalizálására nagy adatkészletek esetén.
- Mechanizmusok megvalósítása az adatok konzisztenciájának biztosítására, a tranzakciós garanciák kezelésére és az elosztott környezetekben előforduló hibák kezelésére.
A tanfolyam formátuma
- Interaktív előadás és beszélgetés.
- Sok gyakorlat és gyakorlat.
- Gyakorlati megvalósítás élő labor környezetben.
Tanfolyam testreszabási lehetőségek
- Ha személyre szabott képzést szeretne kérni ehhez a tanfolyamhoz, kérjük, vegye fel velünk a kapcsolatot, hogy megbeszéljük.
Kurzusleírás
Az Apache Iceberg bemutatása
- Az Apache Iceberg áttekintése
- Alapfogalmak áttekintése
Merüljön el a jéghegy építészetében
- Az Iceberg táblázatformátumának mélyreható elemzése
- Részletes architektúra áttekintése, beleértve a metaadatokat és a fájlelrendezést
- A séma- és partíciófejlődés belső elemei
Speciális telepítés és konfigurálás
- Az Iceberg konfigurálása az optimális teljesítmény érdekében különböző környezetekben
- Integráció különféle adatfeldolgozó motorokkal
- Speciális beállítások: biztonság, titkosítás és hozzáférés-vezérlés
- Az Iceberg beállítása elosztott környezetben
Speciális műveletek és karbantartás
- Nagyméretű Iceberg asztalok kezelése
- Komplex sémamódosítások megvalósítása és kezelése
- Partíciófejlődés és rejtett particionálás kezelése
- Speciális CRUD-műveletek séma- és partíciómódosításokkal
Lekérdezésoptimalizálási technikák
- A lekérdezés késleltetésének csökkentésére szolgáló technikák
- Partíciómetszés és reszelőmetszés
- Metaadat-gyorsítótárazási és optimalizálási stratégiák
- Lekérdezésoptimalizálási technikák megvalósítása és tesztelése
Teljesítményhangolás nagy adatkészletekhez
- A teljesítmény optimalizálása nagyméretű adatkészletekhez
- Az Iceberg beépített funkcióinak használata a teljesítmény hangolásához
- Esettanulmányok a teljesítményhangolásról valós forgatókönyvekben
- A teljesítmény hangolása nagyméretű adatkészletekhez
Speciális adatmigráció és -integráció
- Összetett adatszerkezetek migrálása más rendszerekről
- Az Iceberg integrálása valós idejű adatfolyamokkal
- Összetett adatkészletek migrálása és valós idejű adatfolyamok integrálása
Megbízhatóság és következetesség
- Az adatok konzisztenciájának és integritásának biztosítása elosztott környezetekben
- Tranzakciós garanciák megvalósítása és kezelése
- Meghibásodások kezelése és helyreállítási mechanizmusok
- Megbízhatósági és következetes funkciók megvalósítása
Speciális funkciók és testreszabás
- Egyedi katalógus megvalósítások
- Az Iceberg bővítése egyedi funkciókkal
- Egyedi katalógus megvalósítása és az Iceberg funkciók kiterjesztése
Az adatok Goirányzata és megfelelősége
- Adatkezelési szabályzatok végrehajtása
- Az adatszolgáltatási előírások betartása
- Ellenőrzési nyomvonalak és adatsorok kezelése
- Az irányítási és megfelelőségi funkciók megvalósítása
Összegzés és a következő lépések
Követelmények
- Az alapfogalmak, az alapvető műveletek és az Iceberg-tábla kezelésének ismerete
Közönség
- Adatmérnökök
- Adatépítészek
- Adatelemzők
- Szoftverfejlesztők
A nyílt képzésekhez 5+ résztvevő szükséges.
Advanced Apache Iceberg Képzés - Booking
Advanced Apache Iceberg Képzés - Enquiry
Advanced Apache Iceberg - Érdeklődjön a vezetői tanácsadásról!
Érdeklődjön a vezetői tanácsadásról!
Vélemények (3)
Az oktató jól értette a fogalmakat
Josheel - Verizon Connect
Kurzus - Amazon Redshift
Gépi fordítás
Analitikai függvények
khusboo dassani - Tech Northwest Skillnet
Kurzus - SQL Advanced
Gépi fordítás
A tanár a következő módon mutatja be tudását a tárgyban, amelyet tanít:
john ernesto ii fernandez - Philippine AXA Life Insurance Corporation
Kurzus - Data Vault: Building a Scalable Data Warehouse
Gépi fordítás
Közelgő kurzusok
Rokon tanfolyam
SQL Advanced
14 ÓrákEz az oktató által vezetett élő képzés Magyarország (online vagy helyszínen) az intermediális szintű adatbázis-kezelők, fejlesztők és analitikusok számára van szánt, akik kíváncsiak arra, hogy mesterségesen beváltassák az SQL funkciókat a komplex adatműveletek és adatbázis-kezelés terén.
A képzés végén a résztvevők képesek lesznek:
- Uniók, allekérdezések és komplex csatolások használatával előrehaladott lekérdezési technikákat végrehajtani.
- Adatok, táblák, nézetek és indexek pontos hozzáadására, módosítására és törlésére.
- Tranzakciók biztosítják az adatintegritást, és módosítják az adatbázis szerkezeteket.
- Hatékonyan létrehozhatnak és kezelhetnek adatbázisokat robusztus adat tárolásra és visszaállításra.
Amazon Redshift
21 ÓrákA Amazon Redshift egy petabájtos méretű felhő alapú adattárház szolgáltatás az AWS-ben.
Ezen az oktató által vezetett, élő képzésen a résztvevők megtanulják a Amazon Redshift alapjait.
A képzés végére a résztvevők képesek lesznek:
- Telepítés és konfigurálás Amazon Redshift
- Az adatok betöltése, konfigurálása, telepítése, lekérdezése és megjelenítése a Amazon Redshift segítségével
Közönség
- Fejlesztők
- IT szakemberek
A tanfolyam formátuma
- Rész előadás, részben beszélgetés, gyakorlatok és nehéz gyakorlati gyakorlat
Jegyzet
- Ha személyre szabott képzést szeretne kérni ehhez a tanfolyamhoz, kérjük, vegye fel velünk a kapcsolatot, hogy megbeszéljük.
Apache Iceberg Fundamentals
14 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) azon kezdő szintű adatszakértőknek szól, akik szeretnék megszerezni az Apache Iceberg hatékony felhasználásához szükséges ismereteket és készségeket a nagyméretű adatkészletek kezelésére, az adatok integritásának biztosítására, valamint az adatfeldolgozási munkafolyamatok optimalizálása.
A képzés végére a résztvevők képesek lesznek:
- Alaposan ismerje meg az Apache Iceberg architektúráját, szolgáltatásait és előnyeit.
- Ismerje meg a táblázatformátumokat, a particionálást, a séma evolúcióját és az időutazási lehetőségeket.
- Telepítse és konfigurálja az Apache Iceberget különböző környezetekben.
- Iceberg táblák létrehozása, kezelése és manipulálása.
- Ismerje meg az adatok más táblázatformátumokból az Icebergbe történő migrálásának folyamatát.
Big Data Consulting
21 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) középszintű informatikai szakembereknek szól, akik szeretnék fejleszteni tudásukat az adatarchitektúra, az irányítás, a felhőalapú számítástechnika és a big data technológiák terén a nagy adatkészletek hatékony kezelése és elemzése érdekében. szervezetükön belüli adatmigrációhoz.
A képzés végére a résztvevők képesek lesznek:
- Ismerje meg a különböző adatarchitektúrák alapfogalmait és összetevőit.
- Szerezzen átfogó ismereteket az adatkezelési elvekről és azok fontosságáról a szabályozási környezetben.
- Olyan adatkezelési keretrendszerek megvalósítása és kezelése, mint a Dama és a Togaf.
- Használja ki a felhőplatformokat a hatékony adattárolás, -feldolgozás és -kezelés érdekében.
Big Data & Database Systems Fundamentals
14 ÓrákA kurzus a Data Scientist készségkészlet része (Domain: Data and Technology).
Azure Data Lake Storage Gen2
14 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) középszintű adatmérnököknek szól, akik szeretnék megtanulni, hogyan használják a Azure Data Lake Storage Gen2-t hatékony adatelemzési megoldásokhoz.
A képzés végére a résztvevők képesek lesznek:
- Ismerje meg a Azure Data Lake Storage Gen2 architektúráját és főbb jellemzőit.
- Optimalizálja az adattárolást és a hozzáférést a költségek és a teljesítmény érdekében.
- Integrálja a Azure Data Lake Storage Gen2-t más Azure szolgáltatásokkal elemzési és adatfeldolgozási célokra.
- Megoldások fejlesztése a Azure Data Lake Storage Gen2 API használatával.
- A gyakori problémák elhárítása és a tárolási stratégiák optimalizálása.
Data Vault: Building a Scalable Data Warehouse
28 ÓrákEzen az oktató által vezetett, élő képzésen a Magyarország-ban a résztvevők megtanulják, hogyan kell Data Vault-et építeni.
A képzés végére a résztvevők képesek lesznek:
- Ismerje meg az Data Vault 2.0 mögött meghúzódó architektúra és tervezési koncepciókat, valamint annak interakcióját a Big Data, NoSQL és AI között.
- Használjon adattároló technikákat, hogy lehetővé tegye az adattárházban lévő előzményadatok auditálását, nyomon követését és ellenőrzését.
- Konzisztens és megismételhető ETL (Extract, Transform, Load) folyamat kialakítása.
- Építsen és telepítsen nagymértékben méretezhető és megismételhető raktárakat.
Apache Druid for Real-Time Data Analysis
21 ÓrákApache Druid egy nyílt forrású, oszlop-orientált, elosztott adattároló, Java írva. Úgy tervezték, hogy hatalmas mennyiségű eseményadatot gyorsan elnyeljen, és az alacsony késleltetésű OLAP-lekérdezéseket végre tudja hajtani ezekre az adatokra. A Druidot általában üzleti intelligencia alkalmazásokban használják nagy mennyiségű valós idejű és történelmi adat elemzésére. Kiválóan alkalmas gyors, interaktív, analitikus műszerfalak táplálására a végfelhasználók számára. A Druidot olyan cégek használják, mint az Alibaba, az Airbnb, a Cisco , az eBay, a Netflix, a Paypal és a Yahoo.
Ebben az oktató által irányított, élő kurzusban felfedezzük az adattárház-megoldások néhány korlátozását, és megvitatjuk, hogy a Druid hogyan egészítheti ki ezeket a technológiákat, hogy rugalmas és méretezhető adatfolyam-elemzési köteget képezzen. Számos példán keresztül járunk, és lehetőséget biztosítunk a résztvevőknek a Druid-alapú megoldások laboratóriumi környezetben történő megvalósítására és tesztelésére.
A tantárgy formátuma
- Rész előadás, rész vita, nehéz gyakorlati gyakorlat, alkalmi tesztek a megértés felmérésére
Greenplum Administration: Installation, Updates, and Libraries
21 ÓrákGreenplum egy nyílt forráskódú tömeges párhuzamos adattár, amely PostgreSQL alapján készült, és amely előrehaladott analitikai feladatokhoz és nagy méretű adattárházak kezeléséhez szánva.
Ez az oktatóvezetett, élő képzés (online vagy helyszíni) az intermediális szintű adminisztrátoroknak szánva, akik hatékonyan szeretnének telepíteni, konfigurálni és kezelni a Greenplum környezeteket, beleértve a rendszerfrissítések és könyvtárak kezelését.
A képzés végén a résztvevők képesek lesznek:
- Telepíteni és konfigurálni egy termékiesítési kész Greenplum csomópontot.
- Biztonságosan kezelni a rendszerfrissítéseket és patch-eket alkalmazni.
- Kezelni a Greenplum könyvtárakat az analitika és kiterjesztések számára.
- Hibáikat diagnosztizálni és a Greenplum rendszereket monitorozni.
A képzés formája
- Interaktív előadás és viták.
- Greenplum kezelése kontrollált laboratóriumi környezetben.
- Csomópont beállítása, frissítési folyamatokra és rendszerkiterjesztésekre fókuszált vezérelt gyakorlatok.
A képzés testreszabási lehetőségei
- Egy, az Ön környezetéhez vagy adattárhoz igazított képzés kéréséhez, kérjük, lépjen kapcsolatba velünk a megegyezés kidolgozása érdekében.
Greenplum Architecture and Data Modeling
21 ÓrákGreenplum egy nyílt forráskódú, masszív párhuzamos feldolgozású (MPP) adattár, amelyet analitikai és nagy méretű adatok kezelésére terveztek.
Ez az oktatóvezetett, élő (online vagy helyszíni) képzés célja, hogy középfokú és előkelő technikai felhasználók megismerjék a Greenplum belső architektúráját, optimalizált adatmodelleket építsenek és magas teljesítményt érjenek el elosztott környezetekben.
A képzés végén a résztvevők képesek lesznek:
- Megérteni a Greenplum osztatlan architektúráját és párhuzamosítási modelljét.
- Elosztott táblastruktúrákat és lekérdezések optimalizálására szánt partíciókat tervezni.
- Indexelési stratégiákat, tárolási formátumokat és fizikai tervezési technikákat használni.
- EXPLAIN tervrajzokat értelmezni és a legjobb gyakorlatokat alkalmazni a lekérdezések optimalizálására.
A kurzus formátuma
- Interaktív előadás és megbeszélés.
- Sok gyakorlati feladat és gyakorlás.
- Eleven labor környezetben történő gyakorlati implementáció.
A kurzus testreszabási lehetőségek
- A kurzus testreszabott verziójának kéréséhez kérjük, lépjen kapcsolatba velünk a szervezés érdekében.
Greenplum Database
14 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) azoknak a rendszergazdáknak szól, akik szeretnének beállítani Greenplum Database az üzleti intelligencia és az adattárház megoldásokat.
A képzés végére a résztvevők képesek lesznek:
- Felvételi folyamatok kezelése a Greenplummal.
- ETL műveletek végrehajtása az adatok feldolgozásához.
- Meglévő lekérdezésfeldolgozási infrastruktúra kihasználása.
IBM Datastage For Administrators and Developers
35 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) azoknak a középszintű informatikai szakembereknek szól, akik szeretnének átfogó ismereteket szerezni az IBM DataStage-ről mind adminisztratív, mind fejlesztési szempontból, lehetővé téve számukra ennek kezelését és felhasználását. hatékony eszközt a saját munkahelyükön.
A képzés végére a résztvevők képesek lesznek:
- Ismerje meg a DataStage alapfogalmait.
- Ismerje meg a DataStage környezetek hatékony telepítését, konfigurálását és kezelését.
- Csatlakozzon különféle adatforrásokhoz, és hatékonyan nyerje ki az adatokat adatbázisokból, egyszerű fájlokból és külső forrásokból.
- Hatékony adatbetöltési technikák alkalmazása.
Apache Kylin: Real-Time OLAP on Big Data
14 ÓrákEz a tanácsadó által vezetett, élő oktatás (Magyarország-ban, online vagy helyszíni) középső szintű nagy adatokkal foglalkozó szakemberek számára készült, akik szeretnék a Apache Kylin-t használni valós idejű adattárak építésére és nagymértékű adatkészleteken végzett multidimensionális elemzésre.
Ennek az oktatásnak a befejezése után a résztvevők képesek lesznek:
- A Apache Kylin valós idejű adatforrásokkal történő beállítása és konfigurálása.
- OLAP kockák tervezése és építése batch és folyamatos adatokra.
- Komplex lekérdezések végzése alapértelmezett másodpercbeli latenciával a Kylin SQL felületén keresztül.
- Kylin integrálása BI eszközökkel interaktív adatvizualizációhoz.
- Telepítés teljesítményének optimalizálása és erőforrások hatékony kezelése a Kylin-ben.
Oracle SQL for Development and Database Management
35 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) középszintű adatbázis-szakértőknek szól, akik szeretnék fejleszteni Oracle SQL fejlesztési és adminisztrációs készségeiket.
A képzés végére a résztvevők képesek lesznek:
- Összetett SQL lekérdezések létrehozása és optimalizálása.
- Az adatbázisok hatékony kezelése a Oracle SQL eszközökkel.
- Alkalmazza a legjobb gyakorlatokat az adatbázisok fejlesztésében és karbantartásában.
- Felhasználói hozzáférés és adatbázis-biztonság adminisztrálása Oracle környezetben.