Big Data Kurzusok

Big Data Kurzusok

Helyi, oktató által vezetett élő Big Data tanfolyamok kezdődnek a Bevezetés az elemi koncepciók Big Data, majd előrehaladás a programozási nyelvek és módszertanok használt adatok elemzése. A nagyméretű adattárolás, az elosztott feldolgozás és a skálázhatóság lehetővé tételére szolgáló eszközök és infrastruktúrák megvitatásra, összehasonlításra és végrehajtásra kerülnek a demo gyakorlatban. A Big Data képzés "helyszíni élő képzés" vagy "távoli élő képzés" formájában érhető el. A helyszíni élő képzés helyi szinten valósulhat meg az ügyfél telephelyén Magyarország vagy a NobleProg vállalati oktatóközpontjaiban Magyarország . A távoli élőképzés interaktív, távoli asztal segítségével történik. NobleProg - a helyi oktatási szolgáltató

Ajánlások

★★★★★
★★★★★

Kurzusleírás

KódNévIdőtartamÁttekintés
smtwebintSemantic Web Overview7 óraA Szemantikus Web a World Wide Web Consortium (W3C) által vezetett kollaboratív mozgalom, amely elősegíti az adatok közös formátumát a világhálón. A Szemantikus Web olyan közös keretet biztosít, amely lehetővé teszi az adatok megosztását és újrahasznosítását az alkalmazások, a vállalati és a közösségi határok között.
tigonTigon: Real-time Streaming for the Real World14 óraA Tigon egy nyílt forráskódú, valós idejű, lowlatency, highthroughput, natív YARN streamfolyam keretrendszer, amely a HDFS és a HBase tetején ül a kitartásért A Tigon alkalmazások olyan eseteket használnak fel, mint például a hálózati behatolás felderítése és elemzés, a közösségi médiapiaci elemzés, a helyelemzés és a felhasználók számára valós idejű ajánlások Ez az oktatott, élő képzés bemutatja a Tigon megközelítését a valós idejű és a tételes feldolgozáshoz, miközben a résztvevők egy mintaalkalmazáson keresztül járnak A képzés végére a résztvevők képesek lesznek: Készítsen erőteljes adatfeldolgozó alkalmazásokat nagy mennyiségű adat kezelésére Folyamatáramforrások, például a Twitter és a Webszerver naplók Használja a Tigont a folyamok gyors összekapcsolásához, szűréséhez és aggregálásához Közönség Fejlesztők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
BDATRBig Data Analytics for Telecom Regulators16 óraA szabályozók megfelelőségének elérése érdekében a CSP-k (Kommunikációs szolgáltatók) megérinthetik a Bigot Olyan adatelemzést, amely nem csak a megfelelés teljesítéséhez, hanem a hatálya alá tartozik hogy növeljék az ügyfelek elégedettségét, és ezáltal csökkentik a kiesést Valójában azóta a megfelelés a szerződéshez kötött Szolgáltatás minőségével kapcsolatos, a megfelelőség, javítja a CSP "versenyelőnyét" Ezért fontos, hogy A szabályozóknak képesnek kell lenniük arra, hogy tanácsot adjanak / irányítsanak a Big Data analitikai gyakorlatnak a CSP-k számára kölcsönös előnyöket biztosítanak a szabályozók és a CSP-k között 2 nap tanfolyam: 8 modul, 2 óra minden = 16 óra .
graphcomputingIntroduction to Graph Computing28 óraA grafikonok nagyszámú valós világproblémát írhatnak le Például a webgrafikon, a közösségi hálózat diagramja, a vonat hálózati diagramja és a nyelvrajz Ezek a grafikonok rendkívül nagyok; ezek feldolgozása speciális eszközöket és folyamatokat igényel, ezeket az eszközöket és folyamatokat Graph Computing-nak nevezik (más néven Graph Analytics) Ebben az oktatott, élő képzésben a résztvevők megtudják a grafikonok feldolgozásának technológiai kínálatát és megvalósítási módszereit A cél az, hogy azonosítsák a valós objektumokat, azok tulajdonságait és kapcsolatait, majd ezeket a kapcsolatokat modellezzük és adatként feldolgozzuk egy grafikon-számítási megközelítés alkalmazásával Kezdjük széles körű áttekintéssel és szűkítjük a konkrét eszközöket, miközben számos esettanulmányt, kézmozdulatot és élő telepítést végzünk A képzés végére a résztvevők képesek lesznek: Értsd meg, hogy a grafikonadatok továbbra is fennállnak-e és hogyan haladnak át Válassza ki az adott feladat legjobb keretét (a gráf adatbázisból a kötegelt feldolgozó keretbe) Végezze el a Hadoop, a Spark, a GraphX ​​és a Pregel használatát, hogy számos gépen párhuzamosan végezzen grafikus számítást Tekintse meg a realworld nagy adatproblémáit grafikonok, folyamatok és átjárók tekintetében Közönség Fejlesztők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
matlabpredanalyticsMatlab for Predictive Analytics21 óraA prediktív analitika az adatelemzés használatának folyamata a jövőre vonatkozó előrejelzések készítése céljából Ez a folyamat adatbányászattal, statisztikával és gépi tanulási technikákkal együtt adatokat használ fel a jövőbeli események előrejelzésére szolgáló prediktív modell létrehozására Ebben az oktatott, élő képzésben a résztvevők megtanulják, hogyan használják a Matlabot prediktív modellek készítéséhez és nagymintás adatkészletekhez való alkalmazására, hogy előrejelezzék a jövőbeli eseményeket az adatok alapján A képzés végére a résztvevők képesek lesznek: Prediktív modellek létrehozása történelmi és tranzakciós adatok mintáinak elemzésére Használja a prediktív modellezést a kockázatok és lehetőségek azonosítása érdekében Készítsen matematikai modelleket, amelyek rögzítik a fontos tendenciákat Az eszközök és az üzleti rendszerek adatainak felhasználásával csökkentheti a hulladékot, időt takaríthat meg, vagy csökkentheti a költségeket Közönség Fejlesztők mérnökök Domain szakértők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
nifidevApache NiFi for Developers7 óraAz Apache NiFi (Hortonworks DataFlow) valós idejű integrált adatlogisztika és egyszerű eseményfeldolgozó platform, amely lehetővé teszi az adatok közötti mozgatást, nyomon követést és automatizálást Flow-alapú programozással van írva, és egy webbased felhasználói felületet biztosít az adatfolyamok valós időben történő kezelésére Ebben az oktatott, élő képzésben a résztvevők megismerik az áramlás alapú programozás alapjait, mivel számos demo kiterjesztést, összetevőt és processzort fejlesztenek az Apache NiFi segítségével A képzés végére a résztvevők képesek lesznek: Ismerje meg a NiFi architektúráját és adatfolyam-koncepcióit Fejlessze a bővítményeket a NiFi és a harmadik fél API-k használatával Egyéni fejleszteni saját Apache Nifi processzort Lerontani és feldolgozni valós idejű adatokat különböző és nem gyakori fájlformátumokból és adatforrásokból Közönség Fejlesztők Adatmérnökök A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
nifiApache NiFi for Administrators21 óraAz Apache NiFi (Hortonworks DataFlow) valós idejű integrált adatlogisztika és egyszerű eseményfeldolgozó platform, amely lehetővé teszi az adatok közötti mozgatást, nyomon követést és automatizálást Flow-alapú programozással van írva, és egy webbased felhasználói felületet biztosít az adatfolyamok valós időben történő kezelésére Ebben az oktatott, élő képzésben a résztvevők megtanulják, hogyan alkalmazzák és kezeljék az Apache NiFi-t egy élő labor környezetben A képzés végére a résztvevők képesek lesznek: Az Apachi NiFi telepítése és beállítása Adatforrások forrása, átalakítása és kezelése különböző, elosztott adatforrásokból, beleértve az adatbázisokat és a nagy adatkészleteket Az adatfolyamok automatizálása A streaming analytics engedélyezése Különböző megközelítéseket alkalmaz az adatbevitelhez A nagy adatok átalakítása és üzleti megismerések Közönség Rendszergazdák Adatmérnökök Fejlesztők DevOps A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
solrcloudSolrCloud14 óraAz Apache SolrCloud egy elosztott adatfeldolgozó motor, amely megkönnyíti az elosztott hálózaton található fájlok keresését és indexelését Ebben az oktatott, élő képzésben a résztvevők megtanulják, hogyan hozzanak létre egy SolrCloud példányt az Amazon AWS-en A képzés végére a résztvevők képesek lesznek: Megérteni a SolCloud jellemzőit és hogyan hasonlíthatók össze a hagyományos masterslave klaszterekkel Egy SolCloud központosított fürt konfigurálása Olyan folyamatok automatizálása, mint a széllel való kommunikáció, dokumentumok hozzáadásával a kártyákhoz stb Használja a Zookeeper-t SolrCloud-val együtt a folyamatok automatizálása érdekében Használja a felületet a hibajelentés kezeléséhez Töltsön be egy SolrCloud telepítést Állítsa be a SolrCloud-ot a folyamatos feldolgozáshoz és a hibakereséshez Közönség Solr fejlesztők Projektmenedzserek Rendszergazdák Kereső elemzők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
datavaultData Vault: Building a Scalable Data Warehouse28 óraAz adatvágás modellezés egy olyan adatbázis-modellezési technika, amely hosszú távú, több forrásból származó adatok tárolását biztosítja Az adatbolt a tények egy változatát tárolja, vagy "az összes adatot, egész idő alatt" A rugalmas, méretezhető, konzisztens és alkalmazkodó formatervezés a 3 normál forma (3NF) és a csillagséma legfontosabb szempontjait tartalmazza Ebben az oktatott, élő edzésben a résztvevők megtudják, hogyan kell egy Data Vaultot létrehozni A képzés végére a résztvevők képesek lesznek: Ismerje meg a Data Vault 20 mögötti architektúrát és tervezési koncepciókat, valamint a Big Data, a NoSQL és az AI együttműködését Adatbegyűjtési technikák használata az adatraktárban végzett adatok ellenőrzése, nyomon követése és ellenőrzése céljából Egységes és megismételhető ETL (Extract, Transform, Load) folyamat kifejlesztése Nagyon skálázható és megismételhető raktárak kiépítése és telepítése Közönség Adatmodellezők Adattárolási szakember Üzleti intelligencia szakemberek Adatmérnökök Adatbázis-adminisztrátorok A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
datameerDatameer for Data Analysts14 óraA Datameer a Hadoopra épülő üzleti intelligencia és elemzési platform Ez lehetővé teszi a végfelhasználók számára, hogy könnyedén hozzáférjenek, feltárhassanak és korrelálhassanak nagy méretű, strukturált, félig strukturált és strukturálatlan adatokat Ebben az oktatott, élő képzésben a résztvevők megtanulják használni a Datameert, hogy leküzdjék a Hadoop meredek tanulási görbéjét, miközben átmegyek egy sor nagy adatforrás létrehozásán és elemzésén A képzés végére a résztvevők képesek lesznek: Hozzon létre, gondoskodjon és interaktíven vizsgálja meg a vállalati adatok tóját Hozzáférés az üzleti intelligencia adattárházakhoz, tranzakciós adatbázisokhoz és más analitikus üzletekhez Használjon táblázatos felhasználói felületet a végfelhasználói adatfeldolgozó csővezetékek tervezéséhez Az előre telepített funkciók elérése komplex adatkapcsolatok feltérképezéséhez Használja a draganddrop varázslókat az adatok megjelenítéséhez és az irányítópultok létrehozásához A lekérdezési eredmények elemzéséhez táblázatokat, diagramokat, grafikonokat és térképeket használjon Közönség Adatelemzők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
ApacheIgniteApache Ignite: Improve Speed, Scale and Availability with In-Memory Computing14 óraApache Ignite is an in-memory computing platform that sits between the application and data layer to improve speed, scale, and availability.

In this instructor-led, live training, participants will learn the principles behind persistent and pure in-memory storage as they step through the creation of a sample in-memory computing project.

By the end of this training, participants will be able to:

- Use Ignite for in-memory, on-disk persistence as well as a purely distributed in-memory database.
- Achieve persistence without syncing data back to a relational database.
- Use Ignite to carry out SQL and distributed joins.
- Improve performance by moving data closer to the CPU, using RAM as a storage.
- Spread data sets across a cluster to achieve horizontal scalability.
- Integrate Ignite with RDBMS, NoSQL, Hadoop and machine learning processors.

Audience

- Developers

Format of the course

- Part lecture, part discussion, exercises and heavy hands-on practice
sparkpythonPython and Spark for Big Data (PySpark)21 óraA Python egy magas szintű programozási nyelv, amely híres a világos szintaxisáról és a kódolvasásról A Spark egy adatfeldolgozó motor, amelyet a nagy adatok lekérdezésében, elemzésében és átalakításában használnak A PySpark lehetővé teszi a felhasználók számára a Spark és a Python kapcsolatát Ebben az oktatott, élő képzésben a résztvevők megtanulják használni a Python és a Spark együttes használatát a nagy adatok elemzéséhez, mivel kézműves gyakorlatokon dolgoznak A képzés végére a résztvevők képesek lesznek: Ismerje meg, hogyan használhatja a Sparkot a Python segítségével a Big Data elemzéséhez Olyan gyakorlatokon dolgozik, amelyek utánozzák a valós körülmények körülményeit Használjon különböző eszközöket és technikákat a nagy adatelemzéshez a PySpark használatával Közönség Fejlesztők Informatikai szakemberek Adatkutatók A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
vespaVespa: Serving Large-Scale Data in Real-Time14 óraVespa egy nyílt forráskódú nagy adatfeldolgozó és kiszolgáló motor, amelyet a Yahoo hoz létre Felhasználja a felhasználói lekérdezéseket, ajánlásokat tesz közzé, és személyre szabott tartalmakat és reklámokat nyújt valós időben Ez az oktatott, élő képzés bemutatja a nagyméretű adatok kiszolgálására vonatkozó kihívásokat, és a résztvevőket olyan alkalmazás létrehozásával hozza létre, amely képes a felhasználó kéréseire adott válaszok kiszámolására, a nagyméretű adatkészletek felett valós időben A képzés végére a résztvevők képesek lesznek: A Vespa használatával gyorsan kiszámíthatja az adatokat (tárolja, keresheti, rendezi, rendszerezi) a kiszolgálás ideje alatt, amíg a felhasználó vár A Vespa megvalósítása a meglévő alkalmazásokban, szolgáltatáskereséssel, ajánlásokkal és személyre szabással Integrálja és telepítse a Vespát meglévő nagy adatrendszereivel, mint például a Hadoop és a Storm Közönség Fejlesztők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
apexApache Apex: Processing Big Data-in-Motion21 óraAz Apache Apex egy YARNnative platform, amely egységesíti az adatfolyamokat és a tételek feldolgozását A nagy adatinformációt olyan méretezhető, teljesítményű, hibatűrő, állapotos, biztonságos, elosztott és könnyen működőképes módszerekkel dolgozza fel Ez az oktatott, élő képzés bemutatja az Apache Apex egységes stream feldolgozási architektúráját, és a résztvevőket egy megosztott alkalmazás létrehozásával hozza létre az Apex a Hadoop használatával A képzés végére a résztvevők képesek lesznek: Ismertesse az adatfeldolgozó csővezeték fogalmakat, például a források és mosdók csatlakozóit, a közös adatátalakításokat stb Építsen, skálázzon és optimalizálja az Apex alkalmazást A valós idejű adatfolyamokat megbízhatóan és minimális késleltetéssel valósítja meg Használja az Apex Core és az Apex Malhar könyvtárat a gyors alkalmazásfejlesztés érdekében Használja az Apex API-t a meglévő Java kód megírásához és újrafelhasználásához Integrálja az Apex-et más alkalmazásokba feldolgozó motorként Tune, teszt és skála Apex alkalmazások Közönség Fejlesztők Vállalati építészek A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
alluxioAlluxio: Unifying Disparate Storage Systems7 óraAz Alexio egy nyílt forráskódú virtuális elosztott tárolórendszer, amely egyesíti a különböző tárolási rendszereket, és lehetővé teszi az alkalmazások számára, hogy kölcsönhatásba lépjenek az adatok memória sebességével Ezt olyan vállalatok használják, mint az Intel, a Baidu és az Alibaba Ebben az oktatott, élő képzésben a résztvevők megtanulják használni az Alexio-t, hogy áthidalják a különböző számítási kereteket a tárolórendszerekkel és hatékonyan kezelhessék a többasztalos méretadatokat, miközben átmegyek egy alkalmazás létrehozásával az Alluxio-val A képzés végére a résztvevők képesek lesznek: Fejleszteni kell egy alkalmazást az Alluxio-val Nagy adatrendszerek és alkalmazások csatlakoztatása egy névtér megőrzése mellett Hatékony adat kivonása nagy adatokból bármilyen tároló formátumban Javítani kell a munkateher teljesítményét Telepítse és kezelje az Alluxio önálló vagy fürtözött Közönség Adatkutató Fejlesztő Rendszergazda A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
flinkFlink for Scalable Stream and Batch Data Processing28 óraAz Apache Flink egy nyílt forráskódú keretrendszer a skálázható adatfolyam és a kötegelt adatfeldolgozás számára Ez az oktatott, élő képzés bemutatja az elosztott adatfolyam és a kötegelt adatfeldolgozás mögötti elveket és megközelítéseket, és a valós idejű, adatátviteli alkalmazás létrehozásával valósítja meg a résztvevőket A képzés végére a résztvevők képesek lesznek: Állítson be környezetet az adatelemzési alkalmazások fejlesztéséhez A Flink alapú, hibatűrő, adatátviteli alkalmazások csomagolása, végrehajtása és monitorozása Kezelheti a különböző munkaterheket Végezzen fejlett analitikákat Flink ML használatával Állítson be egy multinode Flink fürtöt A teljesítmény mérése és optimalizálása Integrálja a Flink-et különböző Big Data rendszerekkel A Flink képességek összehasonlítása más nagy adatfeldolgozási keretekével Közönség Fejlesztők Építészek Adatmérnökök Analytics szakemberek Műszaki menedzserek A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
samzaSamza for Stream Processing14 óraAz Apache Samza egy nyílt forráskódú nearrealtime, aszinkron számítási keretfolyam a folyam feldolgozásához Az Apache Kafka az üzenetküldést használja, és az Apache Hadoop YARN a hibatűrésre, a processzor elszigetelésére, a biztonságra és az erőforrás-gazdálkodásra Ez az oktatott, élő képzés bemutatja az üzenetkezelő rendszerek és az elosztott adatfolyam-feldolgozás mögött álló elveket, miközben a résztvevőket a Samzabased minta és a munka végrehajtása révén hozza létre A képzés végére a résztvevők képesek lesznek: Használja a Samza-t az üzenetek előállításához és fogyasztásához szükséges kód egyszerűsítéséhez Távolítsa el az üzenetek kezelését egy alkalmazásból Használja a Samza-t a nearrealtime aszinkron számítás végrehajtásához Használja az adatfolyam-feldolgozást, hogy magasabb szintű absztrakciót biztosítson az üzenetküldő rendszereknél Közönség Fejlesztők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
zeppelinZeppelin for Interactive Data Analytics14 óraAz Apache Zeppelin egy webbased notebook a Hadoop és a Spark alapú adatok rögzítésére, feltérképezésére, vizualizálására és megosztására Ez az oktatott, élő képzés bemutatja az interaktív adatelemzés mögött álló fogalmakat, és a résztvevőket a Zeppelin telepítésével és használatával egy singleuser vagy többfelhasználós környezetben mutatja be A képzés végére a résztvevők képesek lesznek: Telepítse és konfigurálja a Zeppelin-t Fejleszteni, rendezni, végrehajtani és megosztani az adatokat egy böngészőalapú felületen Vizsgálja meg az eredményeket anélkül, hogy utalna a parancssorra vagy a klaszterre vonatkozó részletekre Hosszú munkafolyamatok végrehajtása és együttműködése Dolgozzon a számos plugin nyelv / adatfeldolgozási visszahúzás bármelyikével, például a Scala (Apache Spark), a Python (Apache Spark), a Spark SQL, a JDBC, a Markdown és a Shell segítségével Integrálja a Zeppelin-t a Spark, a Flink és a Map Reduce segítségével A Zeppelin és az Apache Shiro többszörös felhasználási lehetőségeit biztosítsa Közönség Adatmérnökök Adatelemzők Adatkutatók Szoftverfejlesztők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
magellanMagellan: Geospatial Analytics on Spark14 óraA Magellan egy nyílt forráskódú elosztott végrehajtó motor a nagy adatok térinformatikai analíziséhez Az Apache Spark tetején végrehajtva kiterjeszti a Spark SQL-t, és relációs absztrakciót biztosít a térinformatikai analízishez Ez az oktatott, élő képzés bemutatja a geospaciális elemzések megvalósításának koncepcióit és megközelítéseit, és a Magellan on Spark használatával előrejelző elemző alkalmazás létrehozásával jár a résztvevők számára A képzés végére a résztvevők képesek lesznek: Hatékonyan lekérdezzük, elemezzük és csatlakozzunk térinformatikai adatkészletekhez A térinformatikai adatok végrehajtása az üzleti intelligencia és a prediktív elemzési alkalmazások területén Használja a térbeli környezetet a mobil eszközök, szenzorok, naplók és hordozható eszközök képességeinek bővítésére Közönség Alkalmazásfejlesztők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
hdpHortonworks Data Platform (HDP) for Administrators21 óraA Hortonworks Data Platform egy nyílt forráskódú Apache Hadoop támogató platform, amely stabil alapot nyújt az Apache Hadoop ökoszisztémában található nagy adat-megoldások fejlesztéséhez Ez az oktatott élő képzés bemutatja a Hortonworksot, és a Spark + Hadoop megoldás bevezetésével jár a résztvevők között A képzés végére a résztvevők képesek lesznek: Használja a Hortonworksot a Hadoop nagy megbízhatóságú futtatására Egyesítse a Hadoop biztonságát, irányítását és működését a Spark agilis analitikus munkafolyamataival Használja a Hortonworks-ot, hogy megvizsgálja, validálja, igazolja és támogassa az egyes komponenseket egy Spark projektben Feldolgozza a különböző típusú adatokat, beleértve a strukturált, strukturálatlan, inmotion és atrest Közönség Hadoop adminisztrátorok A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
PentahoDIPentaho Data Integration Fundamentals21 óraA Pentaho Data Integration egy nyílt forráskódú adatintegrációs eszköz a feladatok és adatátalakítások meghatározásához Ebben az oktatott, élő képzésben a résztvevők megtanulják, hogyan használják a Pentaho Data Integration erőteljes ETL képességét és gazdag grafikus felületét egy egész nagy adatéletciklus kezelésére, ami maximalizálja az adatok értékét a szervezet számára A képzés végére a résztvevők képesek lesznek: Létrehozása, előnézete és futtatása lépéseket és komlót tartalmazó alapvető adatátalakításokat Állítsa be és biztosítsa a Pentaho Enterprise Repository-ot A különböző adatforrások kihasználása és az igazság egyetlen, egységesített verziójának létrehozása analitikus formátumban Adjon eredményeket a harmadik részhez további feldolgozásra Közönség Adatelemző ETL fejlesztők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
bigdatabicriminalBig Data Business Intelligence for Criminal Intelligence Analysis35 óraA technológiák előrehaladása és az egyre növekvő számú információ átalakítja a bűnüldözés végrehajtását Azok a kihívások, amiket a Big Data jelent, közel annyira ijesztőek, mint a Big Data ígérete Az adatok hatékony tárolása ezen kihívások egyike; ténylegesen elemezve ez egy másik Ebben az oktatott, élő képzésben a résztvevők meg fogják tanulni a gondolkodásmódot, amellyel megközelíthetik a Big Data technológiákat, megvizsgálhatják a meglévő folyamatokra és politikákra gyakorolt ​​hatásukat, és végrehajtják ezeket a technológiákat a bűncselekmények azonosítása és a bűnözés megelőzése céljából A bűnüldöző szervek világszerte végzett esettanulmányait megvizsgálják, hogy betekintést nyerjenek az örökbefogadási megközelítésekhez, kihívásokhoz és eredményekhez A képzés végére a résztvevők képesek lesznek: Kombinálja a Big Data technológiát a hagyományos adatgyűjtési folyamatokkal, hogy összefoglalja a történetet egy vizsgálat során Nagyméretű adattárolási és feldolgozási megoldásokat valósít meg az adatok elemzéséhez Készítsen javaslatot a legmegfelelőbb eszközök és folyamatok elfogadására, amelyek lehetővé teszik a bűnügyi nyomozás datalizált megközelítését Közönség Műszaki háttérrel rendelkező bűnüldöző szakemberek A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
hadooppythonHadoop with Python28 óraA Hadoop egy népszerű nagy adatfeldolgozási keretrendszer A Python egy magas szintű programozási nyelv, amely híres a világos szintaxisáról és a kódolvasásról Ebben az oktatott, élő edzésben a résztvevők megtanulják használni a Hadoop-ot, a MapReduce-ot, a Pig-ot és a Sparkot a Python használatával, miközben számos példát követnek és használnak eseteket A képzés végére a résztvevők képesek lesznek: Ismerje meg a Hadoop, a MapReduce, a Pig és a Spark mögötti alapvető fogalmakat Használja a Pythonot Hadoop elosztott fájlrendszerrel (HDFS), MapReduce-del, Sertéssel és Spark-dal A Snakebite használatával programozhatja a HDFS Pythonon belüli elérését Használja a mrjobbot a MapReduce feladatok Pythonba írásához Írjon Spark programokat Python-val A disznó funkcionalitásának bővítése Python UDF-ek segítségével A MapReduce feladatok és a sertésszkriptek kezelése Luigi segítségével Közönség Fejlesztők Informatikai szakemberek A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
kylinApache Kylin: From Classic OLAP to Real-Time Data Warehouse14 óraAz Apache Kylin szélsőséges, elosztott analitikus motor a nagy adatokért Ebben az oktatott élő képzésben a résztvevők megtanulják használni az Apache Kylint, hogy hozzon létre egy valós idejű adattárházat A képzés végére a résztvevők képesek lesznek: Élvezze a valós idejű streaming adatokat a Kylin segítségével Használja az Apache Kylin hatalmas funkcióit, beleértve a hópehely séma támogatását, a gazdag SQL felületet, a szikrakötést és a másodperces lekérdezési késleltetést jegyzet A Kylin legfrissebb verzióját használjuk (az írásból, Apache Kylin v20-ból) Közönség Nagy adatmérnökök Nagy adatelemzők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
sparksqlApache Spark SQL7 óraA Spark SQL az Apache Spark modulja a strukturált és strukturálatlan adatok feldolgozásához A Spark SQL információt szolgáltat az adatok szerkezetéről, valamint az elvégzett számításról Ez az információ használható az optimalizálás végrehajtására A Spark SQL két gyakori felhasználása: SQL lekérdezések végrehajtására egy létező Hive telepítéséről származó adatok olvasása Ebben az oktatott, élő képzésben (helyszíni vagy távoli) a résztvevők megtanulják, hogyan kell elemezni a különböző típusú adathalmazokat a Spark SQL segítségével A képzés végére a résztvevők képesek lesznek: Telepítse és konfigurálja a Spark SQL-t Végezze el az adatok elemzését a Spark SQL segítségével Lekérdező adathalmazok különböző formátumokban Adatok és lekérdezések eredményeinek megjelenítése Közönség Adatelemzők Adatkutatók Adatmérnökök A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat Megjegyzések Ha erre a kurzusra személyre szabott képzést szeretne kérni, kérjük, vegye fel velünk a kapcsolatot .
sparkcloudApache Spark in the Cloud21 óraApache Spark's learning curve is slowly increasing at the begining, it needs a lot of effort to get the first return. This course aims to jump through the first tough part. After taking this course the participants will understand the basics of Apache Spark , they will clearly differentiate RDD from DataFrame, they will learn Python and Scala API, they will understand executors and tasks, etc. Also following the best practices, this course strongly focuses on cloud deployment, Databricks and AWS. The students will also understand the differences between AWS EMR and AWS Glue, one of the lastest Spark service of AWS.

AUDIENCE:

Data Engineer, DevOps, Data Scientist
bigdataanahealthBig Data Analytics in Health21 óraA nagy adatelemzés magában foglalja a nagy mennyiségű változatos adatkészletek vizsgálatát a korrelációk, a rejtett minták és más hasznos ismeretek feltárása érdekében Az egészségügyi ágazat bonyolult heterogén orvosi és klinikai adatokat tartalmaz Nagy adatelemzés alkalmazása az egészségügyi adatokra hatalmas potenciállal rendelkezik az egészségügyi ellátás javításának betekintésében Mindazonáltal ezeknek az adatkészleteknek a nagysága nagy kihívást jelent az elemzések és gyakorlati alkalmazások számára egy klinikai környezetben Ebben az oktatott, élő képzésben (távoli) a résztvevők megtanulják, hogyan végezzenek nagy adatelemzéseket az egészségügyben, miközben egy sor kézmozdulatot végeznek A képzés végére a résztvevők képesek lesznek: Nagyméretű adatelemző eszközök telepítése és konfigurálása, mint például a Hadoop MapReduce és a Spark Ismerje meg az orvosi adatok jellemzőit Nagy adattechnikákat alkalmazzon az orvosi adatok kezelésére Tanulmányozzon nagy adatrendszert és algoritmust az egészségügyi alkalmazásokkal összefüggésben Közönség Fejlesztők Adatkutatók A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat jegyzet Ha erre a kurzusra személyre szabott képzést szeretne kérni, kérjük, vegye fel velünk a kapcsolatot .
arrowApache Arrow for Data Analysis across Disparate Data Sources14 óraAz Apache Arrow egy nyílt forráskódú adatfeldolgozási keretrendszer Gyakran más adatgyűjtési eszközökkel együtt használják a különféle adattárolók elemzéshez való hozzáféréséhez Jól integrálható más technológiákkal, mint például GPU adatbázisok, gépi tanulási könyvtárak és eszközök, végrehajtási motorok és adatmegjelenítési keretek Ezen a helyszínen oktatott, élő képzésen a résztvevők megtanulják integrálni az Apache Arrow-ot különböző Data Science keretekkel, hogy hozzáférjenek az adatok különböző adatforrásokból A képzés végére a résztvevők képesek lesznek: Az Apache Arrow telepítése és konfigurálása elosztott fürtözött környezetben Az Apache nyíl segítségével különböző adatokhoz férhet hozzá Az Apache Arrow használatával megkerülheti a komplex ETL csővezetékek megépítésének és fenntartásának szükségességét Elemezze az adatokat különféle adatforrások között anélkül, hogy központosított adattárba kellene összevonnia Közönség Adatkutatók Adatmérnökök A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat jegyzet Ha erre a kurzusra személyre szabott képzést szeretne kérni, kérjük, vegye fel velünk a kapcsolatot .
sqoopMoving Data from MySQL to Hadoop with Sqoop14 óraA Sqoop egy nyílt forráskódú szoftvereszköz az adatok Hadoop és relációs adatbázisok vagy nagyszámítógépek közötti átvitelére A relációs adatbázis-kezelő rendszer (RDBMS), például a MySQL vagy az Oracle vagy a mainframe adatait a Hadoop Distributed File System (HDFS) rendszerbe importálhatja Ezután az adatok átalakíthatók a Hadoop MapReduce-ban, majd újra exportálhatók RDBMS-be Ebben az oktatott, élő képzésben a résztvevők megtanulják használni a Sqoop-ot, hogy adatokat importáljanak egy hagyományos relációs adatbázisból a Hadoop tárolóba, például a HDFS-re vagy a Hive-ra és fordítva A képzés végére a résztvevők képesek lesznek: Az Sqoop telepítése és konfigurálása Adatok importálása a MySQL-ről a HDFS-re és a Hive-re Adatok importálása a HDFS és a Hive adatbázisból a MySQL-be Közönség Rendszergazdák Adatmérnökök A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat jegyzet Ha erre a kurzusra személyre szabott képzést szeretne kérni, kérjük, vegye fel velünk a kapcsolatot .
beamUnified Batch and Stream Processing with Apache Beam14 óraAz Apache Beam egy nyílt forrású, egységes programozási modell párhuzamos adatfeldolgozó csővezetékek meghatározására és végrehajtására Ez a hatalom abban rejlik, hogy mind a kötegelt, mind az áramló csővezetéket képes működtetni, a végrehajtás pedig egy Beam támogatott elosztott feldolgozási hátterének egyikével történik: az Apache Apex, az Apache Flink, az Apache Spark és a Google Cloud Dataflow Az Apache Beam hasznos az ETL (Extract, Transform, és Load) feladatokhoz, mint például az adatok átvitele különböző adattárolók és adatforrások között, az adatok átalakítása egy kívánatosabb formátumba, és az adatok új rendszerre történő betöltése Ebben az oktatott, élő képzésben (helyszíni vagy távoli) a résztvevők megtanulják, hogyan hajtsa végre az Apache Beam SDK-kat egy Java vagy Python alkalmazásban, amely meghatározza az adatfeldolgozó csővezetéket egy nagy adatkészlet kisebb darabokra történő bontására független, párhuzamos feldolgozás céljából A képzés végére a résztvevők képesek lesznek: Az Apache Beam telepítése és konfigurálása Egyetlen programozási modellt használjon a batch és a stream feldolgozás elvégzéséhez Java vagy Python alkalmazással Csővezetékek végrehajtása több környezetben Közönség Fejlesztők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat jegyzet Ez a kurzus a Scala számára lesz elérhető a jövőben Kérjük, vegye fel velünk a kapcsolatot .

Upcoming Courses

KurzusDátumÁr [Távoktatás / Tantermi]
Impala for Business Intelligence - Budapest, V. kerületh, 2018-12-31 09:304500EUR / 5300EUR
Impala for Business Intelligence - Debrecenh, 2018-12-31 09:304500EUR / 5300EUR
Impala for Business Intelligence - Miskolc, Tapolcafürdősze, 2019-01-30 09:304500EUR / 5300EUR
Impala for Business Intelligence - Szeged, Felső Tisza-Partsze, 2019-02-06 09:304500EUR / 5300EUR
Impala for Business Intelligence - Pécs, belvárosh, 2019-02-11 09:304500EUR / 5300EUR
Weekend Big Data courses, Evening Big Data training, Big Data boot camp, Big Data instructor-led, Weekend Big Data training, Evening Big Data courses, Big Data coaching, Big Data instructor, Big Data trainer, Big Data training courses, Big Data classes, Big Data on-site, Big Data private courses, Big Data one on one training

Course Discounts

KurzusHelyszínDátumÁr [Távoktatás / Tantermi]
OCEB Certified Expert in BPM - Technical Intermediate Exam PreparationMiskolc, Tapolcafürdőh, 2019-01-14 09:303150EUR / 3750EUR
Marketing Analytics using RSzeged, Felső Tisza-Parth, 2019-01-14 09:304725EUR / 5525EUR
Object-Oriented Analysis and Design using UMLMiskolc, Tapolcafürdőh, 2019-01-21 09:304725EUR / 5525EUR
Handling Conflict with ConfidenceBudapest, V. kerületcs, 2019-01-31 09:302970EUR / 3570EUR
R for Data Analysis and Research Debrecencs, 2019-06-13 09:301575EUR / 1975EUR

Hírlevél kedvezmény

Tiszteletben tartjuk adatai bizalmas jellegét. A NobleProg soha nem továbbítja e-mail címét harmadik személyeknek.
Hírlevelünkről bármikor leiratkozhat.

Kiemelt ügyfeleink

is growing fast!

We are looking to expand our presence in Hungary!

As a Business Development Manager you will:

  • expand business in Hungary
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!