Big Data Kurzusok

Big Data Kurzusok

Helyi, oktató által vezetett élő Big Data tanfolyamok kezdődnek a Bevezetés az elemi koncepciók Big Data, majd előrehaladás a programozási nyelvek és módszertanok használt adatok elemzése. A nagyméretű adattárolás, az elosztott feldolgozás és a skálázhatóság lehetővé tételére szolgáló eszközök és infrastruktúrák megvitatásra, összehasonlításra és végrehajtásra kerülnek a demo gyakorlatban. A Big Data képzés "helyszíni élő képzés" vagy "távoli élő képzés" formájában érhető el. A helyszíni élő képzés helyi szinten valósulhat meg az ügyfél telephelyén Magyarország vagy a NobleProg vállalati oktatóközpontjaiban Magyarország . A távoli élőképzés interaktív, távoli asztal segítségével történik. NobleProg - a helyi oktatási szolgáltató

Ajánlások

★★★★★
★★★★★

Kurzusleírás

Title
Duration
Overview
Title
Duration
Overview
14 hours
Overview
Cél:

Az SPSS függetlenség szintjén való tanulás

A címzettek:

Az elemzők, a kutatók, a tudósok, a diákok és mindazok, akik meg akarják szerezni az SPSS csomag használatát, és megtanulják a népszerű adatbányászati ​​technikákat.
28 hours
Overview
Az adatvágás modellezés egy olyan adatbázis-modellezési technika, amely hosszú távú, több forrásból származó adatok tárolását biztosítja Az adatbolt a tények egy változatát tárolja, vagy "az összes adatot, egész idő alatt" A rugalmas, méretezhető, konzisztens és alkalmazkodó formatervezés a 3 normál forma (3NF) és a csillagséma legfontosabb szempontjait tartalmazza Ebben az oktatott, élő edzésben a résztvevők megtudják, hogyan kell egy Data Vaultot létrehozni A képzés végére a résztvevők képesek lesznek: Ismerje meg a Data Vault 20 mögötti architektúrát és tervezési koncepciókat, valamint a Big Data, a NoSQL és az AI együttműködését Adatbegyűjtési technikák használata az adatraktárban végzett adatok ellenőrzése, nyomon követése és ellenőrzése céljából Egységes és megismételhető ETL (Extract, Transform, Load) folyamat kifejlesztése Nagyon skálázható és megismételhető raktárak kiépítése és telepítése Közönség Adatmodellezők Adattárolási szakember Üzleti intelligencia szakemberek Adatmérnökök Adatbázis-adminisztrátorok A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
21 hours
Overview
A Python egy magas szintű programozási nyelv, amely híres a világos szintaxisáról és a kódolvasásról A Spark egy adatfeldolgozó motor, amelyet a nagy adatok lekérdezésében, elemzésében és átalakításában használnak A PySpark lehetővé teszi a felhasználók számára a Spark és a Python kapcsolatát Ebben az oktatott, élő képzésben a résztvevők megtanulják használni a Python és a Spark együttes használatát a nagy adatok elemzéséhez, mivel kézműves gyakorlatokon dolgoznak A képzés végére a résztvevők képesek lesznek: Ismerje meg, hogyan használhatja a Sparkot a Python segítségével a Big Data elemzéséhez Olyan gyakorlatokon dolgozik, amelyek utánozzák a valós körülmények körülményeit Használjon különböző eszközöket és technikákat a nagy adatelemzéshez a PySpark használatával Közönség Fejlesztők Informatikai szakemberek Adatkutatók A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
35 hours
Overview
A technológiák előrehaladása és az egyre növekvő számú információ átalakítja a bűnüldözés végrehajtását Azok a kihívások, amiket a Big Data jelent, közel annyira ijesztőek, mint a Big Data ígérete Az adatok hatékony tárolása ezen kihívások egyike; ténylegesen elemezve ez egy másik Ebben az oktatott, élő képzésben a résztvevők meg fogják tanulni a gondolkodásmódot, amellyel megközelíthetik a Big Data technológiákat, megvizsgálhatják a meglévő folyamatokra és politikákra gyakorolt ​​hatásukat, és végrehajtják ezeket a technológiákat a bűncselekmények azonosítása és a bűnözés megelőzése céljából A bűnüldöző szervek világszerte végzett esettanulmányait megvizsgálják, hogy betekintést nyerjenek az örökbefogadási megközelítésekhez, kihívásokhoz és eredményekhez A képzés végére a résztvevők képesek lesznek: Kombinálja a Big Data technológiát a hagyományos adatgyűjtési folyamatokkal, hogy összefoglalja a történetet egy vizsgálat során Nagyméretű adattárolási és feldolgozási megoldásokat valósít meg az adatok elemzéséhez Készítsen javaslatot a legmegfelelőbb eszközök és folyamatok elfogadására, amelyek lehetővé teszik a bűnügyi nyomozás datalizált megközelítését Közönség Műszaki háttérrel rendelkező bűnüldöző szakemberek A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
14 hours
Overview
A szabályozók megfelelőségének elérése érdekében a CSP-k (Kommunikációs szolgáltatók) megérinthetik a Bigot Olyan adatelemzést, amely nem csak a megfelelés teljesítéséhez, hanem a hatálya alá tartozik hogy növeljék az ügyfelek elégedettségét, és ezáltal csökkentik a kiesést Valójában azóta a megfelelés a szerződéshez kötött Szolgáltatás minőségével kapcsolatos, a megfelelőség, javítja a CSP "versenyelőnyét" Ezért fontos, hogy A szabályozóknak képesnek kell lenniük arra, hogy tanácsot adjanak / irányítsanak a Big Data analitikai gyakorlatnak a CSP-k számára kölcsönös előnyöket biztosítanak a szabályozók és a CSP-k között 2 nap tanfolyam: 8 modul, 2 óra minden = 16 óra .
28 hours
Overview
A grafikonok nagyszámú valós világproblémát írhatnak le Például a webgrafikon, a közösségi hálózat diagramja, a vonat hálózati diagramja és a nyelvrajz Ezek a grafikonok rendkívül nagyok; ezek feldolgozása speciális eszközöket és folyamatokat igényel, ezeket az eszközöket és folyamatokat Graph Computing-nak nevezik (más néven Graph Analytics) Ebben az oktatott, élő képzésben a résztvevők megtudják a grafikonok feldolgozásának technológiai kínálatát és megvalósítási módszereit A cél az, hogy azonosítsák a valós objektumokat, azok tulajdonságait és kapcsolatait, majd ezeket a kapcsolatokat modellezzük és adatként feldolgozzuk egy grafikon-számítási megközelítés alkalmazásával Kezdjük széles körű áttekintéssel és szűkítjük a konkrét eszközöket, miközben számos esettanulmányt, kézmozdulatot és élő telepítést végzünk A képzés végére a résztvevők képesek lesznek: Értsd meg, hogy a grafikonadatok továbbra is fennállnak-e és hogyan haladnak át Válassza ki az adott feladat legjobb keretét (a gráf adatbázisból a kötegelt feldolgozó keretbe) Végezze el a Hadoop, a Spark, a GraphX ​​és a Pregel használatát, hogy számos gépen párhuzamosan végezzen grafikus számítást Tekintse meg a realworld nagy adatproblémáit grafikonok, folyamatok és átjárók tekintetében Közönség Fejlesztők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
21 hours
Overview
A prediktív analitika az adatelemzés használatának folyamata a jövőre vonatkozó előrejelzések készítése céljából Ez a folyamat adatbányászattal, statisztikával és gépi tanulási technikákkal együtt adatokat használ fel a jövőbeli események előrejelzésére szolgáló prediktív modell létrehozására Ebben az oktatott, élő képzésben a résztvevők megtanulják, hogyan használják a Matlabot prediktív modellek készítéséhez és nagymintás adatkészletekhez való alkalmazására, hogy előrejelezzék a jövőbeli eseményeket az adatok alapján A képzés végére a résztvevők képesek lesznek: Prediktív modellek létrehozása történelmi és tranzakciós adatok mintáinak elemzésére Használja a prediktív modellezést a kockázatok és lehetőségek azonosítása érdekében Készítsen matematikai modelleket, amelyek rögzítik a fontos tendenciákat Az eszközök és az üzleti rendszerek adatainak felhasználásával csökkentheti a hulladékot, időt takaríthat meg, vagy csökkentheti a költségeket Közönség Fejlesztők mérnökök Domain szakértők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
7 hours
Overview
Apache NiFi (Hortonworks DataFlow) egy valós idejű integrált adatlogisztika és egyszerű eseményfeldolgozó platform, amely lehetővé teszi a mozgó, nyomkövető és automatizálási adatok rendszerek között. Ez írott használ folyik-kiindulópontul szolgáló programozás és szolgáltat egy pókháló-kiindulópontul szolgáló felhasználó illesztő-hoz kezel adatfolyamról-ban valós idő.

ebben az oktató által vezetett, az élő képzés, a résztvevők megtanulják az alapjait flow-alapú programozás, mivel azok fejlesztése számos demo kiterjesztések, alkatrészek és feldolgozók segítségével Apache NiFi.

végére ez a képzés, a résztvevők képesek lesznek:

- ért nifi & #39; s építészet és adatfolyam fogalom.
- fejlesztése Extensions segítségével NiFi és a harmadik féltől származó API-k.
- Custom fejleszteni saját Apache Nifi processzor.
- ingest és a folyamat valós idejű adatok különböző és nem gyakori fájlformátumok és adatforrások.

formátuma a kurzus

- Interactive előadás és vita.
- sok gyakorlatok és gyakorlat.
- Hands-on végrehajtása élő-labor környezetben.

tanfolyam testreszabási beállításai

- hogy kérje személyre szabott képzés a tanfolyam, kérjük, forduljon hozzánk, hogy gondoskodjon.
21 hours
Overview
Az Apache NiFi (Hortonworks DataFlow) valós idejű integrált adatlogisztika és egyszerű eseményfeldolgozó platform, amely lehetővé teszi az adatok közötti mozgatást, nyomon követést és automatizálást Flow-alapú programozással van írva, és egy webbased felhasználói felületet biztosít az adatfolyamok valós időben történő kezelésére Ebben az oktatott, élő képzésben a résztvevők megtanulják, hogyan alkalmazzák és kezeljék az Apache NiFi-t egy élő labor környezetben A képzés végére a résztvevők képesek lesznek: Az Apachi NiFi telepítése és beállítása Adatforrások forrása, átalakítása és kezelése különböző, elosztott adatforrásokból, beleértve az adatbázisokat és a nagy adatkészleteket Az adatfolyamok automatizálása A streaming analytics engedélyezése Különböző megközelítéseket alkalmaz az adatbevitelhez A nagy adatok átalakítása és üzleti megismerések Közönség Rendszergazdák Adatmérnökök Fejlesztők DevOps A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
14 hours
Overview
Az Apache SolrCloud egy elosztott adatfeldolgozó motor, amely megkönnyíti az elosztott hálózaton található fájlok keresését és indexelését Ebben az oktatott, élő képzésben a résztvevők megtanulják, hogyan hozzanak létre egy SolrCloud példányt az Amazon AWS-en A képzés végére a résztvevők képesek lesznek: Megérteni a SolCloud jellemzőit és hogyan hasonlíthatók össze a hagyományos masterslave klaszterekkel Egy SolCloud központosított fürt konfigurálása Olyan folyamatok automatizálása, mint a széllel való kommunikáció, dokumentumok hozzáadásával a kártyákhoz stb Használja a Zookeeper-t SolrCloud-val együtt a folyamatok automatizálása érdekében Használja a felületet a hibajelentés kezeléséhez Töltsön be egy SolrCloud telepítést Állítsa be a SolrCloud-ot a folyamatos feldolgozáshoz és a hibakereséshez Közönség Solr fejlesztők Projektmenedzserek Rendszergazdák Kereső elemzők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
14 hours
Overview
A Datameer a Hadoopra épülő üzleti intelligencia és elemzési platform Ez lehetővé teszi a végfelhasználók számára, hogy könnyedén hozzáférjenek, feltárhassanak és korrelálhassanak nagy méretű, strukturált, félig strukturált és strukturálatlan adatokat Ebben az oktatott, élő képzésben a résztvevők megtanulják használni a Datameert, hogy leküzdjék a Hadoop meredek tanulási görbéjét, miközben átmegyek egy sor nagy adatforrás létrehozásán és elemzésén A képzés végére a résztvevők képesek lesznek: Hozzon létre, gondoskodjon és interaktíven vizsgálja meg a vállalati adatok tóját Hozzáférés az üzleti intelligencia adattárházakhoz, tranzakciós adatbázisokhoz és más analitikus üzletekhez Használjon táblázatos felhasználói felületet a végfelhasználói adatfeldolgozó csővezetékek tervezéséhez Az előre telepített funkciók elérése komplex adatkapcsolatok feltérképezéséhez Használja a draganddrop varázslókat az adatok megjelenítéséhez és az irányítópultok létrehozásához A lekérdezési eredmények elemzéséhez táblázatokat, diagramokat, grafikonokat és térképeket használjon Közönség Adatelemzők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
28 hours
Overview
A MemSQL egy felhőalapú és onpremise információs és megosztott SQL adatbáziskezelő rendszer Ez egy valós idejű adattárház, amely azonnal betekintést nyújt az élő és a történelmi adatokból Ebben az oktatott, élő képzésben a résztvevők megtanulják a MemSQL fejlesztésének és adminisztrációjának lényegét A képzés végére a résztvevők képesek lesznek: Megérteni a MemSQL kulcsfogalmát és jellemzőit A MemSQL telepítése, tervezése, karbantartása és működtetése Optimalizálja a sémákat a MemSQL-ben Javíthatja a lekérdezéseket a MemSQL-ben Benchmark teljesítmény a MemSQL-ben Építsen valós idejű alkalmazásokat a MemSQL használatával Közönség Fejlesztők A rendszergazdák Működtető mérnökök A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
14 hours
Overview
A Tigon egy nyílt forráskódú, valós idejű, lowlatency, highthroughput, natív YARN streamfolyam keretrendszer, amely a HDFS és a HBase tetején ül a kitartásért A Tigon alkalmazások olyan eseteket használnak fel, mint például a hálózati behatolás felderítése és elemzés, a közösségi médiapiaci elemzés, a helyelemzés és a felhasználók számára valós idejű ajánlások Ez az oktatott, élő képzés bemutatja a Tigon megközelítését a valós idejű és a tételes feldolgozáshoz, miközben a résztvevők egy mintaalkalmazáson keresztül járnak A képzés végére a résztvevők képesek lesznek: Készítsen erőteljes adatfeldolgozó alkalmazásokat nagy mennyiségű adat kezelésére Folyamatáramforrások, például a Twitter és a Webszerver naplók Használja a Tigont a folyamok gyors összekapcsolásához, szűréséhez és aggregálásához Közönség Fejlesztők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
14 hours
Overview
Apache Ignite egy memóriában számítástechnikai platform, amely leül az alkalmazás és az adatréteg javítása sebesség, skála, és a rendelkezésre állás 。

ebben az oktató által vezetett, az élő képzés, a résztvevők megtanulják az elvek mögött állandó és tiszta memóriában tárolás ahogy lépés révén létrehozása minta a memóriában számítástechnikai projekt.

végére ez a képzés, a résztvevők képesek lesznek:

- használ meggyullad részére-ban-memória,-ra-korong kitartás szintúgy egy tisztán elosztott-ban-memória adatbázis.
- megmaradás a relációs adatbázisba való adatszinkronizálás nélkül.
- használja Ignite elvégzésére SQL és elosztott csatlakozik.
- javítása teljesítményét mozgó adatok közelebb a CPU, RAM-ot használva, mint a tárolás.
- , hogy vízszintes méretezhetőséget érjenek el a fürt adatkészletei között.
- kiegészít Ignite-val RDBMS, NoSQL, Hadoop és gép tanulás folyamat.

formátuma a kurzus

- Interactive előadás és vita.
- sok gyakorlatok és gyakorlat.
- Hands-on végrehajtása élő-labor környezetben.

tanfolyam testreszabási beállításai

- hogy kérje személyre szabott képzés a tanfolyam, kérjük, forduljon hozzánk, hogy gondoskodjon.
14 hours
Overview
Vespa egy nyílt forráskódú nagy adatfeldolgozó és kiszolgáló motor, amelyet a Yahoo hoz létre Felhasználja a felhasználói lekérdezéseket, ajánlásokat tesz közzé, és személyre szabott tartalmakat és reklámokat nyújt valós időben Ez az oktatott, élő képzés bemutatja a nagyméretű adatok kiszolgálására vonatkozó kihívásokat, és a résztvevőket olyan alkalmazás létrehozásával hozza létre, amely képes a felhasználó kéréseire adott válaszok kiszámolására, a nagyméretű adatkészletek felett valós időben A képzés végére a résztvevők képesek lesznek: A Vespa használatával gyorsan kiszámíthatja az adatokat (tárolja, keresheti, rendezi, rendszerezi) a kiszolgálás ideje alatt, amíg a felhasználó vár A Vespa megvalósítása a meglévő alkalmazásokban, szolgáltatáskereséssel, ajánlásokkal és személyre szabással Integrálja és telepítse a Vespát meglévő nagy adatrendszereivel, mint például a Hadoop és a Storm Közönség Fejlesztők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
21 hours
Overview
Az Apache Apex egy YARNnative platform, amely egységesíti az adatfolyamokat és a tételek feldolgozását A nagy adatinformációt olyan méretezhető, teljesítményű, hibatűrő, állapotos, biztonságos, elosztott és könnyen működőképes módszerekkel dolgozza fel Ez az oktatott, élő képzés bemutatja az Apache Apex egységes stream feldolgozási architektúráját, és a résztvevőket egy megosztott alkalmazás létrehozásával hozza létre az Apex a Hadoop használatával A képzés végére a résztvevők képesek lesznek: Ismertesse az adatfeldolgozó csővezeték fogalmakat, például a források és mosdók csatlakozóit, a közös adatátalakításokat stb Építsen, skálázzon és optimalizálja az Apex alkalmazást A valós idejű adatfolyamokat megbízhatóan és minimális késleltetéssel valósítja meg Használja az Apex Core és az Apex Malhar könyvtárat a gyors alkalmazásfejlesztés érdekében Használja az Apex API-t a meglévő Java kód megírásához és újrafelhasználásához Integrálja az Apex-et más alkalmazásokba feldolgozó motorként Tune, teszt és skála Apex alkalmazások Közönség Fejlesztők Vállalati építészek A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
7 hours
Overview
Az Alexio egy nyílt forráskódú virtuális elosztott tárolórendszer, amely egyesíti a különböző tárolási rendszereket, és lehetővé teszi az alkalmazások számára, hogy kölcsönhatásba lépjenek az adatok memória sebességével Ezt olyan vállalatok használják, mint az Intel, a Baidu és az Alibaba Ebben az oktatott, élő képzésben a résztvevők megtanulják használni az Alexio-t, hogy áthidalják a különböző számítási kereteket a tárolórendszerekkel és hatékonyan kezelhessék a többasztalos méretadatokat, miközben átmegyek egy alkalmazás létrehozásával az Alluxio-val A képzés végére a résztvevők képesek lesznek: Fejleszteni kell egy alkalmazást az Alluxio-val Nagy adatrendszerek és alkalmazások csatlakoztatása egy névtér megőrzése mellett Hatékony adat kivonása nagy adatokból bármilyen tároló formátumban Javítani kell a munkateher teljesítményét Telepítse és kezelje az Alluxio önálló vagy fürtözött Közönség Adatkutató Fejlesztő Rendszergazda A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
28 hours
Overview
Apache flink egy nyílt forráskódú keretrendszer skálázható Stream és kötegelt adatfeldolgozás.

Ez oktató által vezetett, él képzés bemutat a elvek és megközelítés hátsórész elosztott patak és egy tétel adat feldolgozás, és séta résztvevő átmenő a teremtés-ból egy valóságos-idő, adat folyó alkalmazás-ban gyorsan flink.

végére ez a képzés, a résztvevők képesek lesznek:

- a környezet létrehozása az adatelemzési alkalmazások fejlesztéséhez.
- csomag, végrehajtás, és a monitor flink-alapú, hibatűrő, adatfolyam-alkalmazások.
- kezelése sokszínű workloads.
- végezze el a fejlett Analitika flink ML.
- egy többcsomópontos flink csoport létrehozása.
- mér és jobbá tenni előadás.
- kiegészít flink-val különböző nagy adat rendszereket.
- összehasonlítása flink képességeit azokkal a többi nagy adatfeldolgozási keretek.

formátuma a kurzus

- rész előadás, részben vita, gyakorlatok és nehéz gyakorlati gyakorlat
14 hours
Overview
Az Apache Samza egy nyílt forráskódú nearrealtime, aszinkron számítási keretfolyam a folyam feldolgozásához Az Apache Kafka az üzenetküldést használja, és az Apache Hadoop YARN a hibatűrésre, a processzor elszigetelésére, a biztonságra és az erőforrás-gazdálkodásra Ez az oktatott, élő képzés bemutatja az üzenetkezelő rendszerek és az elosztott adatfolyam-feldolgozás mögött álló elveket, miközben a résztvevőket a Samzabased minta és a munka végrehajtása révén hozza létre A képzés végére a résztvevők képesek lesznek: Használja a Samza-t az üzenetek előállításához és fogyasztásához szükséges kód egyszerűsítéséhez Távolítsa el az üzenetek kezelését egy alkalmazásból Használja a Samza-t a nearrealtime aszinkron számítás végrehajtásához Használja az adatfolyam-feldolgozást, hogy magasabb szintű absztrakciót biztosítson az üzenetküldő rendszereknél Közönség Fejlesztők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
14 hours
Overview
Az Apache Zeppelin egy webbased notebook a Hadoop és a Spark alapú adatok rögzítésére, feltérképezésére, vizualizálására és megosztására Ez az oktatott, élő képzés bemutatja az interaktív adatelemzés mögött álló fogalmakat, és a résztvevőket a Zeppelin telepítésével és használatával egy singleuser vagy többfelhasználós környezetben mutatja be A képzés végére a résztvevők képesek lesznek: Telepítse és konfigurálja a Zeppelin-t Fejleszteni, rendezni, végrehajtani és megosztani az adatokat egy böngészőalapú felületen Vizsgálja meg az eredményeket anélkül, hogy utalna a parancssorra vagy a klaszterre vonatkozó részletekre Hosszú munkafolyamatok végrehajtása és együttműködése Dolgozzon a számos plugin nyelv / adatfeldolgozási visszahúzás bármelyikével, például a Scala (Apache Spark), a Python (Apache Spark), a Spark SQL, a JDBC, a Markdown és a Shell segítségével Integrálja a Zeppelin-t a Spark, a Flink és a Map Reduce segítségével A Zeppelin és az Apache Shiro többszörös felhasználási lehetőségeit biztosítsa Közönség Adatmérnökök Adatelemzők Adatkutatók Szoftverfejlesztők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
14 hours
Overview
A Magellan egy nyílt forráskódú elosztott végrehajtó motor a nagy adatok térinformatikai analíziséhez Az Apache Spark tetején végrehajtva kiterjeszti a Spark SQL-t, és relációs absztrakciót biztosít a térinformatikai analízishez Ez az oktatott, élő képzés bemutatja a geospaciális elemzések megvalósításának koncepcióit és megközelítéseit, és a Magellan on Spark használatával előrejelző elemző alkalmazás létrehozásával jár a résztvevők számára A képzés végére a résztvevők képesek lesznek: Hatékonyan lekérdezzük, elemezzük és csatlakozzunk térinformatikai adatkészletekhez A térinformatikai adatok végrehajtása az üzleti intelligencia és a prediktív elemzési alkalmazások területén Használja a térbeli környezetet a mobil eszközök, szenzorok, naplók és hordozható eszközök képességeinek bővítésére Közönség Alkalmazásfejlesztők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
28 hours
Overview
A Hadoop egy népszerű nagy adatfeldolgozási keretrendszer A Python egy magas szintű programozási nyelv, amely híres a világos szintaxisáról és a kódolvasásról Ebben az oktatott, élő edzésben a résztvevők megtanulják használni a Hadoop-ot, a MapReduce-ot, a Pig-ot és a Sparkot a Python használatával, miközben számos példát követnek és használnak eseteket A képzés végére a résztvevők képesek lesznek: Ismerje meg a Hadoop, a MapReduce, a Pig és a Spark mögötti alapvető fogalmakat Használja a Pythonot Hadoop elosztott fájlrendszerrel (HDFS), MapReduce-del, Sertéssel és Spark-dal A Snakebite használatával programozhatja a HDFS Pythonon belüli elérését Használja a mrjobbot a MapReduce feladatok Pythonba írásához Írjon Spark programokat Python-val A disznó funkcionalitásának bővítése Python UDF-ek segítségével A MapReduce feladatok és a sertésszkriptek kezelése Luigi segítségével Közönség Fejlesztők Informatikai szakemberek A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
28 hours
Overview
A MonetDB nyílt forráskódú adatbázis, amely az architektúra technológiai megközelítésének úttörője volt Ebben az oktatott, élő képzésben a résztvevők megtanulják használni a MonetDB-t, és hogyan lehet a legtöbbet kihozni belőle A képzés végére a résztvevők képesek lesznek: Ismerje meg a MonetDB-t és annak jellemzőit Telepítse és kezdje el a MonetDB segítségével Fedezze fel és végezze el a különböző funkciókat és feladatokat a MonetDB-ben Gyorsítsa projektjei megvalósítását a MonetDB képességek maximalizálásával Közönség Fejlesztők Műszaki szakértők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
21 hours
Overview
A Pentaho Data Integration egy nyílt forráskódú adatintegrációs eszköz a feladatok és adatátalakítások meghatározásához Ebben az oktatott, élő képzésben a résztvevők megtanulják, hogyan használják a Pentaho Data Integration erőteljes ETL képességét és gazdag grafikus felületét egy egész nagy adatéletciklus kezelésére, ami maximalizálja az adatok értékét a szervezet számára A képzés végére a résztvevők képesek lesznek: Létrehozása, előnézete és futtatása lépéseket és komlót tartalmazó alapvető adatátalakításokat Állítsa be és biztosítsa a Pentaho Enterprise Repository-ot A különböző adatforrások kihasználása és az igazság egyetlen, egységesített verziójának létrehozása analitikus formátumban Adjon eredményeket a harmadik részhez további feldolgozásra Közönség Adatelemző ETL fejlesztők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
21 hours
Overview
A Stream feldolgozás a "mozgásban lévő adatok" valós idejű feldolgozását jelenti, vagyis az adatokat az adatok fogadása során végzi Az ilyen adatokat folyamatos forrásokból, például szenzor eseményekből, weboldal felhasználói tevékenységből, pénzügyi műveletekből, hitelkártya-swipekből, kattintásáramokból stb Olvashatják A Stream feldolgozó keretrendszer képes nagy mennyiségű bejövő adat olvasására, és szinte azonnali értékes információt nyújtani Ebben az oktatott, élő képzésben (helyszíni vagy távoli) a résztvevők megtanulják, hogyan állítsák be és integrálják a különböző Stream Processing kereteket a meglévő nagy adattároló rendszerekkel, valamint a kapcsolódó szoftveralkalmazásokkal és mikroszolgáltatókkal A képzés végére a résztvevők képesek lesznek: Telepítse és konfigurálja a különböző adatfolyam-feldolgozási kereteket, például a Spark Streaming és a Kafka Streaming Ismerje meg és válassza ki a munkához legmegfelelőbb kereteket Az adatok feldolgozása folyamatosan, egyidejűleg és egy recordbyrecord módon Stream feldolgozási megoldások integrálása meglévő adatbázisokkal, adattárházakkal, adatgyűjtőkkel stb A legmegfelelőbb adatfolyamfeldolgozó könyvtár integrálása vállalati alkalmazásokhoz és mikroszolgáltatókhoz Közönség Fejlesztők Szoftver építészek A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat Megjegyzések Ha erre a kurzusra személyre szabott képzést szeretne kérni, kérjük, vegye fel velünk a kapcsolatot .
14 hours
Overview
Ez az oktató által vezetett, élő képzés (helyszíni vagy távoli) célja az adatelemzők és az adatok a tudósok, akik szeretnék, hogy több fejlett adat-elemzési technikákat adatbányászati segítségével Python.

végére a képzés, a résztvevők képesek lesznek:

- megérteni fontos területek adatbányászat, beleértve a társulási szabály bányászat, szöveg hangulat elemzés, automatikus szöveg összefoglaló, és az adatok anomália felderítése.
- összehasonlítani és végrehajtani a különböző stratégiák megoldására valós adatok bányászati problémák.
- megérteni és értelmezni az eredményeket.

formátuma tanfolyam

- interaktív előadás és vita.
- sok gyakorlatok és gyakorlat.
- gyakorlati végrehajtás egy élő-Lab környezetben.

tanfolyam testreszabási beállítások

- , hogy kérjen egy testreszabott képzést ezt a tanfolyamot, kérjük lépjen kapcsolatba velünk, hogy gondoskodjon.
21 hours
Overview
Apache Spark's learning curve is slowly increasing at the begining, it needs a lot of effort to get the first return. This course aims to jump through the first tough part. After taking this course the participants will understand the basics of Apache Spark , they will clearly differentiate RDD from DataFrame, they will learn Python and Scala API, they will understand executors and tasks, etc. Also following the best practices, this course strongly focuses on cloud deployment, Databricks and AWS. The students will also understand the differences between AWS EMR and AWS Glue, one of the lastest Spark service of AWS.

AUDIENCE:

Data Engineer, DevOps, Data Scientist
21 hours
Overview
A nagy adatelemzés magában foglalja a nagy mennyiségű változatos adatkészletek vizsgálatát a korrelációk, a rejtett minták és más hasznos ismeretek feltárása érdekében Az egészségügyi ágazat bonyolult heterogén orvosi és klinikai adatokat tartalmaz Nagy adatelemzés alkalmazása az egészségügyi adatokra hatalmas potenciállal rendelkezik az egészségügyi ellátás javításának betekintésében Mindazonáltal ezeknek az adatkészleteknek a nagysága nagy kihívást jelent az elemzések és gyakorlati alkalmazások számára egy klinikai környezetben Ebben az oktatott, élő képzésben (távoli) a résztvevők megtanulják, hogyan végezzenek nagy adatelemzéseket az egészségügyben, miközben egy sor kézmozdulatot végeznek A képzés végére a résztvevők képesek lesznek: Nagyméretű adatelemző eszközök telepítése és konfigurálása, mint például a Hadoop MapReduce és a Spark Ismerje meg az orvosi adatok jellemzőit Nagy adattechnikákat alkalmazzon az orvosi adatok kezelésére Tanulmányozzon nagy adatrendszert és algoritmust az egészségügyi alkalmazásokkal összefüggésben Közönség Fejlesztők Adatkutatók A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat jegyzet Ha erre a kurzusra személyre szabott képzést szeretne kérni, kérjük, vegye fel velünk a kapcsolatot .
14 hours
Overview
Az Apache Arrow egy nyílt forráskódú adatfeldolgozási keretrendszer Gyakran más adatgyűjtési eszközökkel együtt használják a különféle adattárolók elemzéshez való hozzáféréséhez Jól integrálható más technológiákkal, mint például GPU adatbázisok, gépi tanulási könyvtárak és eszközök, végrehajtási motorok és adatmegjelenítési keretek Ezen a helyszínen oktatott, élő képzésen a résztvevők megtanulják integrálni az Apache Arrow-ot különböző Data Science keretekkel, hogy hozzáférjenek az adatok különböző adatforrásokból A képzés végére a résztvevők képesek lesznek: Az Apache Arrow telepítése és konfigurálása elosztott fürtözött környezetben Az Apache nyíl segítségével különböző adatokhoz férhet hozzá Az Apache Arrow használatával megkerülheti a komplex ETL csővezetékek megépítésének és fenntartásának szükségességét Elemezze az adatokat különféle adatforrások között anélkül, hogy központosított adattárba kellene összevonnia Közönség Adatkutatók Adatmérnökök A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat jegyzet Ha erre a kurzusra személyre szabott képzést szeretne kérni, kérjük, vegye fel velünk a kapcsolatot .
14 hours
Overview
A Sqoop egy nyílt forráskódú szoftvereszköz az adatok Hadoop és relációs adatbázisok vagy nagyszámítógépek közötti átvitelére A relációs adatbázis-kezelő rendszer (RDBMS), például a MySQL vagy az Oracle vagy a mainframe adatait a Hadoop Distributed File System (HDFS) rendszerbe importálhatja Ezután az adatok átalakíthatók a Hadoop MapReduce-ban, majd újra exportálhatók RDBMS-be Ebben az oktatott, élő képzésben a résztvevők megtanulják használni a Sqoop-ot, hogy adatokat importáljanak egy hagyományos relációs adatbázisból a Hadoop tárolóba, például a HDFS-re vagy a Hive-ra és fordítva A képzés végére a résztvevők képesek lesznek: Az Sqoop telepítése és konfigurálása Adatok importálása a MySQL-ről a HDFS-re és a Hive-re Adatok importálása a HDFS és a Hive adatbázisból a MySQL-be Közönség Rendszergazdák Adatmérnökök A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat jegyzet Ha erre a kurzusra személyre szabott képzést szeretne kérni, kérjük, vegye fel velünk a kapcsolatot .
Weekend Big Data courses, Evening Big Data training, Big Data boot camp, Big Data instructor-led, Weekend Big Data training, Evening Big Data courses, Big Data coaching, Big Data instructor, Big Data trainer, Big Data training courses, Big Data classes, Big Data on-site, Big Data private courses, Big Data one on one training

Course Discounts

Hírlevél kedvezmény

Tiszteletben tartjuk adatai bizalmas jellegét. A NobleProg soha nem továbbítja e-mail címét harmadik személyeknek.
Hírlevelünkről bármikor leiratkozhat.

Kiemelt ügyfeleink

is growing fast!

We are looking to expand our presence in Hungary!

As a Business Development Manager you will:

  • expand business in Hungary
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!