Big Data Kurzusok

Big Data Kurzusok

Az online vagy helyszíni, oktató által vezetett élő Big Data képzések a Big Data elemi fogalmainak bemutatásával kezdődnek, majd az adatelemzés végrehajtásához használt programozási nyelvek és módszertanok felé haladnak. A Big Data tárolását, az elosztott feldolgozást és a méretezhetőséget lehetővé tevő eszközöket és infrastruktúrát a bemutató gyakorlatok során tárgyalják, hasonlítják össze és implementálják. A Big Data képzés "online élő képzés" vagy "helyszíni élő képzés" formájában érhető el. Az online élő képzés (más néven "távoli élő képzés") egy interaktív, távoli asztalon keresztül történik. A helyszíni élő képzés helyben, az ügyfelek telephelyén Magyarország-ban vagy a Magyarország-ban található NobleProg vállalati képzési központokban végezhető. NobleProg – az Ön helyi képzési szolgáltatója

Machine Translated

Big Data Course Outlines

Kurzusnév
Időtartalma
Összefoglaló
Kurzusnév
Időtartalma
Összefoglaló
21 hours
Python egy méretezhető, rugalmas és széles körben használt programozási nyelv az adattudomány és a gépi tanulás számára. A Spark egy adatfeldolgozó motor, amelyet a nagy adatok lekérdezésében, elemzésében és átalakításában használnak, miközben Hadoop egy szoftverkönyvtár keretrendszer a nagyszabású adatok tárolására és feldolgozására. Ez az oktató által vezetett, élő képzés (online vagy online) olyan fejlesztőknek szól, akik szeretnék használni és integrálni a Spark-t, Hadoop, és Python a nagy és összetett adatkészletek feldolgozására, elemzésére és átalakítására. A képzés befejezése után a résztvevők képesek lesznek:
    Hozzon létre a szükséges környezetet a nagy adatok feldolgozásának megkezdéséhez a Spark, Hadoop, és Python segítségével. Ismerje meg a tulajdonságokat, a központi összetevőket és az építészet a Spark és Hadoop. Ismerje meg, hogyan kell integrálni a Spark, Hadoop, és Python a nagy adatfeldolgozás. Fedezze fel az eszközöket a Spark ökoszisztémában (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka és Flume). Hozzon létre együttműködő szűrő ajánlás rendszerek hasonló Netflix, YouTube, Amazon, Spotify, és Google. Használja az Apache Mahout-ot a gépi tanulási algoritmusok méretezéséhez.
A kurzus formája
    Interaktív előadás és vita. Rengeteg gyakorlat és gyakorlat. Hands-on megvalósítás egy élő laboratóriumi környezetben.
Szakképesítési lehetőségek
    Ahhoz, hogy egy személyre szabott képzést kérjen erre a kurzusra, kérjük, vegye fel velünk a kapcsolatot a rendezéshez.
14 hours
Waikato Environment for Knowledge Analysis (Weka) egy nyílt forráskódú adatbányászat vizualizációs szoftver. A gépi tanulási algoritmusok gyűjteményét biztosítja az adatok előkészítésére, osztályozására, csoportosítására és egyéb adatbányászati tevékenységekre. Ez az oktató által vezetett, élő képzés (online vagy online) célja az adatelemzők és az adattudósok, akik szeretnék használni Weka az adatbányászati feladatok elvégzésére. A képzés befejezése után a résztvevők képesek lesznek:
    Beállítása és konfigurálása Weka Ismerje meg a Weka környezetet és a munkabankot. Az adatbányászati feladatok elvégzése Weka.
A kurzus formája
    Interaktív előadás és vita. Rengeteg gyakorlat és gyakorlat. Hands-on megvalósítás egy élő laboratóriumi környezetben.
Szakképesítési lehetőségek
    Ahhoz, hogy egy személyre szabott képzést kérjen erre a kurzusra, kérjük, vegye fel velünk a kapcsolatot a rendezéshez.
14 hours
IBM SPSS Modeler az adatbányászat és a szöveges elemzéshez használt szoftver. Olyan adatbányászati eszközökkel rendelkezik, amelyek előrejelző modelleket építhetnek és adatelemzési feladatokat végezhetnek. Ez az oktató által vezetett, élő képzés (online vagy online) az adatok elemzői vagy bárki, aki szeretné használni SPSS Modeler az adatok bányászati tevékenységek elvégzésére. A képzés befejezése után a résztvevők képesek lesznek:
    Ismerje meg az adatbányászat alapjait. Ismerje meg, hogyan kell importálni és értékelni az adatminőséget a Modellerrel. Fejleszteni, telepíteni és értékelni az adatmodelleket hatékonyan.
A kurzus formája
    Interaktív előadás és vita. Rengeteg gyakorlat és gyakorlat. Hands-on megvalósítás egy élő laboratóriumi környezetben.
Szakképesítési lehetőségek
    Ahhoz, hogy egy személyre szabott képzést kérjen erre a kurzusra, kérjük, vegye fel velünk a kapcsolatot a rendezéshez.
35 hours
A résztvevők, akik befejezik ezt az oktató által vezetett, élő képzést kapnak egy gyakorlati, valós világ megértése Big Data és a kapcsolódó technológiák, módszertanok és eszközök. A résztvevőknek lehetőségük lesz arra, hogy ezt a tudást gyakorlati gyakorlatokon keresztül gyakorolják. A csoportos interakció és az oktató visszajelzése az osztály fontos eleme. A tanfolyam az alapvető koncepciók bevezetésével kezdődik Big Data, majd előrehalad a programozási nyelvekbe és a módszertanokba Data Analysis. Végül megvitatjuk azokat az eszközöket és infrastruktúrát, amelyek lehetővé teszik Big Data tárolást, elosztott feldolgozást és Scala kapacitást. A kurzus formája
    Részes előadások, részes viták, gyakorlati gyakorlatok és végrehajtás, alkalmi kérdőívek a haladás mérésére.
21 hours
In this instructor-led, live training in Magyarország, participants will learn how to use Python and Spark together to analyze big data as they work on hands-on exercises. By the end of this training, participants will be able to:
  • Learn how to use Spark with Python to analyze Big Data.
  • Work on exercises that mimic real world cases.
  • Use different tools and techniques for big data analysis using PySpark.
7 hours
This course covers how to use Hive SQL language (AKA: Hive HQL, SQL on Hive, HiveQL) for people who extract data from Hive
21 hours
A tudás felfedezése az adatbázisokban (KDD) a hasznos tudás felfedezésének folyamata az adatok gyűjtéséből. Az adatbányászat technikájának valós életű alkalmazásai közé tartozik a marketing, a csalás kimutatása, a távközlés és a gyártás. Ebben az oktató által vezetett, élő tanfolyamon bemutatjuk a KDD-ben részt vevő folyamatokat, és számos gyakorlatot végzünk az ilyen folyamatok végrehajtásának gyakorlására. közönség
    Adatelemzők vagy bárki, aki érdekli, hogy megtanulják, hogyan kell értelmezni az adatokat a problémák megoldására
A kurzus formája
    A KDD elméleti megbeszélése után az oktató bemutatja a valós élet eseteit, amelyek felkérik a KDD alkalmazását a probléma megoldására. A résztvevők előkészítik, kiválasztják és tisztítják a minta adatkészleteket, és az adatokkal kapcsolatos előzetes ismereteiket használják fel, hogy a megfigyeléseik eredményei alapján megoldásokat javasoljanak.
14 hours
Apache Kylin egy szélsőséges, elosztott elemzési motor a nagy adatokhoz. Ebben az oktató által vezetett élő képzésben a résztvevők megtanulják, hogyan kell használni Apache Kylin egy valós idejű adattároló létrehozását. A képzés befejezése után a résztvevők képesek lesznek:
    Valós idejű streaming adatok fogyasztása a Kylin használatával Használja Apache Kylin's erőteljes funkciók, gazdag SQL interfész, spark fedés és másodlagos lekérdezés lassúság
Megjegyzések
    A Kylin legújabb verzióját használjuk (a jelen írás alapján, Apache Kylin v2.0)
közönség
    Big Data mérnökök Big Data Az elemzők
A kurzus formázása
    Részes előadások, részes viták, gyakorlatok és nehéz gyakorlatok
14 hours
A Datameer a Hadoopra épülő üzleti intelligencia és elemzési platform Ez lehetővé teszi a végfelhasználók számára, hogy könnyedén hozzáférjenek, feltárhassanak és korrelálhassanak nagy méretű, strukturált, félig strukturált és strukturálatlan adatokat Ebben az oktatott, élő képzésben a résztvevők megtanulják használni a Datameert, hogy leküzdjék a Hadoop meredek tanulási görbéjét, miközben átmegyek egy sor nagy adatforrás létrehozásán és elemzésén A képzés végére a résztvevők képesek lesznek: Hozzon létre, gondoskodjon és interaktíven vizsgálja meg a vállalati adatok tóját Hozzáférés az üzleti intelligencia adattárházakhoz, tranzakciós adatbázisokhoz és más analitikus üzletekhez Használjon táblázatos felhasználói felületet a végfelhasználói adatfeldolgozó csővezetékek tervezéséhez Az előre telepített funkciók elérése komplex adatkapcsolatok feltérképezéséhez Használja a draganddrop varázslókat az adatok megjelenítéséhez és az irányítópultok létrehozásához A lekérdezési eredmények elemzéséhez táblázatokat, diagramokat, grafikonokat és térképeket használjon Közönség Adatelemzők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
14 hours
Az adatbányászat a nagy adatok mintáinak azonosítása az adattudományi módszerekkel, például a gépi tanulással. Az Excel adatelemző csomagként a felhasználók elvégezhetik az adatok bányászatát és elemzését. Ez az oktató által irányított, élő (helyszíni vagy távoli) képzés olyan adattudósok számára szól, akik az Excel bányászatát kívánják használni. A képzés végére a résztvevők képesek lesznek:
  • Fedezze fel az adatokat az Excel segítségével az adatok bányászatához és elemzéséhez.
  • Használjon Microsoft algoritmusokat az adatbányászathoz.
  • Megérteni az Excel adatbányászat fogalmait.
A tantárgy formátuma
  • Interaktív előadás és beszélgetés.
  • Sok gyakorlat és gyakorlat.
  • Gyakorlati megvalósítás élő laboratóriumi környezetben.
Tanfolyam testreszabási lehetőségek
  • Ha személyre szabott képzést szeretne kérni erre a kurzusra, kérjük, vegye fel velünk a kapcsolatot, hogy megbeszéljen.
21 hours
Dremio egy nyílt forráskódú " önkiszolgáló adatplatform", amely felgyorsítja a keresést a különböző típusú adatforrások. Dremio integrálja a relatív adatbázisok, Apache Hadoop, MongoDB, Amazon S3, ElasticSearch, és más adatforrások. Támogatja SQL és webes interfészet biztosít az építési lekérdezésekhez. Ebben az oktató által vezetett, élő képzésben a résztvevők megtanulják, hogyan kell telepíteni, konfigurálni és használni Dremio az adatelemzési eszközök és az alapvető adattárak egységes rétege. A képzés befejezése után a résztvevők képesek lesznek:
    Beállítása és beállítása Dremio Több adatforrásra vonatkozó lekérdezések végrehajtása, függetlenül a helyétől, méretétől vagy szerkezetétől Integrálja Dremio BI és adatforrások, mint például Tableau és Elasticsearch
közönség
    adattudósok Business Az elemzők Adatmérnökök
A kurzus formázása
    Részes előadások, részes viták, gyakorlatok és nehéz gyakorlatok
jegyzetek
    Ahhoz, hogy egy személyre szabott képzést kérjen erre a kurzusra, kérjük, vegye fel velünk a kapcsolatot a rendezéshez.
21 hours
Az Apache Drill egy schemafree, elosztott, inmemória oszlopos SQL lekérdező motor Hadoop, NoSQL és egyéb Cloud és fájl tároló rendszerekhez Az Apache Drill hatalma abban rejlik, hogy egyetlen lekérdezéssel több adattárból származó adatot is összekapcsolhat Az Apache Drill számos NoSQL adatbázis és fájlrendszer, köztük a HBase, a MongoDB, a MapRDB, a HDFS, a MapRFS, az Amazon S3, az Azure Blob Storage, a Google Cloud Storage, a Swift, a NAS és a helyi fájlok támogatását támogatja Az Apache Drill a Google Dremel rendszerének nyílt forráskódú változata, amely a Google BigQuery nevű infrastrukturális szolgáltatásként érhető el Ebben az oktatott, élő képzésben a résztvevők megtanulják az Apache Drill alapjait, majd kihasználják az SQL hatalmát és kényelmét, hogy interaktívan lekérdezzék a nagy adatot több adatforráson keresztül kód kódolása nélkül A résztvevők megtanulják továbbá, hogyan optimalizálják drill lekérdezéseiket az elosztott SQL-végrehajtásra A képzés végére a résztvevők képesek lesznek: Végezze el a "selfservice" feltárását strukturált és félig strukturált adatokon a Hadoopon Lekérdezés ismert és ismeretlen adatok SQL lekérdezések használatával Megérteni, hogy az Apache fúrók hogyan fogadják és futtatják a lekérdezéseket Írjon SQL lekérdezéseket különböző típusú adatok elemzéséhez, beleértve a strukturált adatokat a Hive-ben, a félig strukturált adatokat a HBase vagy MapRDB táblákban, valamint az olyan fájlokban tárolt adatokat, mint a Parkett és a JSON Használja az Apache Drill-t az on-fly séma felfedezéséhez, elkerülve az összetett ETL és séma műveletek szükségességét Integrálja az Apache Drill-t BI (Business Intelligence) eszközökkel, például Tableau, Qlikview, MicroStrategy és Excel Közönség Adatelemzők Adatkutatók SQL programozók A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
14 hours
Apache Arrow is an open-source in-memory data processing framework. It is often used together with other data science tools for accessing disparate data stores for analysis. It integrates well with other technologies such as GPU databases, machine learning libraries and tools, execution engines, and data visualization frameworks. In this onsite instructor-led, live training, participants will learn how to integrate Apache Arrow with various Data Science frameworks to access data from disparate data sources. By the end of this training, participants will be able to:
  • Install and configure Apache Arrow in a distributed clustered environment
  • Use Apache Arrow to access data from disparate data sources
  • Use Apache Arrow to bypass the need for constructing and maintaining complex ETL pipelines
  • Analyze data across disparate data sources without having to consolidate it into a centralized repository
Audience
  • Data scientists
  • Data engineers
Format of the Course
  • Part lecture, part discussion, exercises and heavy hands-on practice
Note
  • To request a customized training for this course, please contact us to arrange.
14 hours
The objective of the course is to enable participants to gain a mastery of how to work with the SQL language in Oracle database for data extraction at intermediate level.
35 hours
Advances in technologies and the increasing amount of information are transforming how business is conducted in many industries, including government. Government data generation and digital archiving rates are on the rise due to the rapid growth of mobile devices and applications, smart sensors and devices, cloud computing solutions, and citizen-facing portals. As digital information expands and becomes more complex, information management, processing, storage, security, and disposition become more complex as well. New capture, search, discovery, and analysis tools are helping organizations gain insights from their unstructured data. The government market is at a tipping point, realizing that information is a strategic asset, and government needs to protect, leverage, and analyze both structured and unstructured information to better serve and meet mission requirements. As government leaders strive to evolve data-driven organizations to successfully accomplish mission, they are laying the groundwork to correlate dependencies across events, people, processes, and information. High-value government solutions will be created from a mashup of the most disruptive technologies:
  • Mobile devices and applications
  • Cloud services
  • Social business technologies and networking
  • Big Data and analytics
IDC predicts that by 2020, the IT industry will reach $5 trillion, approximately $1.7 trillion larger than today, and that 80% of the industry's growth will be driven by these 3rd Platform technologies. In the long term, these technologies will be key tools for dealing with the complexity of increased digital information. Big Data is one of the intelligent industry solutions and allows government to make better decisions by taking action based on patterns revealed by analyzing large volumes of data — related and unrelated, structured and unstructured. But accomplishing these feats takes far more than simply accumulating massive quantities of data.“Making sense of thesevolumes of Big Datarequires cutting-edge tools and technologies that can analyze and extract useful knowledge from vast and diverse streams of information,” Tom Kalil and Fen Zhao of the White House Office of Science and Technology Policy wrote in a post on the OSTP Blog. The White House took a step toward helping agencies find these technologies when it established the National Big Data Research and Development Initiative in 2012. The initiative included more than $200 million to make the most of the explosion of Big Data and the tools needed to analyze it. The challenges that Big Data poses are nearly as daunting as its promise is encouraging. Storing data efficiently is one of these challenges. As always, budgets are tight, so agencies must minimize the per-megabyte price of storage and keep the data within easy access so that users can get it when they want it and how they need it. Backing up massive quantities of data heightens the challenge. Analyzing the data effectively is another major challenge. Many agencies employ commercial tools that enable them to sift through the mountains of data, spotting trends that can help them operate more efficiently. (A recent study by MeriTalk found that federal IT executives think Big Data could help agencies save more than $500 billion while also fulfilling mission objectives.). Custom-developed Big Data tools also are allowing agencies to address the need to analyze their data. For example, the Oak Ridge National Laboratory’s Computational Data Analytics Group has made its Piranha data analytics system available to other agencies. The system has helped medical researchers find a link that can alert doctors to aortic aneurysms before they strike. It’s also used for more mundane tasks, such as sifting through résumés to connect job candidates with hiring managers.
21 hours
Közönség Ha megpróbálja megérteni az adatokból, amelyekhez hozzáférhet, vagy elemezni kívánja a net strukturált adatokat (például Twitter, Linked in, stb.), Ez a kurzus az Ön számára. Leginkább a döntéshozóknak és azoknak az embereknek szól, akiknek ki kell választaniuk, hogy milyen adatokat érdemes gyűjteni és mit érdemes elemezni. Nem a megoldást konfiguráló emberekre irányul. Szállítási mód A tanfolyam során a küldöttek többnyire nyílt forráskódú technológiákkal foglalkozó példákat mutatnak be. A rövid előadásokat előadások és egyszerű gyakorlatok követik a résztvevők Tartalom és szoftver Minden használt szoftver frissül minden alkalommal, amikor a kurzust futtatják, így ellenőrizzük a legújabb verziókat. Ez az adatgyűjtés, -formázás, -feldolgozás és -elemzés folyamatát foglalja magában, hogy elmagyarázza, hogyan automatizálható a döntéshozatali folyamat a gépi tanulással.
35 hours
1. nap - magas szintű áttekintést nyújt az alapvető Big Data területéről. A modul szekciók sorozatára oszlik, amelyek mindegyikét gyakorlati gyakorlat kísérik. 2. nap - a Big Data környezetek elemzési gyakorlataival és eszközeivel kapcsolatos témaköröket vizsgálja. Nem kerül be a megvalósításba vagy programozási részletekbe, hanem a fogalom szintjén tartja a lefedettséget, és olyan témákra összpontosít, amelyek lehetővé teszik a résztvevők számára a Big Data megoldások által kínált közös elemzési funkciók és funkciók átfogó megértését. 3. nap - áttekintést ad a Big Data megoldás platform architektúrájához kapcsolódó alapvető és alapvető témakörökről. Magában foglalja a Big Data megoldások platformjának és az adatfeldolgozó platform összeszereléséhez szükséges architekturális lehetőségek fejlesztéséhez szükséges Big Data mechanizmusokat. Gyakori forgatókönyvek is bemutatásra kerülnek, hogy alapvető ismereteket kapjanak arról, hogyan használják általában a Big Data megoldást. 4. nap - a 3. napra építve a Big Data megoldás platform architektúrájához kapcsolódó fejlett témák feltárásával. Különösen a Big Data megoldás platformját alkotó különböző építészeti rétegeket ismertetik és tárgyalják, beleértve az adatforrásokat, az adatok bejutását, az adatok tárolását, az adatfeldolgozást és a biztonságot. Az 5. nap számos olyan gyakorlattal és problémával foglalkozik, amelyek célja, hogy teszteljék a küldöttek azon képességét, hogy a 3. és 4. napra vonatkozó témaköröket tudják alkalmazni.
21 hours
Big Data olyan kifejezés, amely nagy adathalmazok tárolására és feldolgozására szánt megoldásokra vonatkozik. A Go ogle által kifejlesztett Big Data megoldások más hasonló projekteket fejlesztettek ki és inspiráltak, amelyek közül sok nyílt forráskódú. Az R egy népszerű programozási nyelv a pénzügyi ágazatban.
14 hours
Ha a hagyományos tárolási technológiák nem kezelik a tárolni kívánt adatmennyiséget, alternatívák vannak. Ez a kurzus megpróbálja irányítani a résztvevőket, hogy milyen lehetőségek állnak rendelkezésre a Big Data tárolására és elemzésére, és mi a saját előnye és hátránya. Ez a kurzus többnyire a megoldások megvitatására és bemutatására összpontosít, bár a gyakorlati gyakorlatok igény szerint rendelkezésre állnak.
14 hours
A kurzus a Data Scientist készségkészlet része (Domain: Data and Technology).
35 hours
A nagy adat olyan adatkészletek, amelyek annyira terjedelmesek és összetettek, hogy a hagyományos adatfeldolgozó alkalmazásszoftverek nem megfelelőek ezek kezelésére. A nagy adat kihívások között szerepel az adatok rögzítése, az adatok tárolása, az adatok elemzése, a keresés, a megosztás, az átvitel, a megjelenítés, a lekérdezés, a frissítés és az adatvédelem.
14 hours
Vespa egy nyílt forráskódú nagy adatfeldolgozó és kiszolgáló motor, amelyet a Yahoo hoz létre Felhasználja a felhasználói lekérdezéseket, ajánlásokat tesz közzé, és személyre szabott tartalmakat és reklámokat nyújt valós időben Ez az oktatott, élő képzés bemutatja a nagyméretű adatok kiszolgálására vonatkozó kihívásokat, és a résztvevőket olyan alkalmazás létrehozásával hozza létre, amely képes a felhasználó kéréseire adott válaszok kiszámolására, a nagyméretű adatkészletek felett valós időben A képzés végére a résztvevők képesek lesznek: A Vespa használatával gyorsan kiszámíthatja az adatokat (tárolja, keresheti, rendezi, rendszerezi) a kiszolgálás ideje alatt, amíg a felhasználó vár A Vespa megvalósítása a meglévő alkalmazásokban, szolgáltatáskereséssel, ajánlásokkal és személyre szabással Integrálja és telepítse a Vespát meglévő nagy adatrendszereivel, mint például a Hadoop és a Storm Közönség Fejlesztők A tanfolyam formátuma Részelőadás, vitafórumok, gyakorlatok és nehéz handson gyakorlat .
14 hours
A szabályozók megfelelőségének kielégítése érdekében a CSP-k ( Communication szolgáltatók) igénybe vehetik a Big Data Analytics szolgáltatást, amelyek nemcsak segítenek számukra a megfelelés teljesítésében, hanem ugyanazon projekt keretein belül növelik az ügyfelek elégedettségét, és így csökkentik az igénybevételt. Valójában, mivel a megfelelés a szerződéshez kötött szolgáltatás minőségéhez kapcsolódik, a megfelelés teljesítésére irányuló minden kezdeményezés javítja a CSP „versenyképességét”. Ezért fontos, hogy a szabályozók képesek legyenek tanácsot adni / irányítani a CSP-k Big Data elemzési gyakorlatának sorozatát, amely a szabályozók és a CSP között kölcsönös előnyökkel jár. A tanfolyam 8 modulból áll (4 az 1. napon és 4 a 2. napon)
35 hours
A technológiai fejlődés és a növekvő információmennyiség átalakítja a bűnüldözés végrehajtását. A kihívások, amelyeket a Big Data jelent, majdnem olyan félelmetes, mint a Big Data ígéretét. Az adatok hatékony tárolása az egyik ilyen kihívás; ez egy másik elemzés. Ebben oktató által vezetett, az élő képzés, a résztvevők megtanulják a gondolkodásmód, amellyel megközelíteni Big Data technológiák azok hatásának értékelése a meglévő folyamatok és politikák, és alkalmazza ezeket a technológiákat azonosítása céljából bűncselekmények és a bűncselekmények megelőzésére. A világ minden részén működő rendészeti szervezetek esettanulmányait megvizsgálják, hogy betekintést nyerjenek elfogadási megközelítéseikbe, kihívásaiba és eredményeikbe. A képzés végére a résztvevők képesek lesznek:
  • Kombinálja a Big Data technológiát a hagyományos adatgyűjtési folyamatokkal, hogy egy történetet összeállítson a nyomozás során
  • Ipari nagy adattárolási és -feldolgozási megoldások végrehajtása az adatok elemzéséhez
  • Készítsen elő javaslatot a bűnügyi nyomozás adatközpontú megközelítését lehetővé tevő legmegfelelőbb eszközök és folyamatok elfogadására
Közönség
  • Rendészeti szakemberek műszaki háttérrel
A tantárgy formátuma
  • Részleges előadás, részleges beszélgetés, gyakorlatok és nehéz gyakorlati gyakorlat
14 hours
This classroom based training session will explore Big Data. Delegates will have computer based examples and case study exercises to undertake with relevant big data tools
14 hours
Cél : A képzés célja, hogy segítse a résztvevőket abban, hogy megértsék, miért változtatja meg a Big Data az életünket, és hogyan változtatja meg azt, ahogy a vállalkozások fogyasztóknak tekintnek minket. Valójában a nagyvállalatok nagyvállalati adatainak felhasználói úgy találják, hogy a nagy adatok sokféle információt és betekintést jelentenek, amelyek nagyobb nyereséget, csökkentett költségeket és kevesebb kockázatot eredményeznek. A hátránya azonban néha volt a csalódás, amikor túl sok hangsúlyt fektettek az egyes technológiákra, és nem elegendő figyelmet fordítottak a nagy adatkezelés pilléreire. A résztvevők ezen a tanfolyamon megtanulják, hogyan kell kezelni a nagy adatokat az adatintegráció, az adatkezelés és az adatbiztonság három pillére segítségével, hogy a nagy adatokat valódi üzleti értékké alakítsák. Az ügyfélmenedzsment esettanulmánya alapján végzett különféle gyakorlatok segítenek a résztvevőknek megérteni a mögöttes folyamatokat.
7 hours
Ez az oktató által irányított, élő (helyszíni vagy távoli) képzés olyan műszaki személyeknek szól, akik meg akarják tanulni, hogyan kell végrehajtani a gépi tanulási stratégiát, miközben maximalizálják a nagy adatok felhasználását. A képzés végére a résztvevők:
  • Megérteni a gépi tanulás fejlődését és trendeit.
  • Tudja, hogy a gépi tanulást hogyan használják a különböző iparágakban.
  • Ismerkedjen meg a szervezeten belüli gépi tanulás megvalósításához rendelkezésre álló eszközökkel, készségekkel és szolgáltatásokkal.
  • Tudja meg, hogyan lehet a gépi tanulást felhasználni az adatbányászat és az elemzés javítására.
  • Tudja meg, mi az adatközép háttér és hogyan használják azt a vállalkozások.
  • Tudja meg, hogy a nagy adatok és az intelligens alkalmazások milyen szerepet játszanak az iparágakban.
A tantárgy formátuma
  • Interaktív előadás és beszélgetés.
  • Sok gyakorlat és gyakorlat.
  • Gyakorlati megvalósítás élő laboratóriumi környezetben.
Tanfolyam testreszabási lehetőségek
  • Ha személyre szabott képzést szeretne kérni erre a kurzusra, kérjük vegye fel velünk a kapcsolatot, hogy megbeszélést szervezzen.
7 hours
Az Apache Sqoop egy parancssori felület az adatok relációs adatbázisokból és Hadooptörténő áthelyezéséhez. Apache Flume egy elosztott szoftver a big data kezelésére. A Sqoop és a Flume használatával a felhasználók adatokat továbbíthatnak a rendszerek között, és big data-adatokat importálhatnak a tárolási architektúrákba, például a Hadoop. Ez az oktató által vezetett, élő képzés (helyszíni vagy távoli) olyan szoftvermérnököknek szól, akik a Sqoop és flume-t kívánják használni a rendszerek közötti adatátvitelhez. A képzés végére a résztvevők:
  • Big data lenyelése sqoop és flume.
  • Több adatforrásból származó adatok betöltése.
  • Adatok áthelyezése relációs adatbázisokból HDFS-re és Hive.
  • Adatok exportálása a HDFS-ből relációs adatbázisba.
A tanfolyam formátuma
  • Interaktív előadás és beszélgetés.
  • Sok gyakorlat és gyakorlat.
  • Gyakorlati megvalósítás élő laborkörnyezetben.
Tanfolyam testreszabási beállításai
  • Ahhoz, hogy személyre szabott képzést igényeljen ehhez a tanfolyamhoz, kérjük, vegye fel velünk a kapcsolatot, hogy megszervezze.
28 hours
Talend Open Studio for Big Data egy nyílt forráskódú ETL eszköz a nagy adatok feldolgozására. Ez magában foglalja a fejlesztési környezetet, hogy kölcsönhatásba lépjen Big Data forrásokkal és célokkal, és munkát végezzen anélkül, hogy kódot kell írnia. Ez az oktató által vezetett, élő képzés (online vagy online) azoknak a technikai személyeknek szól, akik az Open Studio telepítését szeretnék Big Data az olvasás és az olvasás folyamatának egyszerűsítésére Big Data keresztül. A képzés befejezése után a résztvevők képesek lesznek:
    Telepítse és konfigurálja Talend Open Studio for Big Data. Csatlakozzon olyan Big Data rendszerekhez, mint a Cloudera, a HortonWorks, a MapR, az Amazon EMR és az Apache. Megértése és telepítése Open Studio's nagy adatkomponensek és csatlakozók. Állítsa be a paramétereket, hogy automatikusan generálja a MapReduce kódot. Használja az Open Studio's drag-and-drop interfész futtatásához Hadoop munkák. Prototípus nagy adatcsövek. Nagy adatintegrációs projektek automatizálása.
A kurzus formája
    Interaktív előadás és vita. Rengeteg gyakorlat és gyakorlat. Hands-on megvalósítás egy élő laboratóriumi környezetben.
Szakképesítési lehetőségek
    Ahhoz, hogy egy személyre szabott képzést kérjen erre a kurzusra, kérjük, vegye fel velünk a kapcsolatot a rendezéshez.
21 hours
The course is dedicated to IT specialists that are looking for a solution to store and process large data sets in distributed system environment Course goal: Getting knowledge regarding Hadoop cluster administration

Last Updated:

Online Big Data courses, Weekend Big Data courses, Evening Big Data training, Big Data boot camp, Big Data instructor-led, Weekend Big Data training, Evening Big Data courses, Big Data coaching, Big Data instructor, Big Data trainer, Big Data training courses, Big Data classes, Big Data on-site, Big Data private courses, Big Data one on one training

Kedvezmények tanfolyamokra

No course discounts for now.

Hírlevél kedvezmény

Tiszteletben tartjuk az Ön e-mail címét. Nem fogjuk továbbítani és nem adjuk el a címet más feleknek. Bármikor megváltoztathatja preferenciáit vagy leiratkozhat.

Néhány ügyfelünk

is growing fast!

We are looking for a good mixture of IT and soft skills in Hungary!

As a NobleProg Trainer you will be responsible for:

  • delivering training and consultancy Worldwide
  • preparing training materials
  • creating new courses outlines
  • delivering consultancy
  • quality management

At the moment we are focusing on the following areas:

  • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
  • SOA, BPM, BPMN
  • Hibernate/Spring, Scala, Spark, jBPM, Drools
  • R, Python
  • Mobile Development (iOS, Android)
  • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
  • You need to have patience and ability to explain to non-technical people

To apply, please create your trainer-profile by going to the link below:

Apply now!

This site in other countries/regions