Big Data Egészségügyi analitika Képzés
A nagy adatelemzés magában foglalja a nagy mennyiségű, változatos adatkészlet vizsgálatát a korrelációk, rejtett minták és egyéb hasznos betekintések feltárása érdekében.
Az egészségügyi ágazat hatalmas mennyiségű komplex, heterogén orvosi és klinikai adatot tartalmaz. A nagy adatelemzés alkalmazása az egészségügyi adatokra hatalmas potenciállal jár ahhoz, hogy betekintést szerezzen az egészségügyi ellátás javításában. Ezen adatkészletek hatalmassága azonban nagy kihívást jelent az elemzésekben és a klinikai környezetben történő gyakorlati alkalmazásokban.
Ebben az oktató által vezetett, élő (távoli) képzésen a résztvevők megtanulják, hogyan végezzen nagy adatelemzést az egészségben, miközben gyakorlati élő laboratóriumi gyakorlatokat végeznek.
A képzés végére a résztvevők képesek lesznek:
- Telepítse és konfigurálja a nagy adatelemző eszközöket, például a Hadoop MapReduce és a Spark
- Megérteni az orvosi adatok jellemzőit
- Nagyméretű technikák alkalmazása az orvosi adatok kezelésére
- Tanulmányozza a nagy adatrendszereket és algoritmusokat az egészségügyi alkalmazások összefüggésében
Közönség
- Fejlesztők
- Adattudósok
A tantárgy formátuma
- Részleges előadás, részleges beszélgetés, gyakorlatok és nehéz gyakorlati gyakorlat.
jegyzet
- Ahhoz, hogy igényeljen személyre szabott képzést erre a kurzusra, kérjük, vegye fel velünk a kapcsolatot, hogy megbeszéljünk.
Kurzusleírás
Bevezetés az Big Data Analytics in Health szolgáltatásba
Az Big Data Analytics-technológiák áttekintése
- Apache Hadoop MapReduce
- Apache Spark
Az Apache Hadoop MapReduce telepítése és konfigurálása
Telepítés és konfigurálás Apache Spark
Prediktív modellezés használata egészségügyi adatokhoz
Az Apache Hadoop MapReduce for Health Data használata
Fenotipizálás és klaszterezés végrehajtása egészségügyi adatokon
- Osztályozási értékelési mérőszámok
- Osztályozási együttes módszerek
A Apache Spark használata az egészségügyi adatokhoz
Orvosi ontológiával való munka
Az egészségügyi adatok grafikonelemzésének használata
Dimenziócsökkentés az egészségügyi adatokon
Munka a betegek hasonlósági mérőszámaival
Hibaelhárítás
Összefoglalás, és következtetés
Követelmények
- A gépi tanulási és adatbányászati koncepciók megértése
- Haladó programozási tapasztalat (Python, Java, Scala)
- Adat- és ETL folyamatokban való jártasság
A nyílt képzésekhez 5+ résztvevő szükséges.
Big Data Egészségügyi analitika Képzés - Foglalás
Big Data Egészségügyi analitika Képzés - Érdeklődés
Big Data Egészségügyi analitika - Érdeklődjön a vezetői tanácsadásról!
Érdeklődjön a vezetői tanácsadásról!
Vélemények (1)
A VM-t nagyon tetszett nekem. Az oktató rendkívül jól tudott a tárgyról, és más témákról is, nagyon kedves és barátságos volt. Szerettem volna a Dubajban lévő létesítményt.
Safar Alqahtani - Elm Information Security
Kurzus - Big Data Analytics in Health
Gépi fordítás
Közelgő kurzusok
Rokon tanfolyam
Adminisztrátori képzés Apache számára Hadoop
35 ÓrákCélpontsáv:
A kurz az IT-szakembereket célozza, akik megoldást keresnek nagy adathalmazok tárolására és feldolgozására elosztott rendszerekben.
Előfeltételek:
Mélyreható ismeret Hadoop cluster-adminisztrációban.
Big Data Analytics az Google Colab és a Apache Spark szolgáltatással
14 ÓrákEz az oktatóvezetett, élő kiszolgált (online vagy helyszínen) képzés a közepes szintű adattudósok és mérnökök számára készült, akik nagy adatok feldolgozására és elemzésére szeretnék használni a Google Colab-ot és a Apache Spark-et.
Ez a képzés végére a résztvevők képesek lesznek:
- Nagy adatkörnyezet beállítása Google Colab-mal és Spark-kal.
- Nagy adathalmazok hatékony feldolgozása és elemzése Apache Spark-vel.
- Nagy adatok vizualizálása együttműködő környezetben.
- Apache Spark integrálása felhőalapú eszközökkel.
Hadoop adminisztráció
21 ÓrákA kurzus azoknak az IT szakembernek szól, akik megoldást keresnek nagy adatkészletek tárolására és feldolgozására elosztott rendszerkörnyezetben.
Kurzus célja:
Ismerkedés a Hadoop-fürt adminisztrálásának alapjaiival
Hadoop és Spark rendszergazdák számára
35 ÓrákEz az edző által vezetett, élő képzés Magyarország-ban (online vagy helyszíni) a rendszergazdák számára készült, akik tanulni szeretnének, hogyan állítsanak be, közzétegyenek és kezeljenek Hadoop fürtöket a vállalatukon belül.
A képzés végén a résztvevők:
- Képesek lesznek Apache Hadoopt telepíteni és konfigurálni.
- Megértsék a Hadoop-ekoszisztémában lévő négy fő összetevőt: HDFS, MapReduce, YARN és Hadoop Common-t.
- A Hadoop Distributed File System (HDFS)-et olyan módon használják, hogy a fürt méretét százokra vagy ezredekbe növelhetik.
- Beállítják az HDFS-t a helyszíni Spark telepítések adattároló rendszerének működéséhez.
- Beállítják a Spark-ot olyan alternatív adattárolási megoldások eléréséhez, mint az Amazon S3 és a NoSQL adatbázisrendszerek (pl. Redis, Elasticsearch, Couchbase, Aerospike stb.).
- Képesek lesznek rendszergazdai feladatokat elvégezni, mint például: üzembe helyezés, kezelés, monitorozás és biztonságossá tétele egy Apache Hadoop fürtnek.
A Practical Introduction to Stream Processing
21 ÓrákEz oktatóvezetett, élő képzés Magyarország (helyszíni vagy távoli) keretében a résztvevők megtanulják, hogyan állítsanak be és integrálják különböző Stream Processing keretrendszereket a létező nagyadatos tárolási rendszerekkel és kapcsolódó szoftveralkalmazásokkal és mikroszolgáltatásokkal.
E képzés végén a résztvevők képesek lesznek:
- Előállítani és konfigurálni különböző Stream Processing keretrendszereket, például Spark Streaming és Kafka Streaming.
- Megértenek és kiválasztanak a megfelelő keretrendet a feladathoz.
- Adatok folyamatos, párhuzamos és rekordonkénti feldolgozását végrehajtják.
- Stream Processing megoldásokat integrálnak a létező adatbázisokkal, adatraktárakkal, adat-tavakkal stb.
- A megfelelő stream processing könyvtárat integrálják az üzleti alkalmazásokkal és mikroszolgáltatásokkal.
SMACK Stack a Data Science-hez
14 ÓrákEz az oktató által vezetett, élő kormányzás Magyarország-ban (online vagy helyszíni) adatait tudósokra irányul, akik szeretnék használni a SMACK stack-ot nagy adatmegoldásokhoz.
Ez az oktatási program végére a résztvevők képesek lesznek:
- Adatfeldolgozási architektúra kialakítása nagy adatok kezeléséhez.
- Klüster infrastruktúra fejlesztése Apache Mesos és Docker használatával.
- Adatok elemzése Spark és Scala segítségével.
- Strukturálhatatlan adatok kezelése Apache Cassandra használatával.
Apache Spark Alapjai
21 ÓrákEz az oktató vezetett, élő képzés Magyarország (online vagy helyszínen) azzal az ingenierek számára készült, akik be szeretnének állítani és üzembe helyezni az Apache Spark rendszert nagyon nagy mennyiségű adat feldolgozásához.
E képzés végére a résztvevők képesek lesznek:
- Az Apache Spark telepítésére és konfigurálására.
- Gyorsan feldolgozni és elemezni nagyon nagy adatmennyiségeket.
- Megérteni az eltéréseket az Apache Spark és a Hadoop MapReduce között, valamint tudniuk, melyiket használják milyen esetben.
- Egyéb gépi tanulási eszközt integrálni az Apache Sparkkal.
Apache Spark kezelése
35 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) kezdő és középszintű rendszergazdáknak szól, akik szeretnék telepíteni, karbantartani és optimalizálni a Spark-fürtöket.
A képzés végére a résztvevők képesek lesznek:
- Telepítse és konfigurálja a Apache Spark-t különféle környezetekben.
- Fürterőforrások kezelése és Spark-alkalmazások figyelése.
- Optimalizálja a Spark-fürtök teljesítményét.
- Biztonsági intézkedések végrehajtása és magas rendelkezésre állás biztosítása.
- Hibakeresés és a gyakori Spark-problémák elhárítása.
Apache Spark a felhőben
21 ÓrákAz Apache Spark tanulási görbe lassan növekszik a kezdetben, sok erőt igényel az első eredmény eléréséhez. Ez a kurzus célja, hogy átugorja az első nehéz részt. A kurzus elvégzése után a résztvevők meg fogják érteni az Apache Spark alapjait, tisztán meg fogják különböztetni az RDD-t a DataFrame-től, meg fogják tanulni a Python és Scala API-t, meg fogják érteni az executorsokat és a feladatokat stb. A legjobb gyakorlatokat követve, ezen a kurzuson erősen hangsúlyozzuk a felhőbe való telepítést, a Databricks-t és az AWS-t. A tanulók meg fogják érteni az AWS EMR és AWS Glue különbségeit, az AWS legújabb Spark szolgáltatását.
AUDIENCE:
Adatmérnök, DevOps, Adattudós
Spark a fejlesztők számára
21 ÓrákCÉL:
Ez a kurzus bemutatja az Apache Spark-ot. A tanulók megtanulják, hogyan illeszkedik be a Spark a Big Data ökoszisztémába, és hogyan használható adatelemzésre. A kurzus tartalmazza a Spark shell interaktív adatelemzésének, a Spark belső szerkezetének, API-jának, SQL, streaming, gépi tanulás és GraphX szegmenseinek bemutatását.
CÉLSZOMBOR:
Fejlesztők / Adatelemzők
Adatok Csővezetékének Skálázása Spark NLP-vel
14 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) azoknak az adattudósoknak és fejlesztőknek szól, akik a Apache Spark-ra épülő Spark NLP-et szeretnék használni természetes nyelvi szövegfeldolgozás fejlesztésére, megvalósítására és méretezésére. modellek és csővezetékek.
A képzés végére a résztvevők képesek lesznek:
- Állítsa be a szükséges fejlesztői környezetet az NLP-folyamatok építésének megkezdéséhez az Spark NLP segítségével.
- Ismerje meg a Spark NLP használatának jellemzőit, architektúráját és előnyeit.
- A szövegfeldolgozás megvalósításához használja az Spark NLP-ben elérhető előre betanított modelleket.
- Tanulja meg, hogyan készíthet, taníthat és méretezhet Spark NLP modelleket gyártási szintű projektekhez.
- Alkalmazzon osztályozást, következtetést és hangulatelemzést a valós használati esetekre (klinikai adatok, vásárlói viselkedési betekintések stb.).
Python and Spark for Big Data (PySpark)
21 ÓrákEzen az oktató által vezetett, élő képzésen a Magyarország-ban a résztvevők megtanulják, hogyan használhatják a Python-t és a Spark-ot a nagy adatok elemzésére, miközben gyakorlati gyakorlatokon dolgoznak.
A képzés végére a résztvevők képesek lesznek:
- Ismerje meg, hogyan használja a Sparkot a Python-val a Big Data elemzéséhez.
- Dolgozz olyan gyakorlatokon, amelyek a valós eseteket utánozzák.
- Használjon különféle eszközöket és technikákat a nagy adatelemzéshez az PySpark segítségével.
Python, Spark, and Hadoop for Big Data
21 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) azoknak a fejlesztőknek szól, akik szeretnék használni és integrálni a Sparkot, Hadoop és Python nagy és összetett adatkészletek feldolgozására, elemzésére és átalakítására.
A képzés végére a résztvevők képesek lesznek:
- Állítsa be a szükséges környezetet a nagy adatfeldolgozás megkezdéséhez a Spark, Hadoop és Python segítségével.
- Ismerje meg a Spark és Hadoop szolgáltatásait, alapvető összetevőit és architektúráját.
- Ismerje meg, hogyan integrálhatja a Sparkot, Hadoop és Python-et a nagy adatfeldolgozáshoz.
- Fedezze fel a Spark ökoszisztéma eszközeit (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka és Flume).
- A Netflix, a YouTube, az Amazon, a Spotify és az Google rendszeréhez hasonló együttműködésen alapuló szűrési ajánlórendszerek létrehozása.
- Használja Apache Mahout-ot a gépi tanulási algoritmusok méretezéséhez.
Apache Spark SQL
7 ÓrákAz Apache Spark SQL a strukturált és strukturálatlan adatok kezelésére szolgáló modul. A Spark SQL információt nyújt az adatok szerkezetéről valamint a végrehajtandó számításokról. Ez az információ használható optimalizálási célokra. Két gyakori felhasználási módja a Spark SQL-nak:
- SQL lekérdezések végrehajtása.
- meglévő Hive telepítésből történő adatolvasás.
Ez az oktató, élő képzés (terhelésben vagy távolról) segítséget nyújt a különböző típusú adatkészletek elemzésében a Spark SQL használatával.
A képzés végére a résztvevők képesek lesznek:
- Telepíteni és beállítani a Spark SQL-t.
- Elemezni adatokat a Spark SQL használatával.
- Lekérdezni különböző formátumú adatkészleteket.
- Megjeleníteni az adatokat és a lekérdezések eredményeit.
Képzés formája
- Interaktív előadás és tárgyalás.
- Sok gyakorlat és gyakorlás.
- Élő labor környezetben való alkalmazás.
Képzés személyre szabási lehetőségei
- Egyéni képzés kérése ennek a kurzusnak, kérem lépjen kapcsolatba velünk a megfelelő rendezéshez.
Stratio: Rocket és Intelligence Modulok PySpark-vel
14 ÓrákStratio egy adatokra összpontosító platform, amely nagy adatok, mesterséges intelligencia (AI) és kormányzati funkciókat integrál egy egyetlen megoldásba. Az Rocket és Intelligence modullai lehetővé teszik a gyors adatfelfedezést, átalakítást és előrehaladott analitikai feladatok végrehajtását vállalati környezetekben.
Ez az oktatóvezetett élő tanfolyam (online vagy helyszínen) középszerű szintű adatszakembereknek szól, akik hatékonyan szeretnék használni az Stratio Rocket és Intelligence modullait PySpark-al, a ciklusok, felhasználódefiniált függvények és előrehaladott adatlogika hangsúlyozásával.
E tanfolyam végére a résztvevők képesek lesznek:
- Navigálni és dolgozni az Stratio platformon az Rocket és Intelligence modullal.
- Alkalmazni PySpark-t az adatbefogadás, átalakítás és elemzés kontextusában.
- Ciklusokat és feltételes logikát használni az adatfolyamok és a jellemzők generálásának ellenőrzéséhez.
- Létrehozni és kezelni felhasználódefiniált függvényeket (UDF) ismételten felhasználható adatműveletekhez PySpark-ban.
A tanfolyam formátuma
- Interaktív előadás és beszélgetés.
- Sokat gyakorolunk és gyakorolunk.
- Kézbesített implementáció élő laboratóriumi környezetben.
A tanfolyam testreszabási lehetőségei
- Egy testreszabott tanfolyam kéréséhez kérjük, lépjen kapcsolatba velünk.