Kurzusleírás
-
Scala bevezető
- Gyors bevezetés a Scalába
- Laborok: A Scala megismerése
-
Spark alapok
- Háttér és történelem
- Spark és Hadoop
- Spark fogalmak és architektúra
- Spark ökoszisztéma (core, spark sql, mlib, streaming)
- Laborok: Spark telepítése és futtatása
-
Első pillantás a Sparkra
- Spark futtatása helyi módban
- Spark web felület
- Spark shell
- Adathalmaz elemzése – 1. rész
- RDD-k vizsgálata
- Laborok: Spark shell felfedezése
-
RDD-k
- RDD fogalmak
- Partíciók
- RDD műveletek / transzformációk
- RDD típusok
- Kulcs-érték párok RDD-k
- MapReduce RDD-n
- Gyorsítótár és perzisztencia
- Laborok: RDD-k létrehozása és vizsgálata; RDD-k gyorsítótárazása
-
Spark API programozás
- Bevezetés a Spark API / RDD API-ba
- Az első program elküldése a Sparknak
- Hibakeresés / naplózás
- Konfigurációs tulajdonságok
- Laborok: Programozás a Spark API-ban, feladatok beküldése
-
Spark SQL
- SQL támogatás a Sparkban
- Dataframe-ek
- Táblák definiálása és adathalmazok importálása
- Adatkeretek lekérdezése SQL segítségével
- Tárolási formátumok: JSON / Parquet
- Laborok: Adatkeretek létrehozása és lekérdezése; adatformátumok értékelése
-
MLlib
- MLlib bevezető
- MLlib algoritmusok
- Laborok: MLib alkalmazások írása
-
GraphX
- GraphX könyvtár áttekintése
- GraphX API-k
- Laborok: Graph adatok feldolgozása Spark segítségével
-
Spark Streaming
- Streaming áttekintés
- Streaming platformok értékelése
- Streaming műveletek
- Csúszó ablak műveletek
- Laborok: Spark streaming alkalmazások írása
-
Spark és Hadoop
- Hadoop bevezető (HDFS / YARN)
- Hadoop + Spark architektúra
- Spark futtatása Hadoop YARN-on
- HDFS fájlok feldolgozása Spark segítségével
-
Spark teljesítmény és finomhangolás
- Broadcast változók
- Accumulátorok
- Memóriakezelés & gyorsítótár
-
Spark műveletek
- Spark üzembe helyezése éles környezetben
- Minta üzembehelyezési sablonok
- Konfigurációk
- Monitorozás
- Hibakeresés
Követelmények
ELŐFELTÉTELEK
ismeret a Java / Scala / Python nyelvben (laborjaink Scala és Python nyelven vannak)
alapvető ismeret a Linux fejlesztői környezetről (parancssoros navigáció / fájlszerkesztés VI vagy nano segítségével)
Vélemények (6)
Azonon megoldandó gyakorlati feladatok különböző módjaival való foglalkozás nagyban segít megérteni, hogy az egyes komponensek (Hadoop/Spark, egyműködő/kластер) milyen feladatokat tudnak önállóan és együtt elvégezni. Ez ötleteket adott arra, hogyan kellene tesztelni az alkalmazásomat a fejlesztés során helyi gépen, szemben azzal, amikor klasteron üzemeltetve van.
Thomas Carcaud - IT Frankfurt GmbH
Kurzus - Spark for Developers
Gépi fordítás
Ajay nagyon barátságos, segítőkész és ismerős volt a tárgyalás témájával.
Biniam Guulay - ICE International Copyright Enterprise Germany GmbH
Kurzus - Spark for Developers
Gépi fordítás
Ernesto did a great job explaining the high level concepts of using Spark and its various modules.
Michael Nemerouf
Kurzus - Spark for Developers
Gépi fordítás
The trainer made the class interesting and entertaining which helps quite a bit with all day training.
Ryan Speelman
Kurzus - Spark for Developers
Gépi fordítás
We know a lot more about the whole environment.
John Kidd
Kurzus - Spark for Developers
Gépi fordítás
Richard is very calm and methodical, with an analytic insight - exactly the qualities needed to present this sort of course.
Kieran Mac Kenna
Kurzus - Spark for Developers
Gépi fordítás