Köszönjük, hogy elküldte érdeklődését! Csapatunk egyik tagja hamarosan felveszi Önnel a kapcsolatot.
Köszönjük, hogy elküldte foglalását! Csapatunk egyik tagja hamarosan felveszi Önnel a kapcsolatot.
Kurzusleírás
Bevezetés:
- Apache Spark in Hadoop Ökoszisztéma
- Rövid bevezető a python-hoz, scala-hoz
Alapok (elmélet):
- Építészet
- RDD
- Átalakulás és cselekvések
- Színpad, feladat, függőségek
A Databricks környezet használatával ismerje meg az alapokat (gyakorlati műhely):
- Gyakorlatok RDD API használatával
- Alapvető cselekvési és transzformációs függvények
- PárRDD
- Csatlakozik
- Gyorsítótárazási stratégiák
- Gyakorlatok a DataFrame API használatával
- SparkSQL
- DataFrame: kijelölés, szűrés, csoportosítás, rendezés
- UDF (felhasználó által meghatározott függvény)
- A DataSet API vizsgálata
- Folyó
Az AWS környezet használatával ismerje meg a telepítést (gyakorlati műhely):
- Az AWS ragasztó alapjai
- Ismerje meg az AWS EMR és az AWS ragasztó közötti különbségeket
- Példamunkák mindkét környezetben
- Értse meg az előnyöket és hátrányokat
Külön:
- Bevezetés a Apache Airflow hangszerelésbe
Követelmények
Programozási ismeretek (lehetőleg python, scala)
SQL alapok
21 Órák
Vélemények (3)
Kezdő szintű gyakorlati feladatok / feladatok végrehajtása
Poornima Chenthamarakshan - Intelligent Medical Objects
Kurzus - Apache Spark in the Cloud
Gépi fordítás
1. A magas szintű fogalmak és a technikai részletek közötti megfelelő egyensúly. 2. András nagyon ismerős a tanításával. 3. Feladat
Steven Wu - Intelligent Medical Objects
Kurzus - Apache Spark in the Cloud
Gépi fordítás
Ismerkedj el a Spark Streaming, Databricks és AWS Redshift technológiákkal
Lim Meng Tee - Jobstreet.com Shared Services Sdn. Bhd.
Kurzus - Apache Spark in the Cloud
Gépi fordítás