Kurzusleírás

Bevezetés a Big Data ökoszisztémákba

  • Áttekintés a big data technológiákról és architektúrákról
  • Kötegelt feldolgozás vs. valós idejű feldolgozás
  • Adattárolási stratégiák skálázhatóság érdekében

Fejlett adatfeldolgozás Apache Sparkkal

  • Spark feladatok optimalizálása a teljesítmény érdekében
  • Fejlett transzformációk és műveletek
  • Strukturált stream-ekkel való munka

Gépi tanulás nagyméretben

  • Elosztott modellképzési technikák
  • Hiperparaméter hangolás nagy adathalmazokon
  • Modell üzembe helyezése big data környezetekben

Mélytanulás a Big Data számára

  • TensorFlow és PyTorch integrálása Sparkkal
  • Elosztott mélytanulási képzési folyamatok
  • Használati esetek kép-, szöveg- és időszériaelemzésben

Valós idejű elemzések és adatstreamek

  • Apache Kafka adatstreamek betöltéséhez
  • Stream feldolgozási keretrendszerek
  • Figyelés és riasztás valós idejű rendszerekben

Adatirányítás, biztonság és etika

  • Adatvédelem és megfelelőségi követelmények
  • Hozzáférés-ellenőrzés és titkosítás big data rendszerekben
  • Etikai megfontolások nagyméretű elemzésekben

Big Data integrálása üzleti intelligenciával

  • Adatvizualizáció és irányítópultok big data számára
  • Big data folyamatok csatlakoztatása BI eszközökhöz
  • Üzleti eredmények elérése fejlett elemzésekkel

Összefoglalás és következő lépések

Követelmények

  • Erős megértés az adatelemzés és statisztikai modellezés alapjairól
  • Tapasztalat adatfeldolgozó eszközökkel és programozási nyelvekkel, mint például Python, R vagy Scala
  • Ismeret az elosztott számítási keretrendszerekről, mint például Hadoop vagy Spark

Célközönség

  • Adattudósok, akik elsajátítani szeretnék a nagyméretű adatfeldolgozást és prediktív elemzést
  • Főbb elemzők, akik fejlett elemzési munkafolyamatokat szeretnének tervezni és implementálni
  • Kutatás-fejlesztési szakemberek, akik innovatív, adatvezérelt megoldásokra fókuszálnak
 42 Órák

Résztvevők száma


Ár per résztvevő

Vélemények (4)

Közelgő kurzusok

Rokon kategóriák