Kurzusleírás

Bevezetés

Ez a rész általános bevezetést nyújt arról, hogy mikor érdemes gépi tanulást alkalmazni, mire kell figyelni, és mit jelent mindez, beleértve az előnyöket és hátrányokat. Adattípusok (strukturált/nem strukturált/statikus/streames), adatérvényesség/adatmennyiség, adatvezérelt vs. felhasználóvezérelt elemzés, statisztikai modellek vs. gépi tanulási modellek, a felügyelet nélküli tanulás kihívásai, bias-variancia kompromisszum, iteráció/értékelés, keresztvalidációs megközelítések, felügyelt/felügyelet nélküli/megerősítéses tanulás.

FŐ TÉMAKÖRÖK

1. A naiv Bayes megértése

  • A Bayes-módszerek alapfogalmai
  • Valószínűség
  • Közös valószínűség
  • Feltételes valószínűség a Bayes-tétellel
  • A naiv Bayes algoritmus
  • A naiv Bayes osztályozás
  • A Laplace-becslő
  • Numerikus jellemzők használata a naiv Bayesban

2. A döntési fák megértése

  • Oszd meg és uralkodj
  • A C5.0 döntési fa algoritmus
  • A legjobb felosztás kiválasztása
  • A döntési fa nyesése

3. A neurális hálózatok megértése

  • Biológiai neuronoktól a mesterséges neuronokig
  • Aktivációs függvények
  • Hálózati topológia
  • A rétegek száma
  • Az információ áramlásának iránya
  • Az egyes rétegekben lévő csomópontok száma
  • Neurális hálózatok tanítása visszaterjesztéssel
  • Mély tanulás

4. A támogató vektorgépek megértése

  • Osztályozás hipersíkokkal
  • A maximális margó megtalálása
  • Lineárisan szeparálható adatok esete
  • Nem lineárisan szeparálható adatok esete
  • Kernel használata nem lineáris terekben

5. A klaszterezés megértése

  • Klasterezés mint gépi tanulási feladat
  • A k-átlag algoritmus a klaszterezéshez
  • Távolság használata a klaszterek hozzárendeléséhez és frissítéséhez
  • A megfelelő klaszterek számának kiválasztása

6. Teljesítménymérés osztályozásnál

  • Osztályozási előrejelzési adatok kezelése
  • Részletes betekintés a zavarmátrixokba
  • Zavarmátrixok használata teljesítményméréshez
  • Tovább a pontosságtól – más teljesítménymérők
  • A kappa statisztika
  • Érzékenység és specificitás
  • Pontosság és visszahívás
  • Az F-mérték
  • Teljesítménykompromisszumok vizualizálása
  • ROC görbék
  • Jövőbeli teljesítmény becslése
  • A holdout módszer
  • Keresztvalidáció
  • Bootstrap mintavételezés

7. Alapmodellek finomhangolása jobb teljesítményért

  • A caret használata automatikus paraméterhangoláshoz
  • Egyszerű finomhangolt modell létrehozása
  • A hangolási folyamat testreszabása
  • Modellteljesítmény javítása meta-tanulással
  • Ensemble-ek megértése
  • Bagging
  • Boosting
  • Véletlen erdők
  • Véletlen erdők tanítása
  • Véletlen erdők teljesítményének értékelése

KISEBB TÉMAKÖRÖK

8. Osztályozás megértése a legközelebbi szomszédok módszerével

  • A kNN algoritmus
  • Távolság számítása
  • Megfelelő k kiválasztása
  • Adatok előkészítése a kNN-hez
  • Miért lusta a kNN algoritmus?

9. Osztályozási szabályok megértése

  • Oszd meg és uralkodj
  • A One Rule algoritmus
  • A RIPPER algoritmus
  • Szabályok döntési fákból

10. Regresszió megértése

  • Egyszerű lineáris regresszió
  • Legkisebb négyzetek módszere
  • Korrelációk
  • Többszörös lineáris regresszió

11. Regressziós fák és modellfák megértése

  • Regresszió hozzáadása fához

12. Szabályasszociációk megértése

  • Az Apriori algoritmus a szabályasszociációs tanuláshoz
  • Szabályérdeklődés mérése – támogatottság és megbízhatóság
  • Szabálykészlet építése az Apriori elv alapján

Extrák

  • Spark/PySpark/MLlib és Multi-armed bandits

Követelmények

Python ismeretek

 21 Órák

Résztvevők száma


Ár per résztvevő

Vélemények (7)

Közelgő kurzusok

Rokon kategóriák