Kurzusleírás

Bevezetés

  • Mesterséges neurális hálózatok kontra döntési fa alapú algoritmusok

Az XGBoost szolgáltatásainak áttekintése

  • Elements egy Gradient Boosting algoritmus
  • Koncentráljon a számítási sebességre és a modell teljesítményére
  • XGBoost vs Logistic Regression, Random Forest és szabványos Gradient Boosting

A faalapú algoritmusok evolúciója

  • Döntési fák, zsákolás, Random Forest, kiemelés, színátmenet növelése
  • Rendszer optimalizálás
  • Algoritmikus fejlesztések

A környezet előkészítése

  • A SciPy és a scikit-learn telepítése

XGBoost modell létrehozása

  • Adatkészlet letöltése
  • Gyakori osztályozási probléma megoldása
  • Az XGBoost modell osztályozásra való betanítása
  • Oldjon meg egy közös regressziós feladatot!

Teljesítmény figyelése

  • A teljesítmény értékelése és jelentése
  • Korai megállás

Jellemzők ábrázolása fontosság szerint

  • A jellemző fontosságának kiszámítása
  • Annak eldöntése, hogy mely bemeneti változókat kívánja megtartani vagy elvetni

A Gradient Boosting konfigurálása

  • Tekintse át a tanulási görbéket a képzési és érvényesítési adatkészleteken
  • A tanulási sebesség beállítása
  • A fák számának beállítása

Hiperparaméter hangolás

  • Az XGBoost modell teljesítményének javítása
  • Ellenőrzött kísérlet tervezése a hiperparaméterek hangolására
  • Searchparaméterek kombinációi

Csővezeték létrehozása

  • XGBoost modell beépítése egy végpontok közötti gépi tanulási folyamatba
  • Hiperparaméterek hangolása a folyamatban
  • Fejlett előfeldolgozási technikák

Hibaelhárítás

Összefoglalás, és következtetés

Követelmények

  • Tapasztalja meg a gépi tanulási modellek írását

Közönség

  • Adattudósok
  • Gépi tanulási mérnökök
 14 Hours

Résztvevők száma



Ár per résztvevő

Rokon kategóriák