Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Kurzusleírás
Bevezetés
- Mesterséges neurális hálózatok kontra döntési fa alapú algoritmusok
Az XGBoost szolgáltatásainak áttekintése
- Elements egy Gradient Boosting algoritmus
- Koncentráljon a számítási sebességre és a modell teljesítményére
- XGBoost vs Logistic Regression, Random Forest és szabványos Gradient Boosting
A faalapú algoritmusok evolúciója
- Döntési fák, zsákolás, Random Forest, kiemelés, színátmenet növelése
- Rendszer optimalizálás
- Algoritmikus fejlesztések
A környezet előkészítése
- A SciPy és a scikit-learn telepítése
XGBoost modell létrehozása
- Adatkészlet letöltése
- Gyakori osztályozási probléma megoldása
- Az XGBoost modell osztályozásra való betanítása
- Oldjon meg egy közös regressziós feladatot!
Teljesítmény figyelése
- A teljesítmény értékelése és jelentése
- Korai megállás
Jellemzők ábrázolása fontosság szerint
- A jellemző fontosságának kiszámítása
- Annak eldöntése, hogy mely bemeneti változókat kívánja megtartani vagy elvetni
A Gradient Boosting konfigurálása
- Tekintse át a tanulási görbéket a képzési és érvényesítési adatkészleteken
- A tanulási sebesség beállítása
- A fák számának beállítása
Hiperparaméter hangolás
- Az XGBoost modell teljesítményének javítása
- Ellenőrzött kísérlet tervezése a hiperparaméterek hangolására
- Searchparaméterek kombinációi
Csővezeték létrehozása
- XGBoost modell beépítése egy végpontok közötti gépi tanulási folyamatba
- Hiperparaméterek hangolása a folyamatban
- Fejlett előfeldolgozási technikák
Hibaelhárítás
Összefoglalás, és következtetés
Követelmények
- Tapasztalja meg a gépi tanulási modellek írását
Közönség
- Adattudósok
- Gépi tanulási mérnökök
14 Hours