Köszönjük, hogy elküldte érdeklődését! Csapatunk egyik tagja hamarosan felveszi Önnel a kapcsolatot.
Thank you for sending your booking! One of our team members will contact you shortly.
Kurzusleírás
Bevezetés
- Mesterséges neurális hálózatok kontra döntési fa alapú algoritmusok
Az XGBoost szolgáltatásainak áttekintése
- Elements egy Gradient Boosting algoritmus
- Koncentráljon a számítási sebességre és a modell teljesítményére
- XGBoost vs Logistic Regression, Random Forest és szabványos Gradient Boosting
A faalapú algoritmusok evolúciója
- Döntési fák, zsákolás, Random Forest, kiemelés, színátmenet növelése
- Rendszer optimalizálás
- Algoritmikus fejlesztések
A környezet előkészítése
- A SciPy és a scikit-learn telepítése
XGBoost modell létrehozása
- Adatkészlet letöltése
- Gyakori osztályozási probléma megoldása
- Az XGBoost modell osztályozásra való betanítása
- Oldjon meg egy közös regressziós feladatot!
Teljesítmény figyelése
- A teljesítmény értékelése és jelentése
- Korai megállás
Jellemzők ábrázolása fontosság szerint
- Jellemző fontosságának kiszámítása
- Annak eldöntése, hogy mely bemeneti változókat kívánja megtartani vagy elvetni
A Gradient Boosting konfigurálása
- Tekintse át a tanulási görbéket a képzési és érvényesítési adatkészleteken
- A tanulási sebesség beállítása
- A fák számának beállítása
Hiperparaméter hangolás
- Az XGBoost modell teljesítményének javítása
- Ellenőrzött kísérlet tervezése a hiperparaméterek hangolására
- Paraméterkombinációk keresése
Csővezeték létrehozása
- XGBoost modell beépítése egy végpontok közötti gépi tanulási folyamatba
- Hiperparaméterek hangolása a folyamatban
- Fejlett előfeldolgozási technikák
Hibaelhárítás
Összegzés és következtetés
Követelmények
- Tapasztalja meg a gépi tanulási modellek írását
Közönség
- Adattudósok
- Gépi tanulási mérnökök
14 Órák