Kurzusleírás

Megismerjük a megerősítő tanulást

  • Áttekintés a megerősítő tanulásról és alkalmazásairól
  • A felügyelt, felügyelt nélküli és megerősítő tanulás közötti különbségek
  • Kulcsfontosságú fogalmak: ügynök, környezet, jutalom és stratégia

Markov-döntő folyamatok (MDPs)

  • Állapotok, cselekedetek, jutalmak és állapotátmenetek megértése
  • Értékfüggvények és a Bellman-egyenlet
  • Dinamikus programozás MDP-ok megoldására

Alapvető RL algoritmusok

  • Tábla alapú módszerek: Q-Learning és SARSA
  • Stratégia alapú módszerek: REINFORCE algoritmus
  • Színész-kritikus keretek és alkalmazásuk

Mély megerősítő tanulás

  • Bevezetés a Deep Q-Networks (DQN) elméletébe
  • Élményismétlés és célhálózatok
  • Stratégiagradiens és fejlett mély RL módszerek

RL keretek és eszközök

  • Bevezetés az OpenAI Gym-be és más RL környezetekbe
  • PyTorch vagy TensorFlow használata RL modellfejlesztéshez
  • RL ügynökök kiképzése, tesztelése és mérésük

Kihívások az RL-ben

  • Kiképzés során az felfedezés és kihasználás kiegyensúlyozása
  • Ritka jutalomok és hitelrendelési problémák kezelése
  • Skálázhatóság és számítási kihívások az RL-ben

Gyakorlati tevékenységek

  • Q-Learning és SARSA algoritmusok implementálása alapoktól
  • DQN-alapú ügynök kiképzése egy egyszerű játékhoz az OpenAI Gym-ben
  • RL modellek finomítása javított teljesítményért saját környezetekben

Összegzés és következő lépések

Követelmények

  • Szilárd megértés a gépi tanulás elvei és algoritmusai iránt
  • Jól ért a Python programozáshoz
  • Ismerős a neurális hálózatokkal és a mély tanulás keretekkel

Audience

  • Gépi tanulás mérnökök
  • Műszaki intelligencia szakemberek
 14 Órák

Résztvevők száma


Ár résztvevőnként

Vélemények (1)

Közelgő kurzusok

Rokon kategóriák