Kurzusleírás

Nyitó: Nyílt forrású LLM-ek bevezetése

  • Mi az open-weight modellek és miért fontosak
  • Áttekintés az LLaMA, Mistral, Qwen és más közösségi modellekről
  • Alkalmazások magán, helyszíni vagy biztonságos telepítésekhez

Környezeti beállítás és eszközök

  • Transformers, Datasets és PEFT könyvtárak telepítése és konfigurálása
  • Alkalmazható hardver kiválasztása a finomhangoláshoz
  • Előképzett modellek betöltése Hugging Face vagy más tárolóhelyekről

Adatfelkészítés és előfeldolgozás

  • Adathalmaz formátumok (utasítási hangolás, chat adatok, szövegcsak)
  • Tokenizálás és sorozatok kezelése
  • Egyedi adathalmazok és adatbetöltők létrehozása

Fine-Tuning technikák

  • Általános teljes finomhangolás vs. paraméterhatékony módszerek
  • LoRA és QLoRA alkalmazása hatékony finomhangoláshoz
  • Trainer API használata gyors kísérletezéshez

Modellértékelés és optimalizálás

  • Finomhangolt modellek értékelése generálási és pontossági mutatókkal
  • Túlhangolás, generalizálás és validációs halmazok kezelése
  • Teljesítményoptimalizálási tippek és naplózás

Telepítés és magánhasználat

  • Modellek mentése és betöltése előrejelzéshez
  • Finomhangolt modellek telepítése biztonságos vállalati környezetekben
  • Helyszíni vs. felhő alapú telepítési stratégiák

Eseménytanulmányok és Use Case-ok

  • LLaMA, Mistral és Qwen vállalati alkalmazásának példái
  • Többnyelvű és tartományi finomhangolás kezelése
  • Vitatanterem: Nyílt és zárt modellek közötti kompromisszumok

Összefoglaló és következő lépések

Követelmények

- Nagy nyelvmodellek (LLMs) és azok architektúrájának megértése - Tapasztalat a Python és PyTorch használatában - Alapvető ismeretek a Hugging Face ekosztémáról **Célközönség** - ML gyakorlók - AI fejlesztők
 14 Órák

Résztvevők száma


Ár résztvevőnként

Közelgő kurzusok

Rokon kategóriák