Kurzusleírás

Bevezetés a nyílt forráskódú LLM-ekbe

  • Mik azok a nyílt súlyú modellek és miért fontosak
  • Áttekintés a LLaMA, Mistral, Qwen és más közösségi modellekről
  • Használati esetek privát, helyszíni vagy biztonságos üzembe helyezésekhez

Környezet beállítása és eszközök

  • A Transformers, Datasets és PEFT könyvtárak telepítése és konfigurálása
  • Megfelelő hardver kiválasztása a finomhangoláshoz
  • Előre betanított modellek betöltése a Hugging Face vagy más adattárakból

Adatok előkészítése és előfeldolgozása

  • Adatkészlet formátumok (utasítás finomhangolás, csevegési adatok, csak szöveg)
  • Tokenizálás és sorozatkezelés
  • Egyéni adatkészletek és adatbetöltők létrehozása

Finomhangolási technikák

  • Szabványos teljes finomhangolás vs. paraméter-hatékony módszerek
  • LoRA és QLoRA alkalmazása hatékony finomhangoláshoz
  • Trainer API használata gyors kísérletezéshez

Modell értékelése és optimalizálása

  • Finomhangolt modellek értékelése generálási és pontossági metrikákkal
  • Túlilleszkedés, általánosítás és validációs halmazok kezelése
  • Teljesítmény finomhangolási tippek és naplózás

Üzembe helyezés és privát használat

  • Modellek mentése és betöltése következtetéshez
  • Finomhangolt modellek üzembe helyezése biztonságos vállalati környezetekben
  • Helyszíni vs. felhőalapú üzembe helyezési stratégiák

Esettanulmányok és használati esetek

  • Példák a LLaMA, Mistral és Qwen vállalati használatára
  • Többnyelvű és tartományspecifikus finomhangolás kezelése
  • Vita: Kompromisszumok a nyílt és zárt modellek között

Összefoglalás és következő lépések

Követelmények

  • A nagy nyelvi modellek (LLM-ek) és azok architektúrájának ismerete
  • Tapasztalat Python és PyTorch használatában
  • Alapvető ismeretek a Hugging Face ökoszisztémáról

Célközönség

  • ML szakemberek
  • AI fejlesztők
 14 Órák

Résztvevők száma


Ár per résztvevő

Közelgő kurzusok

Rokon kategóriák