Kurzusleírás

Paraméterhatékony bevezetés Fine-Tuning (PEFT)

  • Motívumok és teljes finomhangolás korlátai
  • PEFT áttekintése: célok és előnyök
  • Alkalmazások és ipari használati esetek

LoRA (Alacsony Rangú Adaptáció)

  • LoRA fogalma és intuitiója
  • LoRA implementálása Hugging Face és PyTorch használatával
  • Pratikus: Modell finomhangolása LoRA-val

Adapter Tuning

  • Adapter modulok működése
  • Integrálás transformer alapú modellekkel
  • Pratikus: Adapter Tuning alkalmazása egy transformer modellre

Prefix Tuning

  • Soft promptok használata a finomhangoláshoz
  • Erősségek és korlátok LoRA-val és adapterekkel összehasonlítva
  • Pratikus: Prefix Tuning egy LLM feladatban

PEFT módszerek értékelése és összehasonlítása

  • Teljesítmény és hatékonyság értékelési mértékei
  • Kompromisszumok a tanítás sebessége, memóriahasználat és pontosság között
  • Benchmark tesztek és eredmény értelmezése

Finomhangolt modellek telepítése

  • Finomhangolt modellek mentése és betöltése
  • PEFT alapú modell telepítési szempontok
  • Integrálás alkalmazásokba és folyamatokba

Legjobb gyakorlatok és kiterjesztések

  • PEFT kombinálása kvantálással és disztillációval
  • Használat alacsony erőforrásos és többnyelvű környezetekben
  • Jövőbeli irányok és aktív kutatási területek

Összefoglalás és következő lépések

Követelmények

  • A gépe Tanulás alapok megértése
  • Tapasztalat a nagy nyelvmodellek (LLMs) használatával
  • Ismeret Python és PyTorch felhasználásával

Célközönség

  • Adat tudósok
  • Műszaki AI mérnökök
 14 Órák

Résztvevők száma


Ár résztvevőnként

Közelgő kurzusok

Rokon kategóriák