Kurzusleírás

Bevezetés a DeepSeek LLM finomhangolásba

  • Áttekintés a DeepSeek-modellekről, például a DeepSeek-R1 és a DeepSeek-V3
  • A nagy nyelvmodellek (LLM) finomhangolásának szükségessége
  • A finomhangolás és a prompt mérnöki munka összehasonlítása

Adathalmaz előkészítése a finomhangoláshoz

  • Doménspecifikus adathalmazok kiválasztása
  • Adatfeldolgozás és tisztítás technikák
  • Tokenizálás és adathalmaz formázása a DeepSeek LLM számára

Finomhangolási környezet beállítása

  • GPU és TPU gyorsítás konfigurálása
  • Hugging Face Transformers beállítása a DeepSeek LLM-mel
  • Finomhangolási hiperparaméterek megértése

DeepSeek LLM finomhangolása

  • Felügyelt finomhangolás implementálása
  • LoRA (Low-Rank Adaptation) és PEFT (Parameter-Efficient Fine-Tuning) használata
  • Elosztott finomhangolás nagy méretű adathalmazokhoz

Finomhangolt modellek értékelése és optimalizálása

  • Modellteljesítmény értékelése értékelési mértékek segítségével
  • Túltanulás és alultanulás kezelése
  • Inference sebesség és modellhatékonyság optimalizálása

Finomhangolt DeepSeek-modellek telepítése

  • Modellek csomagolása API telepítésre
  • Finomhangolt modellek integrálása alkalmazásokba
  • Telepítések skálázása felhő és életrendszervel

Valós világbeli alkalmazások és felhasználási területek

  • Finomhangolt LLM-ek a pénzügyi, egészségügyi és ügyfélszolgálati szektorokban
  • Ipari alkalmazások esettanulmányai
  • Etikai szempontok doménspecifikus AI-modellekben

Összefoglalás és következő lépések

Követelmények

  • Gépi tanulás és mély tanulás keretrendszerek tapasztalata
  • Ismeret a transzformátorokkal és nagy nyelvmodellekkel (LLM)
  • Adat előkészítés és modellképzés technikák értése

Audience

  • AI-kutatók, akik LLM finomhangolással foglalkoznak
  • Gépi tanulás mérnökök, akik saját AI-modelleket fejlesztenek
  • Fejlesztők, akik AI-hajtott megoldásokat valósítanak meg
 21 Órák

Résztvevők száma


Ár résztvevőnként

Közelgő kurzusok

Rokon kategóriák