Kurzusleírás

Bevezetés a DeepSeek LLM finomhangolásába

  • Áttekintés a DeepSeek modellekről, pl. DeepSeek-R1 és DeepSeek-V3
  • A LLM-ek finomhangolásának szükségességének megértése
  • Összehasonlítás a finomhangolás és a prompt engineering között

Adathalmaz előkészítése a finomhangoláshoz

  • Domain-specifikus adathalmazok összeállítása
  • Adatfeldolgozási és tisztítási technikák
  • Tokenizálás és adathalmaz formázása a DeepSeek LLM-hez

A finomhangolási környezet beállítása

  • GPU és TPU gyorsítás konfigurálása
  • Hugging Face Transformers beállítása DeepSeek LLM-mel
  • A finomhangolás hiperparamétereinek megértése

A DeepSeek LLM finomhangolása

  • Felügyelt finomhangolás implementálása
  • LoRA (Low-Rank Adaptation) és PEFT (Parameter-Efficient Fine-Tuning) használata
  • Elosztott finomhangolás futtatása nagyméretű adathalmazokhoz

Finomhangolt modellek értékelése és optimalizálása

  • Modell teljesítményének értékelése metrikákkal
  • Túlbizonyosság és alulillesztés kezelése
  • Inferencia sebesség és modell hatékonyság optimalizálása

Finomhangolt DeepSeek modellek üzembe helyezése

  • Modellek csomagolása API üzembe helyezéshez
  • Finomhangolt modellek integrálása alkalmazásokba
  • Üzembe helyezések skálázása felhő és peremhálózati számítással

Valós világbeli használati esetek és alkalmazások

  • Finomhangolt LLM-ek pénzügyi, egészségügyi és ügyfélszolgálati területeken
  • Ipari alkalmazások esettanulmányai
  • Etikai megfontolások domain-specifikus AI modelleknél

Összefoglalás és következő lépések

Követelmények

  • Tapasztalat gépi tanulási és mélytanulási keretrendszerekkel
  • Ismeret a transzformátorokkal és nagy nyelvi modellekkel (LLM)
  • Megértés az adatfeldolgozás és modellképzési technikákról

Közönség

  • AI kutatók, akik az LLM finomhangolást vizsgálják
  • Gépi tanulási mérnökök, akik egyedi AI modelleket fejlesztenek
  • Haladó fejlesztők, akik AI-alapú megoldásokat valósítanak meg
 21 Órák

Résztvevők száma


Ár per résztvevő

Közelgő kurzusok

Rokon kategóriák