Kurzusleírás

Bevezetés az Ollama használatába LLM üzembe helyezéshez

  • Az Ollama képességeinek áttekintése
  • A helyi AI modell üzembe helyezés előnyei
  • Összehasonlítás felhőalapú AI üzemeltetési megoldásokkal

Az üzembe helyezési környezet beállítása

  • Az Ollama és a szükséges függőségek telepítése
  • Hardver és GPU-gyorsítás konfigurálása
  • Az Ollama Dockerizálása skálázható üzembe helyezésekhez

LLM-ek üzembe helyezése az Ollama segítségével

  • AI modellek betöltése és kezelése
  • Llama 3, DeepSeek, Mistral és más modellek üzembe helyezése
  • API-k és végpontok létrehozása AI modell hozzáféréshez

LLM teljesítmény optimalizálása

  • Modellek finomhangolása a hatékonyság érdekében
  • Késleltetés csökkentése és válaszidők javítása
  • Memória és erőforrások kezelése

Az Ollama integrálása AI munkafolyamatokba

  • Az Ollama csatlakoztatása alkalmazásokhoz és szolgáltatásokhoz
  • AI által vezérelt folyamatok automatizálása
  • Az Ollama használata edge computing környezetekben

Monitorozás és karbantartás

  • Teljesítmény követése és hibakeresés
  • AI modellek frissítése és kezelése
  • Biztonság és megfelelőség biztosítása AI üzembe helyezésekben

AI modell üzembe helyezések skálázása

  • Ajánlott eljárások magas terhelés kezeléséhez
  • Az Ollama skálázása vállalati használati esetekhez
  • Jövőbeli fejlesztések a helyi AI modell üzembe helyezésében

Összefoglalás és következő lépések

Követelmények

  • Alapvető tapasztalat gépi tanulással és AI modellekkel
  • Ismeret a parancssori felületekkel és szkripteléssel
  • Érdeklődés az üzembe helyezési környezetek iránt (helyi, edge, felhő)

Célközönség

  • AI mérnökök, akik helyi és felhőalapú AI üzembe helyezéseket optimalizálnak
  • ML gyakorlók, akik LLM-eket helyeznek üzembe és finomhangolnak
  • DevOps szakemberek, akik AI modell integrációt kezelnek
 14 Órák

Résztvevők száma


Ár per résztvevő

Közelgő kurzusok

Rokon kategóriák