Kurzusleírás

Bevezetés a Ollama-be LLM bevezetéshez

  • A Ollama képességeinek áttekintése
  • A helyi AI-modell bevezetésének előnyei
  • Összehasonlítás a felhő alapú AI hosting megoldásokkal

A telepítési környezet beállítása

  • A Ollama telepítése és a szükséges függőségek
  • Hardver konfigurálása és GPU gyorsítás
  • Dockermódosítás Ollama méretezhető telepítésekhez

LLM-ek telepítése a Ollama segítségével

  • AI modellek betöltése és kezelése
  • Llama 3, DeepSeek, Mistral és más modellek telepítése
  • API-k és végpontok létrehozása az AI-modell eléréséhez

Az LLM teljesítményének optimalizálása

  • A modellek finomhangolása a hatékonyság érdekében
  • A várakozási idő csökkentése és a válaszidő javítása
  • A memória és az erőforrás-allokáció kezelése

A Ollama integrálása az AI munkafolyamataiba

  • Csatlakozás Ollama alkalmazásokhoz és szolgáltatásokhoz
  • AI-vezérelt folyamatok automatizálása
  • A Ollama használata éles számítási környezetekben

Felügyelet és karbantartás

  • A teljesítmény nyomon követése és a hibakeresési problémák
  • AI modellek frissítése és kezelése
  • A biztonság és a megfelelőség biztosítása az AI-telepítéseknél

Az AI-modell-telepítések skálázása

  • A nagy munkaterhelések kezelésének legjobb gyakorlatai
  • Méretezés Ollama vállalati felhasználási esetekre
  • Jövőbeli előrelépések a helyi AI-modell bevezetésében

Összegzés és a következő lépések

Követelmények

  • Alapvető tapasztalat gépi tanulással és mesterséges intelligencia modellekkel
  • A parancssori felületek és a szkriptek ismerete
  • A telepítési környezetek megértése (helyi, szélső, felhő)

Közönség

  • AI mérnökök, akik optimalizálják a helyi és felhőalapú AI-telepítéseket
  • LLM-eket telepítő és finomhangoló ML-gyakorlók
  • DevOps AI-modell-integrációt irányító szakemberek
 14 Órák

Résztvevők száma


Ár résztvevőnként

Közelgő kurzusok

Rokon kategóriák