Kurzusleírás

Ollama Bevezetés

  • Mi az a Ollama, és hogyan működik?
  • AI-modellek helyi futtatásának előnyei
  • Támogatott LLMs (Llama, DeepSeek, Mistral stb.) áttekintése

Ollama Telepítése és Beállítása

  • Rendszerkövetelmények és hardver-figyelmenek
  • Ollama telepítése különböző operációs rendszereken
  • Függelemények beállítása és környezetkészítés

AI-modellek Helyi Futtatása

  • AI-modellek letöltése és betöltése Ollama-ban
  • Modellökkel interaktálás parancssoron keresztül
  • Alapvető prompt engineering helyi AI-feladatokhoz

Teljesítmény és Erőforráshasználat Optimalizálása

  • Hardverforrások kezelése hatékony AI-végrehajtáshoz
  • Késleltetés csökkentése és modellreakcióidő javítása
  • Teljesítmény mérlegelése különböző modellekhez

Use Case-ok a Helyi AI-Futattatáshoz

  • AI-alapú chatbotok és virtuális asszisztensek
  • Adatfeldolgozási és automatizálási feladatok
  • Biztonságra összpontosító AI-alapú alkalmazások

Összegzés és Következő Lépések

Követelmények

  • Az AI és a gépi tanulás alapvető fogalmainak megértése
  • Ismeret a parancssori felületekkel

Audience

  • Fejlesztők, akik AI-modelleket futtatnak felhőfüggetlenül
  • Business szakemberek, akik érdeklődnek az AI magánéleti és költséghatékony telepítés iránt
  • AI-rajongók, akik helyi modelltelepítést vizsgálnak
 7 Órák

Résztvevők száma


Ár résztvevőnként

Közelgő kurzusok

Rokon kategóriák