Kurzusleírás

Bevezetés az Ollama használatába

  • Mi az Ollama és hogyan működik?
  • Helyi AI modellek futtatásának előnyei
  • A támogatott LLM-ek áttekintése (Llama, DeepSeek, Mistral stb.)

Az Ollama telepítése és beállítása

  • Rendszerkövetelmények és hardveres szempontok
  • Az Ollama telepítése különböző operációs rendszereken
  • Függőségek konfigurálása és környezet beállítása

AI modellek helyi futtatása

  • AI modellek letöltése és betöltése az Ollama-ban
  • Modellek használata parancssoron keresztül
  • Alapvető prompt tervezés helyi AI feladatokhoz

Teljesítmény és erőforrás-használat optimalizálása

  • Hardveres erőforrások kezelése hatékony AI végrehajtás érdekében
  • Késleltetés csökkentése és modell válaszidő javítása
  • Teljesítmény mérése különböző modellek esetén

Helyi AI üzembe helyezés használati esetei

  • AI-alapú chatbotok és virtuális asszisztensek
  • Adatfeldolgozási és automatizációs feladatok
  • Adatvédelmi szempontból fontos AI alkalmazások

Összefoglalás és következő lépések

Követelmények

  • Alapvető ismeretek az AI és a gépi tanulás fogalmairól
  • Ismeret a parancssori felületekkel

Közönség

  • Fejlesztők, akik AI modelleket futtatnak felhőfüggőség nélkül
  • Üzleti szakemberek, akiket érdekel az AI adatvédelem és költséghatékony üzembe helyezés
  • AI-rajongók, akik helyi modell üzembe helyezést szeretnének felfedezni
 7 Órák

Résztvevők száma


Ár per résztvevő

Közelgő kurzusok

Rokon kategóriák