Kurzusleírás

Az Ollama bemutatása

  • Mi az Ollama és hogyan működik?
  • A helyi AI modellek futtatásának előnyei
  • Támogatott nagy méretű nyelvi modellök áttekintése (Llama, DeepSeek, Mistral stb.)

Az Ollama telepítése és beállítása

  • Rendszerkövetelmények és hardver megfontolások
  • Az Ollama különböző operációs rendszereken történő telepítése
  • Függőségek és környezeti beállítások konfigurálása

Helyi AI modellek futtatása

  • Az Ollama segítségével történő AI modell letöltése és betöltése
  • A modell felhasználásának parancssori kezelése
  • Alapvető prompt mérnöki munka helyi AI feladatokhoz

Teljesítmény és erőforrás-használat optimalizálása

  • Hatékony AI végrehajtás érdekében a hardvererőforrások kezelése
  • Késleltetés csökkentése és modell válaszidő javítása
  • Egyéb modellek teljesítményének mérésére vonatkozó benchmarking

Helyi AI üzembe helyezés alkalmazási területei

  • AI-alapú chatbotok és virtuális asszisztensek
  • Adatfeldolgozás és automatizált feladatok
  • Adatvédelmi fókuszú AI alkalmazások

Összefoglalás és következő lépések

Követelmények

  • Alapvető ismeretek az AI és gépi tanulás fogalmairól
  • Tisztában van a parancssoros felületek használatával

Célcsoport

  • Fejlesztők, akik AI modelleket futtatnak felhőfüggetlenül
  • Üzleti szakemberek, akik érdeklődnek az AI adatvédelmi kérdéseiről és költséghatékony üzembe helyezésről
  • AI entuziasták, akik helyi modell üzembe helyezést felfedeznek
 7 Órák

Résztvevők száma


Ár résztvevőnként

Közelgő kurzusok

Rokon kategóriák