Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems Képzés
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems is the process of optimizing how large language models retrieve and generate relevant information from external sources for enterprise applications.
This instructor-led, live training (online or onsite) is aimed at intermediate-level NLP engineers and knowledge management teams who wish to fine-tune RAG pipelines to enhance performance in question answering, enterprise search, and summarization use cases.
By the end of this training, participants will be able to:
- Understand the architecture and workflow of RAG systems.
- Fine-tune retriever and generator components for domain-specific data.
- Evaluate RAG performance and apply improvements through PEFT techniques.
- Deploy optimized RAG systems for internal or production use.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Kurzusleírás
Introduction to Retrieval-Augmented Generation (RAG)
- What is RAG and why it matters for enterprise AI
- Components of a RAG system: retriever, generator, document store
- Comparison with standalone LLMs and vector search
Setting Up a RAG Pipeline
- Installing and configuring Haystack or similar frameworks
- Document ingestion and preprocessing
- Connecting retrievers to vector databases (e.g., FAISS, Pinecone)
Fine-Tuning the Retriever
- Training dense retrievers using domain-specific data
- Using sentence transformers and contrastive learning
- Evaluating retriever quality with top-k accuracy
Fine-Tuning the Generator
- Selecting base models (e.g., BART, T5, FLAN-T5)
- Instruction tuning vs. supervised fine-tuning
- LoRA and PEFT methods for efficient updates
Evaluation and Optimization
- Metrics for evaluating RAG performance (e.g., BLEU, EM, F1)
- Latency, retrieval quality, and hallucination reduction
- Experiment tracking and iterative improvement
Deployment and Real-World Integration
- Deploying RAG in internal search engines and chatbots
- Security, data access, and governance considerations
- Integration with APIs, dashboards, or knowledge portals
Case Studies and Best Practices
- Enterprise use cases in finance, healthcare, and legal
- Managing domain drift and knowledge base updates
- Future directions in retrieval-augmented LLM systems
Summary and Next Steps
Követelmények
- An understanding of natural language processing (NLP) concepts
- Experience with transformer-based language models
- Familiarity with Python and basic machine learning workflows
Audience
- NLP engineers
- Knowledge management teams
A nyílt képzésekhez 5+ résztvevő szükséges.
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems Képzés - Booking
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems Képzés - Enquiry
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems - Érdeklődjön a vezetői tanácsadásról!
Érdeklődjön a vezetői tanácsadásról!
Közelgő kurzusok
Rokon tanfolyam
Advanced Techniques in Transfer Learning
14 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) haladó szintű gépi tanulási szakembereket céloz meg, akik szeretnék elsajátítani a legmodernebb transzfertanulási technikákat, és alkalmazni kívánják azokat a valós világ összetett problémáira.
A képzés végére a résztvevők képesek lesznek:
- A transzfertanulás fejlett fogalmainak és módszereinek megértése.
- Alkalmazzon tartomány-specifikus adaptációs technikákat előre betanított modellekhez.
- Alkalmazza a folyamatos tanulást a fejlődő feladatok és adatkészletek kezeléséhez.
- Sajátítsa el a többfeladatos finomhangolást, hogy javítsa a modell teljesítményét a feladatok között.
Deploying Fine-Tuned Models in Production
21 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) haladó szintű szakembereknek szól, akik szeretnének megbízhatóan és hatékonyan bevezetni a finomhangolt modelleket.
A képzés végére a résztvevők képesek lesznek:
- Ismerje meg a finomhangolt modellek gyártásba történő bevezetésének kihívásait.
- Tárolja és telepítse a modelleket olyan eszközökkel, mint a Docker és Kubernetes.
- A telepített modellek megfigyelésének és naplózásának megvalósítása.
- Optimalizálja a modelleket a késleltetés és a méretezhetőség érdekében a valós forgatókönyvekben.
Domain-Specific Fine-Tuning for Finance
21 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) középszintű szakembereknek szól, akik gyakorlati készségekre szeretnének szert tenni az AI-modellek testreszabásában a kritikus pénzügyi feladatokhoz.
A képzés végére a résztvevők képesek lesznek:
- Ismerje meg a pénzügyi alkalmazások finomhangolásának alapjait.
- Használjon előre kiképzett modelleket a pénzügyi területen specifikus feladatokhoz.
- Alkalmazzon technikákat a csalások felderítésére, kockázatértékelésére és pénzügyi tanácsadásra.
- Biztosítsa a pénzügyi előírásoknak való megfelelést, például GDPR és SOX.
- Alkalmazzon adatbiztonsági és etikus mesterséges intelligencia gyakorlatokat a pénzügyi alkalmazásokban.
Fine-Tuning Models and Large Language Models (LLMs)
14 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) középszintű és haladó szintű szakembereket céloz meg, akik előre képzett modelleket szeretnének testreszabni bizonyos feladatokhoz és adatkészletekhez.
A képzés végére a résztvevők képesek lesznek:
- Ismerje a finomhangolás alapelveit és alkalmazásait.
- Készítsen adatkészleteket az előre betanított modellek finomhangolásához.
- Nagy nyelvi modellek (LLM) finomhangolása az NLP-feladatokhoz.
- Optimalizálja a modell teljesítményét és kezelje a gyakori kihívásokat.
Efficient Fine-Tuning with Low-Rank Adaptation (LoRA)
14 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) középszintű fejlesztőknek és AI-gyakorlóknak szól, akik nagy modellek finomhangolási stratégiáit kívánják megvalósítani anélkül, hogy kiterjedt számítási erőforrásokra lenne szükségük.
A képzés végére a résztvevők képesek lesznek:
- Ismerje meg a Low-Rank Adaptation (LoRA) alapelveit.
- Valósítsa meg a LoRA-t a nagy modellek hatékony finomhangolásához.
- Optimalizálja a finomhangolást az erőforrás-korlátos környezetekhez.
- Értékelje és telepítse a LoRA-hangolt modelleket a gyakorlati alkalmazásokhoz.
Fine-Tuning Multimodal Models
28 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) haladó szintű szakembereknek szól, akik szeretnék elsajátítani a multimodális modellek finomhangolását innovatív AI-megoldásokhoz.
A képzés végére a résztvevők képesek lesznek:
- Ismerje meg az olyan multimodális modellek felépítését, mint a CLIP és a Flamingo.
- A multimodális adatkészletek hatékony előkészítése és előfeldolgozása.
- A multimodális modellek finomhangolása meghatározott feladatokhoz.
- Optimalizálja a modelleket a valós alkalmazásokhoz és a teljesítményhez.
Fine-Tuning for Natural Language Processing (NLP)
21 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) középszintű szakembereknek szól, akik az előre betanított nyelvi modellek hatékony finomhangolásával szeretnék továbbfejleszteni NLP-projekteiket.
A képzés végére a résztvevők képesek lesznek:
- Ismerje meg az NLP-feladatok finomhangolásának alapjait.
- Finomhangolja az előre betanított modelleket, például a GPT-t, a BERT-t és a T5-öt bizonyos NLP-alkalmazásokhoz.
- Optimalizálja a hiperparamétereket a jobb modellteljesítmény érdekében.
- Értékelje és telepítse a finomhangolt modelleket valós forgatókönyvek szerint.
Fine-Tuning DeepSeek LLM for Custom AI Models
21 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) haladó szintű mesterségesintelligencia-kutatóknak, gépi tanulási mérnököknek és fejlesztőknek szól, akik szeretnének finomhangolni DeepSeek LLM-modelleket speciális mesterséges intelligencia-alkalmazások létrehozása érdekében. iparágak, tartományok vagy üzleti igények.
A képzés végére a résztvevők képesek lesznek:
- Ismerje meg az DeepSeek modellek architektúráját és képességeit, beleértve az DeepSeek-R1-et és DeepSeek-V3-at.
- Készítsen adatkészleteket és dolgozzon fel adatokat a finomhangoláshoz.
- Az DeepSeek LLM finomhangolása tartományspecifikus alkalmazásokhoz.
- Optimalizálja és hatékonyan telepítse a finomhangolt modelleket.
Fine-Tuning Large Language Models Using QLoRA
14 ÓrákEz az oktatóvezetésű, élő képzés Magyarország (online vagy helyszínen) az átlagos szintűtől a haladó szintűig terjedő machine learning mérnököknek, AI-fejlesztőknek és adattudósoknak szól, akik megtanulni szeretnének, hogyan használják a QLoRA-t nagy modellek hatékony finomhangolására specifikus feladatokhoz és testreszabásokhoz.
E képzés végén a résztvevők képesek lesznek:
- Megérteni a QLoRA és a kvantizálási technikák elméletét LLMs-re.
- Implementálni a QLoRA-t nagy nyelvmodellek finomhangolására doméntartományi alkalmazásokhoz.
- Optimálni a finomhangolás teljesítményét korlátozott számítógépes erőforrásokon kvantizálással.
- Hatékonyan telepíteni és értékelni finomhangolt modelleket valós világbeli alkalmazásokban.
Fine-Tuning Open-Source LLMs (LLaMA, Mistral, Qwen, etc.)
14 ÓrákThis instructor-led, live training in Magyarország (online or onsite) is aimed at intermediate-level ML practitioners and AI developers who wish to fine-tune and deploy open-weight models like LLaMA, Mistral, and Qwen for specific business or internal applications.
By the end of this training, participants will be able to:
- Understand the ecosystem and differences between open-source LLMs.
- Prepare datasets and fine-tuning configurations for models like LLaMA, Mistral, and Qwen.
- Execute fine-tuning pipelines using Hugging Face Transformers and PEFT.
- Evaluate, save, and deploy fine-tuned models in secure environments.
Fine-Tuning with Reinforcement Learning from Human Feedback (RLHF)
14 ÓrákEz az oktatóvezetett, élő edzés Magyarország-ban (online vagy helyszínen) az advanced-level gépi tanulás mérnököknek és AI kutatóknak szól, akik szeretnék RLHF-ot alkalmazni, hogy nagy AI-modelleket finomítsanak kiváló teljesítmény, biztonság és egyeztetés érdekében.
Ez az edzés végén a résztvevők képesek lesznek:
- Megértetik az RLHF elméleti alapjait és azt, miért fontos a modern AI-fejlesztésben.
- Előkészítenek jutalommodelleket emberi visszajelzések alapján, hogy irányítsák a megerősítő tanulási folyamatokat.
- Finomítanak nagy nyelvmodelleket RLHF-technikákkal, hogy a kimenetek emberi preferenciákkal egyeztessenek.
- Alkalmaznak legjobb gyakorlatokat az RLHF-folyamatok skálázására gyártás szintű AI-rendszerekhez.
Fine-Tuning Vision-Language Models (VLMs)
14 ÓrákThis instructor-led, live training in Magyarország (online or onsite) is aimed at advanced-level computer vision engineers and AI developers who wish to fine-tune VLMs such as CLIP and Flamingo to improve performance on industry-specific visual-text tasks.
By the end of this training, participants will be able to:
- Understand the architecture and pretraining methods of vision-language models.
- Fine-tune VLMs for classification, retrieval, captioning, or multimodal QA.
- Prepare datasets and apply PEFT strategies to reduce resource usage.
- Evaluate and deploy customized VLMs in production environments.
Optimizing Large Models for Cost-Effective Fine-Tuning
21 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) haladó szintű szakembereknek szól, akik szeretnék elsajátítani a nagy modellek optimalizálásának technikáit a valós helyzetekben történő költséghatékony finomhangolás érdekében.
A képzés végére a résztvevők képesek lesznek:
- Ismerje meg a nagy modellek finomhangolásával járó kihívásokat.
- Alkalmazzon elosztott képzési technikákat a nagy modelleken.
- Használja ki a modell kvantálását és metszését a hatékonyság érdekében.
- A hardverhasználat optimalizálása a finomhangolási feladatokhoz.
- A finomhangolt modelleket hatékonyan telepítse éles környezetben.
Prompt Engineering and Few-Shot Fine-Tuning
14 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) középszintű szakembereknek szól, akik szeretnék kihasználni az azonnali tervezés és a rövid távú tanulás erejét, hogy optimalizálják az LLM teljesítményét a valós alkalmazásokhoz.
A képzés végére a résztvevők képesek lesznek:
- Ismerje meg az azonnali tervezés és a néhány lépésben történő tanulás alapelveit.
- Hatékony promptok tervezése különféle NLP-feladatokhoz.
- Használja ki a néhány lépéses technikákat az LLM-ek minimális adatmennyiséggel történő adaptálásához.
- Optimalizálja az LLM teljesítményét a gyakorlati alkalmazásokhoz.
Parameter-Efficient Fine-Tuning (PEFT) Techniques for LLMs
14 ÓrákEz az oktatóvezetéses, élő képzés Magyarország (online vagy helyszínen) középszintű adattudósoknak és művészintelligencia mérnököknek szól, akik olcsóbbá és hatékonyabbá szeretnék tenni a nagy nyelvmodellek finomhangolását LoRA, Adapter Tuning, és Prefix Tuning módszerekkel.
E képzés végére a résztvevők képesek lesznek:
- A paraméterhatékony finomhangolási módszereket megértetni.
- LoRA, Adapter Tuning, és Prefix Tuning módszereket megvalósítani Hugging Face PEFT használatával.
- PEFT módszereket összehasonlítani teljes finomhangolással szemben, a teljesítmény és költségkompromisszumok tekintetében.
- Finomhangolt nagy nyelvmodelleket kisebb számítógépes és tárolási igényekkel telepíteni és skálázni.