Klein schlägt Groß: Small Language Models für Agentic AI
Agentic AI bietet enormes Potenzial, doch große Modelle sind teuer, langsam und anfällig für Angriffe wie Prompt Injection. Spezialisierte SLMs sind effizienter und besser kontrollierbar.
In dem Paper
Small Language Models are the Future of Agentic AI zeigen NVIDIA-Forscher diesen Effekt. Wie lassen sich solche Modelle mit vertretbarem Aufwand erstellen?
In diesem Talk diskutieren wir, wie Distillation und RLVR genutzt werden können, um mit großen Modellen als Lehrer spezialisierte SLM-Schüler zu trainieren, und ob die Effekte aus dem NVIDIA-Paper auch in diesem Setup bestehen.
Vorkenntnisse
Grundkenntnise zu
- Machine Learning allgemein
- Sinn und Zweck der Phasen im Training/Post-Training von LLMs (Instruction Fine-Tuning, RL)
- Agentic AI und dazu, welche Anfragen und Aufgaben an LLMs hier bestehen
Lernziele
- Wie praktikabel ist Lehrer-Schüler-Training für Agentic AI?
- Wie kann ich das für meine Agenten anwenden?
- Welche Qualität kann ich erwarten?
- Welche Fallstricke muss ich beachten?