Möchtet ihr mit eurem Team teilnehmen? Ab drei Personen profitiert ihr von unseren Gruppenrabatten! Direkt im Shop buchen!

Klein schlägt Groß: Small Language Models für Agentic AI

Agentic AI bietet enormes Potenzial, doch große Modelle sind teuer, langsam und anfällig für Angriffe wie Prompt Injection. Spezialisierte SLMs sind effizienter und besser kontrollierbar.

In dem Paper Small Language Models are the Future of Agentic AI zeigen NVIDIA-Forscher diesen Effekt. Wie lassen sich solche Modelle mit vertretbarem Aufwand erstellen?

In diesem Talk diskutieren wir, wie Distillation und RLVR genutzt werden können, um mit großen Modellen als Lehrer spezialisierte SLM-Schüler zu trainieren, und ob die Effekte aus dem NVIDIA-Paper auch in diesem Setup bestehen.

Vorkenntnisse

Grundkenntnise zu

  • Machine Learning allgemein
  • Sinn und Zweck der Phasen im Training/Post-Training von LLMs (Instruction Fine-Tuning, RL)
  • Agentic AI und dazu, welche Anfragen und Aufgaben an LLMs hier bestehen

Lernziele

  • Wie praktikabel ist Lehrer-Schüler-Training für Agentic AI?
  • Wie kann ich das für meine Agenten anwenden?
  • Welche Qualität kann ich erwarten?
  • Welche Fallstricke muss ich beachten?

Speaker

 

Björn Buchhold
Björn Buchhold ist Technology Evangelist bei CID und unterstützt Unternehmen dabei, aus KI und Data Science echten Geschäftswert zu schaffen. Mit einer Promotion in Informatik und über 15 Jahren Erfahrung in Forschung und Industrie begleitet er Organisationen bei der Datenstrategie und der Umsetzung praktischer KI- und ML-Lösungen.