Möchtet ihr mit eurem Team teilnehmen? Ab drei Personen profitiert ihr von unseren Gruppenrabatten! Direkt im Shop buchen!

Zwischen Chaos und Kontrolle: Stabile Agenten mit Large Language Models

Stabile Agenten auf Basis von Large Language Models (LLMs) zu entwickeln, ist anspruchsvoll: Komplexe Aufgaben, wechselnde Anforderungen und unvorhersehbare Eingaben stellen hohe Anforderungen an Zuverlässigkeit und Transparenz.

In diesem Vortrag teilen wir praxisnahe Strategien, um Agenten robuster und präziser zu machen – von gezielter Kontextsteuerung über iterative Verfeinerung bis hin zu Caching. Wir zeigen, was sich in der Praxis bewährt hat (und was nicht) und wie man Vertrauen in automatisierte Ergebnisse schafft.

Der Talk bietet konkrete Tipps und hart erlernte Muster für alle, die LLM-Agenten produktiv und stabil einsetzen wollen.

Vorkenntnisse

  • Ein generelles Verständnis, wie man im Code LLMs steuern kann.
  • Außerdem sollte Function Calling ein Begriff sein.

Lernziele

Ziel ist es, Lessons Learned aus den vergangenen Projekten zu teilen und so die Programmierung von Software mit LLMs im inneren zu vereinfachen. Folgende Themen werden die Zuhörer kennen lernen:

  • Context Engineering und Context Rot
  • Chain of Thought Prompting
  • Caching von LLM aufrufen
  • Structured Output
  • und ein paar andere Kleinigkeiten
Die meisten Ergebnisse sind nicht nur für Agenten relevant, sondern beziehen sich auf LLM-Entwicklung im Allgemeinen

Speaker

 

Daniel Töws
Daniel Töws war schon früh von den Möglichkeiten fasziniert, wie Daten und Algorithmen unser Verständnis von Software verändern können. Nach seiner Zeit in der Forschung an der RWTH Aachen bringt er diese Neugier heute als GenAI Consultant bei codecentric ein. Aktuell beschäftigt er sich vor allem mit LLM-basierten Agenten, mit denen er neue Wege der Prozessautomatisierung erschließt.

Marcus Hanhart
Marcus Hanhart entwickelt als Senior IT-Consultant methodisch individuelle GenAI-Lösungen für und mit Kunden der codecentric AG. Dabei legt er Wert darauf, Lösungen vom Endnutzen her zu denken. Sein Fokus liegt dabei auf der Kombination von Produktentwicklung und Software Engineering/Architektur. Python ist dabei meist die Sprache der Wahl und DevOps die Kultur.