Möchtet ihr mit eurem Team teilnehmen? Ab drei Personen profitiert ihr von unseren Gruppenrabatten! Direkt im Shop buchen!

Trust me, I'm AI? – Warum Guardrails Pflicht sind, nicht Kür!

Generative KI (GenAI) entfaltet großes Potenzial in produktiven Anwendungen, bringt jedoch auch erhebliche Herausforderungen im Hinblick auf Sicherheit, Zuverlässigkeit und ethische Verantwortung mit sich.

Um diesen Herausforderungen zu begegnen, sind Guardrails – gezielte Steuerungs- und Begrenzungsmechanismen – unverzichtbar. Sie sorgen dafür, dass KI-Systeme innerhalb definierter Grenzen agieren, Fehlinformationen vermeiden, Nutzungsrichtlinien einhalten und eine gleichbleibend hohe Qualität liefern.

In diesem Vortrag werden verschiedene Arten von Guardrails systematisch vorgestellt, darunter Ein- und Ausgabe-Validierungen sowie Inhaltsmoderationsstrategien und deren Monitoring.

Vorkenntnisse

Grundlegende Erfahrung mit generativer KI wie bspw. RAG sind vom Vorteil, aber kein Muss.

Lernziele

  • Sensibilisierung bzgl. der Qualitätssicherung von GenAI-Anwendungen
  • Grundlegende Konzepte von Guarding verstehen
  • Guardrails für den eigenen Anwendungsfall selektieren

Agenda

  • Motivation:
    Warum sind Guardrails wichtig? Welche Fälle gab es, in denen fehlende/ungenügende Guardrails für Probleme zu Problemen geführt haben?
  • Internes Guarding:
    Welche Maßnahmen treffen Modell-Provider, um aktuelle Modelle möglichst sicher zu machen? Hier geht es um Methoden wie Filtering von Trainingsdaten, Model Alignment und Unlearing.
  • Externes Guarding (In- und Output Guarding):
    Hier werden verschiedene Guards vorgestellt und deren Funktionsweise erläutert. Zudem gibt es Library-Empfehlungen, die die Teilnehmenden für ihre eigenen Vorhaben nutzen können, z.B. Topic-Checks, Prompt-Injection Guards, Policy Checks und Fact-Checking.
  • Guardrails im Betrieb:
    Schließlich behandelt der Vortrag die Anbindung und das Monitoring von Guardrails. Hier geht es um fertige Services (Azure Content Moderator, OpenAI Moderatio-API,...) aber auch self-hosted Varianten.

 

Speaker

 

Tim Wüllner
Tim Wüllner ist Machine Learning Engineer bei der open knowledge GmbH in Oldenburg. Nach drei Jahren in der Wissenschaft im Bereich Autonome Schifffahrt begeistert er sich nun für die Umsetzung von ML-Projekten in komplexen Webanwendungen.