Möchtet ihr mit eurem Team teilnehmen? Ab drei Personen profitiert ihr von unseren Gruppenrabatten! Direkt im Shop buchen!

Bias by Design: Wie wir kulturelle Werte in LLMs messen und steuern

Wenn wir über Bias in Sprachmodellen sprechen, geht es meist um die Vermeidung toxischer Stereotypen. Doch jenseits dieser offensichtlichen Fehler haben Modelle wie ChatGPT laut aktueller Forschung eine tiefgreifende kulturelle Prägung: Sie sind "WEIRD" (Western, Educated, Industrialized, Rich, Democratic).

Ist das ein Bug oder ein Feature?

Anhand eigener Forschungsergebnisse mit dem "World Values Survey" zeige ich, wie man die "kulturelle Persönlichkeit" eines Modells quantitativ misst und wie gut (oder schlecht) Modelle durch gezieltes Prompting in der Lage sind, andere Werte authentisch zu repräsentieren.

Vorkenntnisse

Teilnehmende sollten ein grundlegendes Verständnis der Funktionsweise von LLMs haben und wissen, was Prompting ist. Tiefgehendes technisches Wissen über Modellarchitekturen oder Training ist nicht erforderlich. Gewünscht ist eine Offenheit, ethische Fragestellungen aus einer Engineering-Perspektive zu betrachten.

Lernziele

  • Warum „Neutralität“ bei LLMs eine Illusion ist und was der WEIRD-Bias bedeutet.
  • Methoden zur systematischen Evaluation von kulturellem Bias
  • Strategien zur Steuerung des Modellverhaltens

Speaker

 

Bertram Sändig
Bertram Sändig ist COO von Ontolux und Experte für KI- und Machine-Learning-Systeme mit Schwerpunkt auf NLP und Neural Search. Er und sein Team bei Ontolux arbeiten daran, die Lücke zwischen aktueller Forschung und praktischer Anwendung zu schließen, indem sie große Sprachmodelle für skalierbare, praxisrelevante Geschäftsanwendungen anpassen, optimieren und integrieren.