Das Ende der Unvorhersehbarkeit: Reproduzierbare KI als neuer Sorgfaltsmaßstab
Dass eine KI halluziniert, also Fakten erfindet, ist systemimmanent. Ein LLM berechnet nur Wahrscheinlichkeiten für das nächste Wort. Bisher kam jedoch ein technisches Problem hinzu: Selbst bei identischen Fragen lieferte die KI oft unterschiedliche Antworten. Die Ursache liegt in der Hardware: Grafikkarten (GPUs) addieren Zahlen je nach Auslastung in zufälliger Reihenfolge. Aufgrund winziger Rundungsfehler bei Kommazahlen (Gleitkomma-Arithmetik) führen diese zu minimal abweichenden Summen.
Das von dem Unternehmen Thinking Machines vorgeschlagene
neue Verfahren macht die Ergebnisse nun bitgenau wiederholbar.
Ein inhaltlicher Fehler durch eine Halluzination verschwindet dadurch zwar nicht, tritt bei gleicher Anfrage aber damit jedes Mal exakt gleich auf.
Die wichtigsten rechtlichen Schlussfolgerungen sind:
- Verschiebung der Haftung: Vom „Zufall“ zum Konstruktionsfehler
- Gerichtsfeste Beweisführung durch Reproduzierbarkeit
- Härtere Anforderungen an die Qualitätssicherung