ChatGPT – Nicht Richterin sondern Schlichterin | Ein individueller Schnappschuss nach der IRIS 2023

ChatGPT war ein beherrschendes Thema des internationalen Rechtsinformatik Symposiums (IRIS 2023) in Salzburg. In den Veranstaltungen und am Rande gab es einen regen Austausch. Die Meinung über Status, Nutzbarkeit und Zukunft waren vielfach geteilt. Hier eine individuelle Momentaufnahme.

Nahezu perfekte Sprache

Es herrschte Einigkeit, dass das Sprachverständnis und auch die Sprachausgabe von ChatGTP überraschend gut sind. Das System versteht nahezu alles, oder vermittelt zumindest den Eindruck. Es formuliert seine Antworten versiert und nahezu fehlerfrei – jedenfalls fehlerfreier als die meisten Menschen in den sozialen Medien agieren.

Und genau das wurde auch vielfach als Problem gesehen. Denn diese Sprachgewandtheit ist durchaus geeignet, zu blenden und fragwürdige Inhalte perfekt verpackt zu präsentieren. Es fällt schwer, das was dort gesagt wird, nicht zu glauben.

Halluzinationen

Dabei haben doch recht viele Nutzer die Erfahrung gemacht, dass die KI falsche Antworten formuliert und Lösungen erfindet, statt sie korrekt zu entwickeln. ChatGPT neigt zur „Halluzination“, darin war man sich einig. Die KI erfindet Lösungen ohne sie herleiten zu können, sie erfindet sogar Gesetze, Fundstellen und Zitate. Für kreative Anwendungen mag das recht hilfreich sein, für juristische ist das ein No-Go.

Ein Spiegel der Gesellschaft.

Interessant ist die KI immer dann, wenn sie ein Ergebnis liefert, das dem gesunden Menschenverstand oder einem gewissen Common Sense entspricht. Darin ist sie systembedingt recht gut. Als Beispiel sei hier die Änderung des Stadtlogos durch den Bürgermeister genannt. Dort liefert die KI ein erstaunlich gutes und gut begründetes Ergebnis.

Problematisch ist das natürlich, wenn Volkes Meinung die Schutzrechte von Minderheiten oder Schwächeren schlicht falsch interpretiert. Das war z.B. bei der Bewertung schwarzfahrender Jugendlicher der Fall. Selbst viele Jurist:innen wollen – im Einklang mit der Mehrheit der Menschen – nicht wahrhaben, dass Jugendliche meist nicht verpflichtet sind, ein erhöhtes Beförderungsentgelt zu zahlen. Entsprechend sieht das auch die KI. Ein einfacher Blick in die WikiPedia zeigt, dass diejenigen, die sich mit dem Thema beschäftigt haben, ganz anderer Meinung sind.

Mangelnde Konsistenz

Tiefpunkte im Umgang mit ChatGPT erlebt man immer dann, wenn die KI völlig inkonsistent agiert. Die geringste Änderung einer Fragestellung, die inhaltlich ohne Relevanz ist, können zu völlig abweichenden und widersprüchlichen Antworten führen. Sogar dieselbe Frage führt zu unterschiedlichen Ergebnissen.

Das widerspricht jedem gelernten Wissen über das Verhalten von Programmen. Es wird, setzt es sich durch, zu einem völlig neuen Selbstverständnis im Umgang mit Computern führen. Insbesondere trägt dieses Verhalten nicht wirklich zur Vertrauensbildung bei.

Zukunft unklar

Die Investitionen in die Technik sind riesig. „Too big to fail“ war zu hören. Die KI ist da, um zu bleiben, war wohl die mehrheitliche Meinung. „Kinderkrankheiten“ nennen viele die bekannten Fehler. Das sei das Ergebnis von Jahrzehnten Forschung und Entwicklung, wenden andere ein.

Und so wurde viel über die Zukunft und die Einsatzgebiete von KI gesprochen. Unterstützt es Jurist:innen oder ersetzt sie sie? Zu unsicher für eigenständige Entscheidungen. Zu effizient, als dass man auf sie angesichts von Massenverfahren Belastung der Justiz überhaupt verzichten könnte. Man war sich einig, dass man die Entwicklung jedenfalls nicht ignorieren kann und weiter begleiten müsse.

KI als intelligente Assistenz

Digitales Morning-Briefing – Vortrag auf der IRIS 2019

Aus meiner Sicht hat die KI hohes Potential etwa in der Analyse großer Texte, in der Formulierung von Standardtexten und damit auch in der automatisierten Vorbereitung von Schriftsätzen. Die KI wird uns informiert halten, indem sie Akten vorbereitet und Dossiers formuliert. Sie wird ihre Anwender zur richtigen Zeit über relevante Veränderungen informieren und sie wird dafür sorgen, dass jeder bestens informiert und Vorbereitet in Verhandlungen gehen kann. Letztlich wird sie bei der Formulierung der Ergebnisse hilfreich sein.

Sie macht den digitalen Assistenten, den ich auf dem IRIS 2019 präsentiert habe, sehr realistisch.

Prognose: Nicht Richterin sondern Schlichterin

Die KI wird Richter:innen als amtliche Hüter:innen über gesetztes Recht nicht ersetzen. Sie wird aber als Schlichterin in einer neuen Form außergerichtlicher Streitbeilegung sicher die Bedeutung streitiger Verfahren verringern. Die Stärke der KI besteht nicht darin, gesetztes Recht genau anzuwenden. Sie besteht darin, aufgrund bisheriger Entscheidungen sinnvolle Ergebnisse für neue Sachverhalte zu entwickeln. Die KI hat eine gute Chance, Lösungen anzubieten, die dem allgemeinen Bauchgefühl nahe kommen und von den Parteien akzeptiert werden. Dabei ist es letztlich gar nicht wichtig, ob diese Lösungen exakt auf Basis des formalen Rechtssystems entwickelt wurden.

Die Konsistenz des Verhaltens muss sich bessern. Ohne das wird es kein Vertrauen geben. Zudem wird man sich von der Idee lösen müssen, dass die KI unser Recht anwendet. Sie kann also ein Gericht nicht ersetzen. Es besteht aber eine gute Chance, dass Systeme wie ChatGPT als neues Angebot der außergerichtlichen Streitbeilegung unsere Gerichte entlasten. Sie werden damit zu einem parallelen Rechtsraum, in dem sie die Regeln speichern, weiterentwickeln und selbst anwenden.

Der Einsatzbereich einer solchen Streitschlichtung ist natürlich vor allem auf die Bereiche begrenzt, in denen beide Parteien einer Nutzung und Akzeptanz des Ergebnisses zustimmen. Vor allem im hoheitlichen oder quasi-hoheitlichen Umfeld ist das schwer vorstellbar. In diesen Bereichen, kann die KI bestenfalls beratend tätig sein. Der Rechtsrahmen kann sich an den Regelungen zur Schlichtung oder zur Wahl des anwendbaren Rechts orientieren.

Ethische und methodische Begleitung

Es gibt einige Klassen von Problemen, die der KI immanent sind. Als statistisches System werden Interessen von Minderheiten womöglich falsch gewichtet. Die Entscheidungen sind mit entsprechendem Training beeinflussbar. Andererseits ist bei vermehrten digitalen oder digital unterstützten Entscheidungen mit (zu)wenig Rechtsfortbildung zu rechnen. Das System trainiert sich letztlich selbst und driftet dabei womöglich auch ab.

Deshalb ist eine kontinuierliche ethische und legislative Begleitung unverzichtbar, um Anwender:innen wirksam vor negativen Folgen zu schützen.