Die Realität von Künstlicher Intelligenz in der Justiz
Frau Vorsitzende,
meine sehr verehrten Damen und Herren, woran denken Sie, wenn Sie an KI denken?
Glaubt man Allensbach, dachten die meisten Deutschen 2019 an R2D2. Das ist leider mehr als ein fun fact. Der Begriff der Künstlichen Intelligenz provoziert die Vorstellung, die Maschine sei in der Lage, es uns gleich zu tun. Nur besser. Ohne Emotionen und Absichten. Aber gerade deshalb objektiver als wir.
Das trifft nicht zu.
Sagt Ihnen Dr. Rupert Scholz etwas? Das war der, der einen erheblichen Beitrag zur Übersetzung des BGB in maschinenlesbaren Code hatte. Und damit die Grundlage für die Entwicklung von Smart Contracts schuf. Sagt: ChatGPT. Frei erfunden.
Echte KI ist eben nicht intelligent, sie hat kein Verständnis von der Welt, sie weiß nicht, was sie sagt. Es klingt nur so. Tatsächlich wird Intelligenz simuliert. Dabei treten letztlich Wahrscheinlichkeiten und Vermutungen an die Stelle von gesichertem Wissen. Und wenn es passt, erfindet KI Fakten, sie halluziniert. Leider so eloquent, dass es nur auffällt, wenn man die richtige Antwort kennt.
Was würde wohl passieren, wenn man einen solchen Chatbot auf Rechtsuchende losließe? Oder eloquente aber kontrafaktische Entscheidungen entwerfen?
Sicher: der Einsatz von KI hat das Potenzial, gerichtliche Verfahren schneller zumachen. Aber um welchen Preis?
Was kostet es die Gesellschaft, wenn Justiz Faktizität und Kausalität durch Wahrscheinlichkeit und Korrelation ersetzt? Wenn sich Justiz in toto von privaten KI-Anbietern abhängig macht, um die Flucht einiger Rechtsuchender zu privaten Rechtsdienstleistern zu verhindern? Wenn private KI-Hersteller intime Einblicke in die internen Entscheidungsprozesse der Justiz erhalten, weil Richter, Staatsanwälte und Rechtspfleger munter annotieren – im KI-Jargon: „labeln“?
Und kann eine KI, die wir selbst nicht verstehen, die Justiz wirklich transparenter machen? Was wird aus einer Justiz, die ihre Entscheidungen nicht mehr begründen muss, weil eine KI zu jeder Entscheidung die passende Begründung liefert?
Und wird das vermeintliche Plus an Rechtsgleichheit, das sich manche von KI versprechen, nicht am Ende damit erkauft, dass der Einzelfall zu einer mathematischen Größe simplifiziert wird?
Natürlich ist die Welt wie immer weder schwarz noch weiß. Metadatenerfassung, Aktenverwaltung, Stichwortsuche, Sachverhaltsgliederung und –vergleich nach manuell definierten Kriterien, Gerichtskosten und Kostenfestsetzung sind sicher unkritische Einsatzgebiete. Und die Auswertung großer Datenmengen in Ermittlungsverfahren ist offensichtlich ohne Alternative.
Aber die aktuelle Diskussion scheint weit darüber hinaus zu zielen und deshalb muss nach der Grenze gefragt werden. Konkret: Soll der KI-generierte Vorschlag einer gerichtlichen Entscheidung diesseits oder jenseits dieser Grenze liegen?
Wie wollen wir damit umgehen, dass niemand aktuell beurteilen kann, wie ein KI-generierter Entscheidungsvorschlag zustande gekommen ist?
Ein Beispiel: Eine KI der UNI Stanford wurde trainiert, Hautkrebs zu erkennen. Dazu wurden ihr mehrere 100.000 Bilder gezeigt, die Dermatologen eingereicht hatten. Nach dem Training war die KI sehr gut in der Lage, Hautkrebs zu erkennen, machte aber in manchen Fällen verblüffende Fehler. Nach Jahren der Fehlersuche stand fest: die KI konnte gar keinen Hautkrebs erkennen, sondern nur Lineale, die manche Dermatologen zur Größenbestimmung neben die fotografierte Hautpartie gelegt hatten. Für die KI war klar: es gibt eine hinreichende Korrelation zwischen dem Vorhandensein eines Lineals und der Diagnose Hautkrebs.
Auf die Justiz übertragen: wie wollen wir garantieren, dass eine KI bei ihrem Vorschlag auf das Normprogramm abstellt – und nicht z.B. darauf, in welchen Gegenden die Parteien wohnen? Was, wenn eine KI feststellte, dass Beteiligte aus besonders guten Wohngegenden mit ihren Anträgen bei Gericht signifikant häufiger erfolgreich sind? Und bei ihrem Vorschlag auf diese Korrelation zwischen Adresse und Erfolg abstellt?
Dieses frei erfundene Beispiel soll zeigen: es könnte sehr schwer sein, diskriminierungsfreie Trainingsdaten zu erlangen. Und sehr schwer, als Entscheider diskriminierende Muster zu erkennen.
Wie wollen wir ferner damit umgehen, dass Menschen dazu neigen, maschinellen Vorschlägen zu folgen, weil sie deren Objektivität und Korrektheit überschätzen? Dieser sogenannte automation bias ist auch für die juristische Arbeit belegt.
Wie wollen wir dem begegnen? In einer seit Jahrzehnten chronisch unterfinanzierten Justiz? Wer wird es sich überhaupt noch leisten können, die Entscheidungsvorschläge im Detail zu prüfen, wenn über Kurz oder Lang der Effizienzgewinn durch KI in der Personalbedarfsberechnung Pebb§y eingepreist und die Zeit pro Fall halbiert sein wird? Was bleibt von der erhofften Entlastungswirkung durch KI, wenn zur Gegenfinanzierung Stellen gestrichen werden? Und wie wahrscheinlich ist die Annahme, dass der Finanzminister darauf verzichten wird?
Und ganz nebenbei: welche Rechtsmeinung soll KI mit ihren Vorschlägen denn bitte in Stein meißeln? Die gerade herrschende? Die gerade eigene? Gerade die zeitliche Dimension von Recht macht deutlich, dass wir vielleicht doch an R2D2 denken, wenn wir an KI denken.
Diese Zuspitzungen beziehen sich natürlich vor allem auf KI im engeren Sinne, also auf selbstlernende Algorithmen. Für regelbasierte Algorithmen, die bereits vielfach im Einsatz sind, gilt all das nur sehr eingeschränkt.
Es macht einen Unterschied, ob Justiz Software benutzt, in der das Normprogramm festgeschrieben ist, oder KI, bei der sich die Algorithmen permanent und durch den Nutzer nicht nachvollziehbar verändern. In der Sichtbarmachung dieser Unterscheidung liegt eine Herausforderung. In hinreichend komplexen Systemen ist es unmöglich ist, das vorhandene Wissen regelhaft zu repräsentieren. Allein mit regelbasierten Algorithmen wird man in der Justiz also nicht sehr weit kommen. Könnte es sein, dass sich unsere Hoffnungen nur mit „echter“ KI und nur um den Preis der Abhängigkeit von Privaten erfüllen lassen, während wir uns mit harmlosen Beispielen regelbasierter Algorithmen beschwichtigen, indem wir einfach alles KI nennen?
Woran denken Sie, wenn Sie an KI denken? An R2D2? Ich bin gespannt auf die vor uns liegende Diskussion und freue mich, das Wort an Herrn Dr. Christian Strasser übergeben zu dürfen, der das Panel vorstellen und uns durch die nächsten 90 Minuten führen wird. Ich danke für die Aufmerksamkeit. Herr Dr. Strasser: Sie haben das Wort. Möge die Macht mit Ihnen sein!