Der Oberste Gerichtshof der USA warnt vor den Gefahren von KI im Anwaltsberuf

By | January 3, 2024

Der Oberste Gerichtshof der USA befasste sich mit dem Einsatz künstlicher Intelligenz (KI) im Rechtssystem, erkannte dessen Potenzial und warnte vor einer „Entmenschlichung des Rechts“.

Der am Sonntag veröffentlichte Jahresendbericht 2023 über die Bundesjustiz bietet einen 13-seitigen Überblick über das vergangene Jahr im US-Rechtssystem. In diesem Jahr entschied sich der Oberste Richter des Obersten Gerichtshofs der USA, John G. Roberts Jr., seine Geschichte der Auseinandersetzung mit „einem wichtigen Thema, das für das gesamte Bundesjustizsystem relevant ist“, fortzusetzen, indem er sich auf KI konzentrierte und maschinelles Lernen mit früheren technologischen Fortschritten wie Personalcomputern vergleicht .

AUCH SEHEN:

ChatGPT schreibt derzeit Gesetze

„Für diejenigen, die sich keinen Anwalt leisten können, kann KI helfen“, sagte Roberts. „Es nutzt neue, leicht zugängliche Tools, die Antworten auf grundlegende Fragen liefern, darunter, wo man Vorlagen und Gerichtsformulare findet, wie man sie ausfüllt und wohin man sie mitnimmt, um sie dem Richter vorzulegen – und das alles, ohne das Haus zu verlassen.“

Roberts erkennt zwar die Vorteile an, die KI bieten kann, weist jedoch auch darauf hin, dass sie Risiken birgt, insbesondere wenn sie unsachgemäß eingesetzt wird. Insbesondere wurde darauf hingewiesen, dass viele Entscheidungen im Justizsystem menschliches Urteilsvermögen, Diskretion und Verständnis für Nuancen erfordern. Diese Macht einfach einem Algorithmus anzuvertrauen, wird wahrscheinlich zu schlechten und unfairen Ergebnissen führen, insbesondere wenn man bedenkt, dass KI-Modelle oft unbeabsichtigte Verzerrungen enthalten.

„In Strafsachen hat der Einsatz von KI bei der Bewertung des Fluchtrisikos, des Rückfalls und anderer weitgehend diskretionärer Entscheidungen, bei denen es um Vorhersagen geht, Bedenken hinsichtlich eines ordnungsgemäßen Verfahrens, der Zuverlässigkeit und einer möglichen Voreingenommenheit geweckt“, schrieb Roberts. „Zumindest im Moment zeigen Studien, dass es in der Öffentlichkeit nach wie vor eine ‚Fairness-Lücke zwischen Mensch und KI‘ gibt, was die Ansicht widerspiegelt, dass menschliche Entscheidungen trotz all ihrer Mängel gerechter sind als alles, was die Maschine aussendet.“

Roberts sagte, dass viele KI-Anwendungsfälle dem Justizsystem dabei helfen, Fälle „fair, schnell und kostengünstig“ zu lösen. Dennoch warnte er, dass KI nicht unbedingt für alle Situationen geeignet sei und dass „Gerichte ihren angemessenen Einsatz in Rechtsstreitigkeiten in Betracht ziehen müssen“, wenn sich die Technologie weiterentwickelt.

„Ich gehe davon aus, dass es noch eine Weile menschliche Richter geben wird“, sagte Roberts. „Aber ich gehe mit ebenso großer Zuversicht davon aus, dass die Arbeit der Justiz – insbesondere auf Prozessebene – durch KI erheblich beeinträchtigt wird. Diese Veränderungen betreffen nicht nur die Art und Weise, wie Richter ihre Arbeit erledigen, sondern auch, wie sie die Rolle verstehen, die KI in diesem Prozess spielt. Fälle, die sie erreichen.“

KI hat bereits Auswirkungen auf das US-Rechtssystem

Bedauerlicherweise hinkt das Verständnis der Juristen in Bezug auf KI zumindest in einigen Fällen bereits hinter der allzu eifrigen Anwendung zurück, da die Technologie des maschinellen Lernens bisher zweifelhafte Auswirkungen auf das US-amerikanische Rechtssystem hatte.

Letztes Jahr wurden zwei Anwälte mit einer Geldstrafe belegt, weil sie in einem Gerichtsverfahren nicht existierende Fälle zitiert hatten, nachdem sie ChatGPT von OpenAI genutzt hatten. Der KI-Chatbot hat sechs Fälle vollständig erfunden, die die Anwälte anschließend versuchten, auf ihren Argumenten aufzubauen. Einem von ihnen zufolge war ihm „die Möglichkeit, dass der Inhalt falsch war, nicht bewusst“.

Obwohl dieser Fall weithin bekannt gemacht wurde, scheinen nicht alle Anwälte das Memo über die übermäßige Abhängigkeit von KI verstanden zu haben. Ein weiterer US-Anwalt wurde kürzlich verhaftet, weil er ebenfalls falsche Fälle angeführt hatte, da er diese nicht verifiziert hatte, nachdem sein Mandant sie mit Google Bard generiert hatte. Besagter Mandant wurde vom ehemaligen Trump-Anwalt Michael Cohen rausgeschmissen, der letzte Woche sagte, er halte Bard für eine „überladene Suchmaschine“ und wisse nicht, dass sie Ergebnisse generieren könne.

Es wurde auch versucht, KI-Chatbots zur Generierung rechtlicher Argumente einzusetzen. Anfang letzten Jahres kündigte der Online-Rechtsdienst DoNotPay Pläne für die Vertretung eines Angeklagten vor Gericht mit seinem KI-Chatbot, nachdem er gewarnt worden war, dass ihm die unerlaubte Tätigkeit als Rechtsanwalt vorgeworfen werden könnte. Der DoNotPay-Chatbot wurde mit ChatGPT entwickelt.

Das KI-Unternehmen Luminance führte im vergangenen November auch eine Demo seines großen Sprachrechtsmodells Autopilot durch, das eine Vertragsverhandlung „ohne menschliches Eingreifen“ automatisiert. Künstliche Intelligenz wird sogar von Gesetzgebern zur Ausarbeitung von Gesetzen eingesetzt, sowohl in den USA als auch international.

Jeder, der ein juristisches Dokument verfasst oder gelesen hat, weiß, dass es sich normalerweise um eine mühsame Aufgabe handelt, die das Durchsuchen langer, langwieriger Seiten mit kompliziertem, undurchsichtigem Text erfordert. Einfach eine KI zu bitten, einen Vertrag zu überprüfen, eine rechtliche Vorlage zu bewerten oder eine Erklärung zu erstellen, scheint eine viel schnellere und weniger schmerzhafte Lösung zu sein. Doch selbst der Einsatz von KI als Hilfsmittel birgt Gefahren, da der Mensch seine Vorurteile unbewusst absorbieren kann.

Möglicherweise gibt es einige sorgfältig durchdachte Anwendungsfälle für maschinelle Lernalgorithmen im Rechtssystem. Allerdings ist die Technologie mit Vorsicht zu genießen. Ein übermäßiger Rückgriff auf KI im Gesetz birgt die reale Gefahr, die Menschheit in einem bereits notorisch bürokratischen System noch weiter zum Schweigen zu bringen.

Themen
Künstliche Intelligenz

Leave a Reply

Your email address will not be published. Required fields are marked *