NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

Morgan & Morgan sendettronWarnung an Anwälte davor, KI-Halluzinationen zu erliegen

VonHannah CollymoreHannah Collymore
3 Minuten Lesezeit
Morgan & Morgan sendettronWarnung an Anwälte davor, KI-Halluzinationen zu erliegen
  • Morgan & Morgan hat seine Anwälte davor gewarnt, KI-Halluzinationen in die juristische Arbeit einzubeziehen, und droht mit disziplinarischen Maßnahmen. 
  • Einer Umfrage zufolge haben 63 % der Anwälte in der Vergangenheit KI-Tools für ihre Arbeit genutzt, 12 % nutzen sie regelmäßig.
  • Anwälte, die bei der Verwendung nicht verifizierter, KI-generierter Zitate erwischt werden, können mit Strafen rechnen, darunter Geldstrafen und verpflichtende Kurse über die Nutzung generativer KI.

Die US-amerikanische Anwaltskanzlei Morgan & Morgan, spezialisiert auf Personenschadensfälle, verschickte diesen Monat Berichten zufolge eine dringende E-Mail an ihre über 1.000 Anwälte. Das Schreiben enthielt eine wichtige Warnung vor den Fähigkeiten von KI, äußerst überzeugende gefälschte Präzedenzfälle zu erstellen. 

Die Anwaltskanzlei warnte davor, dass jeder Anwalt, der diese erfundenen Informationen in einer Gerichtsakte zur Untermauerung seiner Argumentation verwendet, entlassen werden könnte.

Die Botschaft war klar und direkt. 

Die Verantwortlichen bei Morgan & Morgan konnten es sich nicht leisten, um den heißen Brei herumzureden, denn ein Bundesrichter in Wyoming hatte gerade zwei Anwälten der Kanzlei mit Sanktionen gedroht, weil sie in einer Klage gegen Walmart. 

Einer der Anwälte, der in einer Gerichtsakte KI-Halluzinationen verwendete, gab zu, ein KI-Programm eingesetzt zu haben, das die Fälle „halluzinierte“, und entschuldigte sich für das, was er als unbeabsichtigten Fehler bezeichnete.

Der Richter hat noch keine Entscheidung über disziplinarische Maßnahmen gegen die Anwälte von Morgan & Morgan getroffen    

Lange Zeit befürchteten Skeptiker die schlimmsten Folgen der KI-Verbreitung. Nun beeinflusst KI das Rechtssystem: Ihre fiktiven Fälle veranlassen Gerichte im ganzen Land, Anwälte zu hinterfragen oder gar zu bestrafen. 

In den letzten zwei Jahren gab es mindestens sieben solcher Fälle, und es hat sich offiziell zu einem neuen Hightech-Problem für Prozessparteien und Richter entwickelt, die nun zunächst die Glaubwürdigkeit der Argumente der Anwälte prüfen müssen.  

Der Fall Walmart zählt zu den bekanntesten Fällen, in denen Anwälte KI-gestützte „Halluzinationen“ vor Gericht einsetzten, da er eine renommierte Anwaltskanzlei und einen großen Konzern als Beklagten betrifft. Der Einsatz solcher KI-gestützter Verfahren wurde jedoch auch in diversen anderen, weniger bekannten Prozessen beobachtet, seit Chatbots wie ChatGPT den Beginn des KI-Zeitalters einleiteten.

Der Richter muss noch entscheiden, ob er die Anwälte im Walmart-Fall, in dem es um ein angeblich defektes Hoverboard-Spielzeug ging, disziplinarisch belangen wird.

Anwälte werden dringend davor gewarnt, von generativer KI erfundene Fakten zu verwenden 

Es stimmt, dass Anwälte dank generativer KI heute weniger Zeit mit Recherche und dem Verfassen von Schriftsätzen verbringen. Viele Kanzleien haben sogartracoder eigene KI-Tools um die Produktivität zu maximieren. 

Laut einer Umfrage von Thomson Reuters im vergangenen Jahr gaben mindestens 63 % der von der Muttergesellschaft von Reuters befragten Anwälte an, KI in ihrer Arbeit eingesetzt zu haben, während 12 % angaben, sie regelmäßig zu nutzen.

Der Haken an der Sache ist, dass generative KI dafür bekannt ist,dentFakten zu erfinden. Daher müssen Anwälte, die sie für ihre Arbeit einsetzen wollen, mit Vorsicht vorgehen, so Rechtsberater. 

Wenn eine KI gelegentlich falsche Informationen erzeugt, spricht man von „Halluzinationen“. Die Modelle generieren Antworten auf der Grundlage statistischer Muster, die aus großen Datensätzen gelernt wurden, anstatt Fakten in diesen Datensätzen zu überprüfen.

Laut dem Anwalt sind Anwälte verpflichtet, ihre Schriftsätze vor Gericht sorgfältig zu prüfen und zu deren Richtigkeit zu stehen, andernfalls riskieren sie disziplinarische Maßnahmen. Im vergangenen Jahr informierte die American Bar Association ihre 400.000 Mitglieder, dass diese Verpflichtungen auch für unbeabsichtigte Falschdarstellungen gelten, die durch KI erzeugt wurden.

Andrew Perlman, Dekan der juristischen Fakultät der Suffolk University und ein Befürworter von KI, sagte: „Wenn Anwälte dabei erwischt werden, wie sie ChatGPT oder ein anderes generatives KI-Tool verwenden, um Zitate zu erstellen, ohne sie zu überprüfen, ist das schlicht und einfach Inkompetenz.“ 

Harry Surden, ein Rechtsprofessor an der juristischen Fakultät der Universität von Colorado, der sich mit KI und Recht beschäftigt, hat Anwälte dringend dazu aufgerufen, sich die Zeit zu nehmen, „die Stärken und Schwächen der Werkzeuge“ kennenzulernen, von denen sie zunehmenddent werden. 

Surden sagte, die bisherigen Fälle verdeutlichten einen „Mangel an KI-Kompetenz“ in der Branche. Viele Anwälte seien sich der Grenzen und potenziellen Fehler, die KI-Tools verursachen können, nicht vollständig bewusst, was dazu führe, dass sie diese Fehler in ihren Schriftsätzen wiedergeben.

Surden gibt natürlich nicht der Technologie die Schuld. „Schon vor dem Einsatz von KI haben Anwälte immer wieder Fehler in ihren Schriftsätzen gemacht. Das ist nichts Neues“, sagte er. 

Obwohl Morgan & Morgan ihren Anwälten den Einsatz von KI nicht untersagt hat, möchte die Kanzlei offenbar, dass diese sich der potenziellen Risiken generativer KI bewusst sind. Dieses Wissen soll die Fehlerwahrscheinlichkeit verringern, das Risiko aber nicht vollständig ausschließen. Ein umfassendes Prüfsystem für KI-generierte Inhalte im juristischen Kontext ist daher unerlässlich, um die professionellen Standards der Branche zu wahren, das Vertrauen der Öffentlichkeit zu erhalten und rechtliche Konsequenzen zu vermeiden.

Ihre Bank nutzt Ihr Geld. Sie bekommen nur die Krümel. Sehen Sie sich unser kostenloses Video an, wie Sie Ihre eigene Bank werden können.

Diesen Artikel teilen

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren

MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS