Zu den gefälschten Einreichungen gehörten erfundene Zitate aus einer Rede an den staatlichen Gesetzgeber und nicht vorhandene Fallzitate, die angeblich vom Obersten Gerichtshof vorliegen.
Ein Rechtsanwalt musste sich entschuldigen, nachdem die KI gefälschte Zitate und erfundene Urteile in Einsendungen geschaffen hatte, die er in einem Mordfall vor einem australischen Gericht eingereicht hatte.
Der Verteidiger Rishi Nathwani, der den prestigeträchtigen Rechtstitel von King’s Counsel besitzt, übernahm „volle Verantwortung“ für die Einreichung falscher Informationen in Einreichungen im Falle eines Teenagers, der wegen Mordes vor dem Obersten Gerichtshof des Bundesstaates Victoria in Melbourne angeklagt ist.
„Es tut uns zutiefst leid und schäme uns für das, was passiert ist“, sagte Nathwani am Mittwoch im Namen des Verteidigungsteams gegenüber Richter James Elliott.
Zu den gefälschten Einreichungen gehörten erfundene Zitate aus einer Rede an den staatlichen Gesetzgeber und nicht vorhandene Fallzitate, die angeblich vom Obersten Gerichtshof vorliegen.
Die Fehler wurden von Elliotts Mitarbeitern entdeckt, die die Fälle nicht finden konnten und bat, dass Verteidiger Kopien anbieten konnten.
Die Anwälte gaben zu, dass die Zitate „nicht existieren“ und dass die Einreichung „fiktive Zitate“ enthielt, heißt es in Gerichtsdokumenten.
Die Anwälte erklärten, dass sie die ersten Zitate überprüft und angenommen hatten, dass die anderen auch genau waren.
Die AI-generierten Fehler verursachten eine 24-Stunden-Verzögerung bei der Lösung eines Falls, den Elliott am Mittwoch abgeschlossen hatte.
Richter Elliott entschied am Donnerstag, dass Nathwanis Klient, der nicht identifiziert werden kann, weil er Minderjähriger ist, wegen geistiger Beeinträchtigung nicht des Mordes schuldig war.
„Auf das Risiko einer Untertreibung ist die Art und Weise, wie sich diese Ereignisse entwickelt haben, unbefriedigend“, sagte Elliott am Donnerstag gegenüber Anwälten. „Die Fähigkeit des Gerichts, sich auf die Richtigkeit der vom Anwalt vorgesehenen Einreichungen zu stützen, ist für die gebührende Verwaltung der Justiz von grundlegender Bedeutung.“
Die Einreichungen wurden auch an den Staatsanwalt Daniel Porceddu gesendet, der ihre Genauigkeit nicht überprüfte.
Der Richter stellte fest, dass der Oberste Gerichtshof letztes Jahr Richtlinien für die Verwendung von Anwälten KI veröffentlicht hat.
„Es ist nicht akzeptabel, dass künstliche Intelligenz verwendet wird, es sei denn, das Produkt dieser Verwendung ist unabhängig und gründlich überprüft“, sagte Elliott.
Nicht der erste Fall der AI -Gerichtshalluzination
In einem vergleichbaren Fall in den Vereinigten Staaten im Jahr 2023 verhängte ein Bundesrichter zwei Anwälten und eine Anwaltskanzlei, nachdem ChatGPT für ihre Einreichung der fiktiven Rechtsforschung in einer Luftfahrtverletzungsansprüche verantwortlich war.
Richter P Kevin Castel sagte, sie hätten in böser Absicht gehandelt, aber er akzeptierte ihre Entschuldigung und Abhilfemaßnahmen anstelle einer härteren Strafe.
Später in diesem Jahr wurden in juristischen Papieren, die von Anwälten für Michael Cohen, einen ehemaligen persönlichen Anwalt des US -Präsidenten Donald Trump, eingereicht wurden, in juristischen Gerichtsbescheidungen, die von AI erfunden wurden, erfunden.
Cohen nahm die Schuld und sagte, er merkte nicht, dass das Google-Tool, das er für die Rechtsforschung verwendete, auch sogenannte KI-Halluzinationen in der Lage war.
Der britische Oberste Gerichtshof Victoria Sharp warnte im Juni, dass die Bereitstellung falscher Materialien, als ob es echt wäre, als Verachtung des Gerichts oder in den „ungeheuerlichsten Fällen“ den Kurs der Justiz verkehrt, das eine maximale Haftstrafe im Gefängnis hat.
In einem regulatorischen Urteil nach Dutzenden von gefälschten A-generierten gefälschten Zitaten in mehreren Fällen in Großbritannien sagte Sharp, dass das Thema „ernsthafte Auswirkungen auf das … öffentliche Vertrauen in das Justizsystem, wenn künstliche Intelligenz missbraucht wird“.