Richter kritisiert Anwälte wegen fingierter KI-Forschung

Anwälte werden für die Verwendung von KI ohne Offenlegung bestraft
In einem kürzlichen Beschluss verhängte der kalifornische Richter Michael Wilner über zwei renommierte Anwaltskanzleien eine hohe Geldstrafe in Höhe von 31.000 USD wegen geheimer Nutzung von Künstlicher Intelligenz (KI) während eines Zivilverfahrens. Laut Richter Wilner enthielt ein von den Kanzleien vorgelegter Kurzbefund „falsche, ungenaue und irreführende juristische Zitate und Zitate“. Wie von Juraprofessoren Eric Goldman und Blake Reid auf Bluesky berichtet, äußerte der Richter seine Frustration über das, was er als fahrlässigen Missbrauch professioneller Standards ansah. „Ich vertraute dem Kurzbefund, den ich las“, schrieb Richter Wilner in seiner Urteilsbegründung. „Ich wurde von den zitierten Autoritäten überzeugt und grub tiefer ein, um diese Fälle selbst zu untersuchen. Aber sie existierten nicht. Es war erschreckend. Ich wäre fast einem gerichtlichen Beschluss basierend auf falscher Informationen zugestimmt.“ Gemäß Gerichtsdokumenten begann das Problem, als das Rechtsanwaltskollektiv des Klägers ein KI-Werkzeug engagierte, um einen Entwurf für einen ergänzenden Kurzbefund zu erstellen. Dieser Entwurf war jedoch voller gefälschter Inhalte, als er an die K&L Gates, eine weitere am Fall beteiligte Anwaltskanzlei, weitergegeben wurde. Leider bemühten sich keine der beiden Kanzleien, die Informationen vor der Einreichung zu überprüfen. Richter Wilner stellte fest, dass „mindestens zwei der zitierten Autoritäten völlig nicht existierten“. Bei Nachfrage nach Erklärungen legte K&L Gates den Kurzbefund erneut vor, nur um Richter Wilner noch mehr gefälschte Referenzen zu entdecken. Als Antwort darauf erließ er einen „Order to Show Cause“, der beide Parteien dazu zwang, die Wahrheit unter Eid zuzugeben. Der Anwalt, der den ursprünglichen Entwurf erstellt hatte, gestand ein, dass er Google Gemini sowie rechtliche Recherche-Tools wie Westlaw Precision mit CoCounsel verwendet habe.
Ein Muster des Missbrauchs
Dies ist nicht das erste Mal, dass Anwälte in Schwierigkeiten geraten, weil sie KI missbräuchlich nutzen. Der ehemalige Anwalt von Donald Trump, Michael Cohen, zitierte einmal nichtexistente Gerichtsentscheidungen, nachdem er Google Gemini, damals unter dem Namen Bard bekannt, fälschlicherweise als normales Suchtool behandelt hatte. Ähnlich fand ein Richter in Kolumbien heraus, dass Anwälte, die gegen eine Fluggesellschaft klagten, ihre Kurzbefunde mit falschen Fällen aus ChatGPT gespickt hatten. „Diese ganze Episode war nichts anderes als alarmierend“, fasste Richter Wilner zusammen. „Die ursprüngliche Entscheidung, KI ohne Offenlegung zu verwenden, war unakzeptabel. Der Versand solcher fehlerhaften Materialien an andere Fachleute ohne Warnung über deren fragwürdigen Ursprung hat alle Beteiligten gefährdet.“
Die breitere Bedeutung
Das Urteil hebt ein wachsendes Anliegen unter Rechtsprofessionellen hinsichtlich der ethischen Implikationen der Nutzung von KI in Gerichtsunterlagen hervor. Obwohl KI-Tools Effizienz und Genauigkeit versprechen, bergen sie auch die Gefahr, Falschinformationen zu verbreiten, wenn sie nicht ordnungsgemäß überprüft werden. Wie Richter Wilner betonte, „sollte kein vernünftiger kompetenter Anwalt seine Recherche oder seinen Text einer Algorithmus-Software überlassen, ohne dessen Ausgabe zu überprüfen.“ Der Fall ist ein eindringliches Mahnmal für die Bedeutung von Transparenz und Rechenschaftspflicht in der Rechtspraxis. Während KI weiter entwickelt wird, bleibt es entscheidend für Praktiker, vorsichtig zu sein und sicherzustellen, dass Technologie die Integrität des Rechtssystems nicht untergräbt, sondern verstärkt.
Verwandter Artikel
Apple-Nutzer können Anteil an $95M Siri-Datenschutzvereinbarung fordern
Apple-Gerätebesitzer in den USA können nun einen Anteil an einer $95 Millionen Vereinbarung beantragen, die Datenschutzbedenken bezüglich Siri adressiert. Eine spezielle Website erleichtert die Vertei
Meta verbessert KI-Sicherheit mit fortschrittlichen Llama-Tools
Meta hat neue Llama-Sicherheitstools veröffentlicht, um die KI-Entwicklung zu stärken und vor neuen Bedrohungen zu schützen.Diese verbesserten Llama-KI-Modell-Sicherheitstools werden mit neuen Ressour
NotebookLM stellt kuratierte Notizbücher von Top-Publikationen und Experten vor
Google verbessert sein KI-gestütztes Forschungs- und Notizwerkzeug, NotebookLM, um als umfassendes Wissenszentrum zu dienen. Am Montag stellte das Unternehmen eine kuratierte Sammlung von Notizbüchern
Kommentare (1)
0/200
AlbertScott
5. August 2025 09:00:59 MESZ
This is wild! Lawyers getting fined $31k for sneaking AI into their briefs? 🤯 I get it, AI’s a game-changer, but hiding it from the court? That’s just asking for trouble. Curious how often this happens undetected!
0
Anwälte werden für die Verwendung von KI ohne Offenlegung bestraft
In einem kürzlichen Beschluss verhängte der kalifornische Richter Michael Wilner über zwei renommierte Anwaltskanzleien eine hohe Geldstrafe in Höhe von 31.000 USD wegen geheimer Nutzung von Künstlicher Intelligenz (KI) während eines Zivilverfahrens. Laut Richter Wilner enthielt ein von den Kanzleien vorgelegter Kurzbefund „falsche, ungenaue und irreführende juristische Zitate und Zitate“. Wie von Juraprofessoren Eric Goldman und Blake Reid auf Bluesky berichtet, äußerte der Richter seine Frustration über das, was er als fahrlässigen Missbrauch professioneller Standards ansah. „Ich vertraute dem Kurzbefund, den ich las“, schrieb Richter Wilner in seiner Urteilsbegründung. „Ich wurde von den zitierten Autoritäten überzeugt und grub tiefer ein, um diese Fälle selbst zu untersuchen. Aber sie existierten nicht. Es war erschreckend. Ich wäre fast einem gerichtlichen Beschluss basierend auf falscher Informationen zugestimmt.“ Gemäß Gerichtsdokumenten begann das Problem, als das Rechtsanwaltskollektiv des Klägers ein KI-Werkzeug engagierte, um einen Entwurf für einen ergänzenden Kurzbefund zu erstellen. Dieser Entwurf war jedoch voller gefälschter Inhalte, als er an die K&L Gates, eine weitere am Fall beteiligte Anwaltskanzlei, weitergegeben wurde. Leider bemühten sich keine der beiden Kanzleien, die Informationen vor der Einreichung zu überprüfen. Richter Wilner stellte fest, dass „mindestens zwei der zitierten Autoritäten völlig nicht existierten“. Bei Nachfrage nach Erklärungen legte K&L Gates den Kurzbefund erneut vor, nur um Richter Wilner noch mehr gefälschte Referenzen zu entdecken. Als Antwort darauf erließ er einen „Order to Show Cause“, der beide Parteien dazu zwang, die Wahrheit unter Eid zuzugeben. Der Anwalt, der den ursprünglichen Entwurf erstellt hatte, gestand ein, dass er Google Gemini sowie rechtliche Recherche-Tools wie Westlaw Precision mit CoCounsel verwendet habe. Ein Muster des Missbrauchs
Dies ist nicht das erste Mal, dass Anwälte in Schwierigkeiten geraten, weil sie KI missbräuchlich nutzen. Der ehemalige Anwalt von Donald Trump, Michael Cohen, zitierte einmal nichtexistente Gerichtsentscheidungen, nachdem er Google Gemini, damals unter dem Namen Bard bekannt, fälschlicherweise als normales Suchtool behandelt hatte. Ähnlich fand ein Richter in Kolumbien heraus, dass Anwälte, die gegen eine Fluggesellschaft klagten, ihre Kurzbefunde mit falschen Fällen aus ChatGPT gespickt hatten. „Diese ganze Episode war nichts anderes als alarmierend“, fasste Richter Wilner zusammen. „Die ursprüngliche Entscheidung, KI ohne Offenlegung zu verwenden, war unakzeptabel. Der Versand solcher fehlerhaften Materialien an andere Fachleute ohne Warnung über deren fragwürdigen Ursprung hat alle Beteiligten gefährdet.“ Die breitere Bedeutung
Das Urteil hebt ein wachsendes Anliegen unter Rechtsprofessionellen hinsichtlich der ethischen Implikationen der Nutzung von KI in Gerichtsunterlagen hervor. Obwohl KI-Tools Effizienz und Genauigkeit versprechen, bergen sie auch die Gefahr, Falschinformationen zu verbreiten, wenn sie nicht ordnungsgemäß überprüft werden. Wie Richter Wilner betonte, „sollte kein vernünftiger kompetenter Anwalt seine Recherche oder seinen Text einer Algorithmus-Software überlassen, ohne dessen Ausgabe zu überprüfen.“ Der Fall ist ein eindringliches Mahnmal für die Bedeutung von Transparenz und Rechenschaftspflicht in der Rechtspraxis. Während KI weiter entwickelt wird, bleibt es entscheidend für Praktiker, vorsichtig zu sein und sicherzustellen, dass Technologie die Integrität des Rechtssystems nicht untergräbt, sondern verstärkt.


This is wild! Lawyers getting fined $31k for sneaking AI into their briefs? 🤯 I get it, AI’s a game-changer, but hiding it from the court? That’s just asking for trouble. Curious how often this happens undetected!












