Richter kritisiert Anwälte wegen fingierter KI-Forschung

Richter bestraft Anwaltskanzleien für den Einsatz von KI ohne Offenlegung
In einer kürzlich ergangenen Entscheidung verhängte der kalifornische Richter Michael Wilner gegen zwei prominente Anwaltskanzleien eine hohe Geldstrafe von 31.000 US-Dollar, weil sie heimlich künstliche Intelligenz in einem Zivilprozess einsetzten. Laut Richter Wilner reichten die Kanzleien ein Schriftstück ein, das mit „falschen, ungenauen und irreführenden juristischen Zitaten und Quellenangaben“ gefüllt war. Wie die Rechtsprofessoren Eric Goldman und Blake Reid auf Bluesky berichteten, äußerte der Richter seine Frustration über das, was er als rücksichtslosen Missbrauch professioneller Standards ansah.
„Ich habe dem Schriftstück, das ich gelesen habe, vertraut“, schrieb Richter Wilner in seiner Entscheidung. „Ich war von den zitierten Quellen überzeugt, also habe ich tiefer gegraben, um diese Fälle selbst zu prüfen. Aber sie existierten nicht. Es war erschreckend. Ich hätte beinahe eine gerichtliche Verfügung auf Basis falscher Informationen unterzeichnet.“
Laut Gerichtsdokumenten begann das Problem, als das Anwaltsteam der Klägerseite ein KI-Tool engagierte, um einen Entwurf für ein ergänzendes Schriftstück zu erstellen. Dieser Entwurf war jedoch voller erfundener Inhalte, als er an K&L Gates, eine weitere beteiligte Anwaltskanzlei, weitergegeben wurde. Leider überprüften beide Kanzleien die Informationen nicht, bevor sie sie einreichten.
Richter Wilner stellte fest, dass „mindestens zwei der zitierten Quellen völlig inexistent waren“. Auf Nachfrage reichte K&L Gates das Schriftstück erneut ein, nur um weitere erfundene Referenzen aufzudecken. Daraufhin erließ er eine Vorladung zur Klärung, die beide Seiten dazu zwang, die Wahrheit unter Eid zuzugeben. Der Anwalt, der den ursprünglichen Entwurf erstellt hatte, gestand, Google Gemini und juristische Recherchetools wie Westlaw Precision mit CoCounsel verwendet zu haben.
Ein Muster des Missbrauchs
Dies ist nicht der erste Fall, in dem Anwälte wegen Missbrauchs von KI in Schwierigkeiten geraten. Der ehemalige Trump-Anwalt Michael Cohen berief sich einmal auf nicht existierende Gerichtsfälle, nachdem er Google Gemini, damals bekannt als Bard, fälschlicherweise als reguläre Suchmaschine genutzt hatte. Ebenso stellte ein Richter in Kolumbien fest, dass Anwälte, die eine Fluggesellschaft verklagten, ihr Schriftstück mit gefälschten Fällen bestückt hatten, die von ChatGPT generiert wurden.
„Dieses ganze Ereignis war nichts weniger als alarmierend“, schloss Richter Wilner. „Die anfängliche Entscheidung, KI ohne Offenlegung zu nutzen, war inakzeptabel. Solch fehlerhaftes Material an andere Fachleute ohne Warnung über dessen fragwürdige Herkunft zu senden, brachte alle in Gefahr.“
Die größeren Auswirkungen
Die Entscheidung hebt eine wachsende Besorgnis unter Juristen über die ethischen Implikationen des Einsatzes von KI in Gerichtsdokumenten hervor. Während KI-Tools Effizienz und Genauigkeit versprechen, bergen sie auch das Risiko, Fehlinformationen zu verbreiten, wenn sie nicht richtig überprüft werden. Wie Richter Wilner betonte: „Kein vernünftig kompetenter Anwalt sollte seine Recherche oder sein Schreiben an einen Algorithmus auslagern, ohne dessen Ausgabe zu überprüfen.“
Der Fall dient als deutliche Erinnerung an die Bedeutung von Transparenz und Verantwortlichkeit in der juristischen Praxis. Da sich KI weiterentwickelt, bleibt es für Praktiker entscheidend, vorsichtig vorzugehen, um sicherzustellen, dass Technologie die Integrität des Rechtssystems stärkt – und nicht untergräbt.
Verwandter Artikel
YouTube integriert das KI-Videotool Veo 3 direkt in die Shorts-Plattform
YouTube Shorts wird diesen Sommer mit dem Veo 3 AI-Videomodell ausgestattetNeal Mohan, CEO von YouTube, verriet während seiner Keynote bei den Cannes Lions, dass die hochmoderne KI-Videoproduktionstec
Microsoft kündigt preisgünstiges Xbox Cloud Gaming-Abonnement an
Microsoft erforscht erschwingliche Optionen für Xbox Cloud GamingNeue Entwicklungen deuten darauf hin, dass Microsoft Pläne schmiedet, Xbox Cloud Gaming erschwinglicher zu machen. Nach früheren Berich
Google Cloud sorgt für Durchbrüche in der wissenschaftlichen Forschung und Entdeckung
Die digitale Revolution verändert die wissenschaftlichen Methoden durch nie dagewesene Berechnungsmöglichkeiten. Spitzentechnologien ergänzen heute sowohl theoretische Rahmenwerke als auch Laborexperi
Kommentare (3)
0/200
ThomasRoberts
15. September 2025 02:30:40 MESZ
法官這次真的發火了!律師用AI不註明出處被抓包,罰款3.1萬美元。🤦♂️ 這些所謂的AI生成法律研究報告根本就是Bogus啊!以後打官司還是老實點比較好...
0
HarryClark
12. August 2025 11:00:59 MESZ
This AI fiasco in court is wild! Lawyers thought they could sneak in AI-generated research and not get caught? $31k fine is a wake-up call—bet they’ll think twice before pulling that stunt again. 😬
0
AlbertScott
5. August 2025 09:00:59 MESZ
This is wild! Lawyers getting fined $31k for sneaking AI into their briefs? 🤯 I get it, AI’s a game-changer, but hiding it from the court? That’s just asking for trouble. Curious how often this happens undetected!
0
Richter bestraft Anwaltskanzleien für den Einsatz von KI ohne Offenlegung
In einer kürzlich ergangenen Entscheidung verhängte der kalifornische Richter Michael Wilner gegen zwei prominente Anwaltskanzleien eine hohe Geldstrafe von 31.000 US-Dollar, weil sie heimlich künstliche Intelligenz in einem Zivilprozess einsetzten. Laut Richter Wilner reichten die Kanzleien ein Schriftstück ein, das mit „falschen, ungenauen und irreführenden juristischen Zitaten und Quellenangaben“ gefüllt war. Wie die Rechtsprofessoren Eric Goldman und Blake Reid auf Bluesky berichteten, äußerte der Richter seine Frustration über das, was er als rücksichtslosen Missbrauch professioneller Standards ansah.
„Ich habe dem Schriftstück, das ich gelesen habe, vertraut“, schrieb Richter Wilner in seiner Entscheidung. „Ich war von den zitierten Quellen überzeugt, also habe ich tiefer gegraben, um diese Fälle selbst zu prüfen. Aber sie existierten nicht. Es war erschreckend. Ich hätte beinahe eine gerichtliche Verfügung auf Basis falscher Informationen unterzeichnet.“
Laut Gerichtsdokumenten begann das Problem, als das Anwaltsteam der Klägerseite ein KI-Tool engagierte, um einen Entwurf für ein ergänzendes Schriftstück zu erstellen. Dieser Entwurf war jedoch voller erfundener Inhalte, als er an K&L Gates, eine weitere beteiligte Anwaltskanzlei, weitergegeben wurde. Leider überprüften beide Kanzleien die Informationen nicht, bevor sie sie einreichten.
Richter Wilner stellte fest, dass „mindestens zwei der zitierten Quellen völlig inexistent waren“. Auf Nachfrage reichte K&L Gates das Schriftstück erneut ein, nur um weitere erfundene Referenzen aufzudecken. Daraufhin erließ er eine Vorladung zur Klärung, die beide Seiten dazu zwang, die Wahrheit unter Eid zuzugeben. Der Anwalt, der den ursprünglichen Entwurf erstellt hatte, gestand, Google Gemini und juristische Recherchetools wie Westlaw Precision mit CoCounsel verwendet zu haben.
Ein Muster des Missbrauchs
Dies ist nicht der erste Fall, in dem Anwälte wegen Missbrauchs von KI in Schwierigkeiten geraten. Der ehemalige Trump-Anwalt Michael Cohen berief sich einmal auf nicht existierende Gerichtsfälle, nachdem er Google Gemini, damals bekannt als Bard, fälschlicherweise als reguläre Suchmaschine genutzt hatte. Ebenso stellte ein Richter in Kolumbien fest, dass Anwälte, die eine Fluggesellschaft verklagten, ihr Schriftstück mit gefälschten Fällen bestückt hatten, die von ChatGPT generiert wurden.
„Dieses ganze Ereignis war nichts weniger als alarmierend“, schloss Richter Wilner. „Die anfängliche Entscheidung, KI ohne Offenlegung zu nutzen, war inakzeptabel. Solch fehlerhaftes Material an andere Fachleute ohne Warnung über dessen fragwürdige Herkunft zu senden, brachte alle in Gefahr.“
Die größeren Auswirkungen
Die Entscheidung hebt eine wachsende Besorgnis unter Juristen über die ethischen Implikationen des Einsatzes von KI in Gerichtsdokumenten hervor. Während KI-Tools Effizienz und Genauigkeit versprechen, bergen sie auch das Risiko, Fehlinformationen zu verbreiten, wenn sie nicht richtig überprüft werden. Wie Richter Wilner betonte: „Kein vernünftig kompetenter Anwalt sollte seine Recherche oder sein Schreiben an einen Algorithmus auslagern, ohne dessen Ausgabe zu überprüfen.“
Der Fall dient als deutliche Erinnerung an die Bedeutung von Transparenz und Verantwortlichkeit in der juristischen Praxis. Da sich KI weiterentwickelt, bleibt es für Praktiker entscheidend, vorsichtig vorzugehen, um sicherzustellen, dass Technologie die Integrität des Rechtssystems stärkt – und nicht untergräbt.




法官這次真的發火了!律師用AI不註明出處被抓包,罰款3.1萬美元。🤦♂️ 這些所謂的AI生成法律研究報告根本就是Bogus啊!以後打官司還是老實點比較好...




This AI fiasco in court is wild! Lawyers thought they could sneak in AI-generated research and not get caught? $31k fine is a wake-up call—bet they’ll think twice before pulling that stunt again. 😬




This is wild! Lawyers getting fined $31k for sneaking AI into their briefs? 🤯 I get it, AI’s a game-changer, but hiding it from the court? That’s just asking for trouble. Curious how often this happens undetected!












