Option
Heim
Nachricht
Anthropics Anwalt entschuldigt sich nachdem Claude eine Rechtszitierung halluciniert

Anthropics Anwalt entschuldigt sich nachdem Claude eine Rechtszitierung halluciniert

5. Juni 2025
52

Anthropics Anwalt entschuldigt sich nachdem Claude eine Rechtszitierung halluciniert

Bei einem jüngsten Vorfall hat ein Anwalt von Anthropic zugegeben, dass während des laufenden Streits mit Musikverlagen eine falsche Zitierungsangabe verwendet wurde, die vom Unternehmen entwickelten Claude-KI-Gesprächsroboter generiert wurde. Die Erklärung erfolgte in einem Gerichtsanklagepapier am Donnerstag in einem nordkalifornischen Gerichtssaal.

Anthropic erklärte in der Klage, die zuerst von Bloomberg gemeldet wurde, dass Claude sowohl den Titel als auch die Autorangaben dieser Zitierungsangabe erfunden habe. Die Anwälte der Firma gestanden ein, dass ihre routinemäßigen Zitatenprüfungen den Fehler sowie mehrere andere Unrichtigkeiten, die durch Claudes „Halluzinationen“ verursacht wurden, nicht entdeckt hätten.

Anthropic entschuldigte sich für diesen Fehler und beschrieb das Vorfall als „einen ehrlichen Zitierungsfehler und keine Fälschung von Autorität“.

Früher diese Woche warnten Anwälte der Universal Music Group und anderer Musikverlage, dass Anthropics Sachverständige, Mitarbeiterin Olivia Chen, angeblich fälschliche Artikel in ihrer Zeugenaussage zitiert habe, unter Verwendung von Claude. Aufgrund dessen forderte Bundesrichterin Susan van Keulen von Anthropic eine Antwort zu diesen Vorwürfen.

Die Klage, die von den Musikverlagen eingereicht wurde, ist Teil mehrerer Konflikte zwischen Urheberrechtsinhabern und Technologieunternehmen über den mutmaßlichen Missbrauch ihrer Inhalte zur Entwicklung generativer KI-Werkzeuge.

Dies ist ein weiteres Beispiel dafür, dass der Einsatz von KI in rechtlichen Verfahren zu unabsichtlichen Folgen führen kann. Früher in dieser Woche kritisierte ein Kalifornischer Richter zwei Kanzleien für die Einreichung von „falschen KI-generierten Forschungsarbeiten“ in seinem Gericht. Im Januar wurde ein australischer Anwalt für die Nutzung von ChatGPT bei der Erstellung gerichtlicher Dokumente bloßgestellt, wodurch fehlerhafte Zitate entstanden.

Trotz solcher Vorfälle investieren Gründerfirmen weiterhin beträchtliche Mittel in die Automatisierung rechtlicher Prozesse. Harvey, das generative KI-Modelle einsetzt, um Anwälten zu helfen, soll laut Angaben laut Berichten über 250 Millionen USD bei einer Bewertung von mehr als 5 Milliarden USD sichern.

Techcrunch Ereignis ### Treffen Sie uns auf TechCrunch Sessions: AI

Reservieren Sie Ihren Platz auf unserer Top-Konferenz der KI-Branche mit Rednern aus OpenAI, Anthropic und Cohere. Für eine begrenzte Zeit kosten Tickets nur 292 USD für einen ganzen Tag voller Expertenvorträge, Workshops und wertvoller Netzwerkmöglichkeiten.

Ausstellen bei TechCrunch Sessions: AI

Buchen Sie Ihren Standplatz bei TC Sessions: AI und zeigen Sie Ihre Innovationen 1.200+ Entscheidungsträgern vor, ohne das Budget zu sprengen. Verfügbar bis zum 9. Mai oder solange Plätze frei sind.

Berkeley, CA | 5. Juni REGISTRIEREN SIE SICH HEUTE NOCH!

Verwandter Artikel
KI-gestütztes Einzelhandelsexperiment scheitert spektakulär bei Anthropic KI-gestütztes Einzelhandelsexperiment scheitert spektakulär bei Anthropic Stellen Sie sich vor, Sie übergeben einen kleinen Laden einer künstlichen Intelligenz und vertrauen ihr alles an, von der Preisgestaltung bis zur Kundeninteraktion. Was könnte schiefgehen?Eine kürzlic
Anthropic verbessert Claude mit nahtlosen Werkzeugintegrationen und fortschrittlicher Forschung Anthropic verbessert Claude mit nahtlosen Werkzeugintegrationen und fortschrittlicher Forschung Anthropic hat neue „Integrationen“ für Claude vorgestellt, die es der KI ermöglichen, direkt mit Ihren bevorzugten Arbeitswerkzeugen verbunden zu werden. Das Unternehmen hat auch eine verbesserte „For
Anthropics Anwalt entschuldigt sich nachdem Claude eine Rechtszitierung halluciniert Anthropics Anwalt entschuldigt sich nachdem Claude eine Rechtszitierung halluciniert Bei einem jüngsten Vorfall hat ein Anwalt von Anthropic zugegeben, dass während des laufenden Streits mit Musikverlagen eine falsche Zitierungsangabe verwendet wurde, die vom Unter
Kommentare (1)
0/200
FredYoung
FredYoung 1. August 2025 04:48:18 MESZ

Claude messing up legal citations? Yikes, that’s a rough day for Anthropic’s team. Hope they double-check those AI outputs next time! 😅

Zurück nach oben
OR