option
Maison
Nouvelles
L’avocat d’Anthropic s’excuse après que Claude ait halluciné une citation juridique

L’avocat d’Anthropic s’excuse après que Claude ait halluciné une citation juridique

5 juin 2025
23

L’avocat d’Anthropic s’excuse après que Claude ait halluciné une citation juridique

Dans un développement récent, un avocat représentant Anthropic a reconnu l’utilisation d’une citation incorrecte générée par le chatbot Claude AI de l’entreprise lors du litige actuel entre les maisons de disques et Anthropic. Cette admission a été faite dans une déclaration auprès d’un tribunal de Californie du Nord, jeudi dernier.

Anthropic a mentionné dans cette déclaration, rapportée pour la première fois par Bloomberg, que Claude avait inventé une citation avec un titre et des détails d’auteur incorrects. Les avocats de l’entreprise ont admis que leurs vérifications habituelles des références avaient échoué à détecter cette erreur, ainsi que plusieurs autres inexactitudes causées par les « hallucinations » de Claude.

S’excusant pour cette négligence, Anthropic a décrit l’incident comme « une simple erreur de citation et non une fabrication d’autorité ».

Plus tôt cette semaine, les avocats de Universal Music Group et d’autres maisons de disques ont accusé l’experte témoin d’Anthropic, l’employée Olivia Chen, d’avoir cité des articles fictifs dans son témoignage, en prétendant utiliser Claude. En réponse à cela, la juge fédérale Susan van Keulen a demandé une réponse d’Anthropic concernant ces accusations.

Le procès intenté par les maisons de disques fait partie de plusieurs conflits entre les titulaires de droits d’auteur et les entreprises technologiques sur l’utilisation présumée de leur contenu pour développer des outils d’IA générative.

Cela marque encore un exemple où l’utilisation d’IA dans les procédures légales a entraîné des conséquences involontaires. Plus tôt cette semaine, un juge de Californie a critiqué deux cabinets d’avocats pour avoir soumis des « recherches générées par IA factices » dans sa cour. En janvier, un avocat australien a été exposé pour avoir utilisé ChatGPT dans la rédaction de documents judiciaires, ce qui a entraîné des citations erronées.

Malgré de tels incidents, les startups continuent d’attirer des investissements massifs pour automatiser les processus juridiques. Harvey, qui emploie des modèles d’IA générative pour aider les avocats, serait en discussion pour sécuriser plus de 250 millions de dollars à une valorisation dépassant les 5 milliards de dollars.

Techcrunch événement ### Rejoignez-nous à TechCrunch Sessions: AI

Réservez votre place à notre événement phare de l’industrie de l’IA avec des conférenciers venant d’OpenAI, Anthropic et Cohere. Pendant une période limitée, les billets sont proposés à seulement 292 $ pour une journée complète de présentations expertes, d’ateliers et d’opportunités de mise en réseau précieuses.

Exposer à TechCrunch Sessions: AI

Réservez votre stand à TC Sessions: AI et présentez vos innovations à plus de 1 200 décideurs sans épuiser votre budget. Disponible jusqu’au 9 mai ou tant que les places durent.

Berkeley, CA | 5 juin INSCRIVEZ-VOUS MAINTENANT

Article connexe
L’avocat d’Anthropic s’excuse après que Claude ait halluciné une citation juridique L’avocat d’Anthropic s’excuse après que Claude ait halluciné une citation juridique Dans un développement récent, un avocat représentant Anthropic a reconnu l’utilisation d’une citation incorrecte générée par le chatbot Claude AI de l’entreprise lors du litige act
Le Claude d'Anthropic est maintenant capable de lire Gmail Le Claude d'Anthropic est maintenant capable de lire Gmail Anthropic rend Claude compatible avec Google WorkspaceMardi, Anthropic a annoncé une nouvelle fonctionnalité pour son bot de discussion IA, Claude, qui s'intègre parfaitement avec
L'analyse d'Anthropic de 700 000 conversations Claude révèle le code moral unique de l'IA L'analyse d'Anthropic de 700 000 conversations Claude révèle le code moral unique de l'IA Anthropic dévoile une étude révolutionnaire sur l'assistant de l'IA Claude Anthropic, une entreprise lancée par d'anciens employés d'OpenAI, vient de partager une étude révélatrice sur la façon dont leur assistant d'IA, Claude, exprime les valeurs dans les conversations réelles. La recherche, publiée aujourd'hui, montre que Claude Mostl
commentaires (0)
0/200
Retour en haut
OR