Anthropic признает ошибку искусственного интеллекта Клода в юридической документации, называя ее постыдной и непреднамеренной

Компания Anthropic ответила на обвинения, касающиеся источника, сгенерированного искусственным интеллектом, в своем текущем судебном споре с музыкальными издателями, охарактеризовав этот инцидент как "непреднамеренную ошибку цитирования", допущенную ее чатботом Claude.
Спорная цитата появилась в судебном иске, поданном 30 апреля научным сотрудником Anthropic Оливией Чен, в рамках защиты компании от обвинений в том, что Claude обучался, используя тексты песен, защищенные авторским правом. В ходе судебного разбирательства юристы, представляющие Universal Music Group и других издателей, отметили приведенные источники как потенциально сфабрикованные, предположив, что они могли быть придуманы системой искусственного интеллекта Anthropic.
В недавно поданном ответе адвокат Anthropic Ивана Дуканович пояснила, что, хотя цитируемые материалы были подлинными, Клод использовал их для форматирования юридических цитат в документе. Компания признала, что, хотя автоматические проверки выявили и исправили неточности в объеме и номерах страниц, сгенерированных искусственным интеллектом, некоторые неточности в формулировках остались незамеченными при ручной проверке.
Дуканович пояснил: "Система правильно определила название публикации, год и доступную ссылку, но ошибочно включила неверные названия статей и информацию об авторах", подчеркнув, что это скорее честная ошибка, чем намеренное введение в заблуждение. Anthropic выразила сожаление по поводу возникшей путаницы, назвав недосмотр "досадной, но непреднамеренной ошибкой".
Этот случай присоединился к растущему списку судебных разбирательств, в которых цитирование с помощью ИИ привело к осложнениям. Недавно судья из Калифорнии сделал замечание адвокатам за то, что они не раскрыли роль искусственного интеллекта в подготовке справки, содержащей несуществующие юридические ссылки. В декабре прошлого года этот вопрос привлек дополнительное внимание, когда исследователь дезинформации признал, что ChatGPT придумал ссылки в одном из своих юридических материалов.
Связанная статья
ChatGPT использовался для кражи конфиденциальных данных Gmail в результате взлома системы безопасности
Предупреждение о безопасности: Исследователи продемонстрировали технологию утечки данных с помощью искусственного интеллектаЭксперты по кибербезопасности недавно обнаружили уязвимость, позволяющую исп
Gmail внедряет автоматическое составление резюме писем с помощью искусственного интеллекта
Резюме электронной почты на основе Gemini-технологии станут доступны пользователям рабочей областиПодписчики Google Workspace заметят, что Gemini стал играть более важную роль в управлении их почтов
Apple может отложить запуск следующего iPhone для выпуска складной модели
По данным The Information, Apple готовит значительную перестановку в календаре релизов iPhone на 2026 год, представив первый складной iPhone вместе с новыми моделями "Air". Как сообщается, этот страте
Комментарии (0)
Компания Anthropic ответила на обвинения, касающиеся источника, сгенерированного искусственным интеллектом, в своем текущем судебном споре с музыкальными издателями, охарактеризовав этот инцидент как "непреднамеренную ошибку цитирования", допущенную ее чатботом Claude.
Спорная цитата появилась в судебном иске, поданном 30 апреля научным сотрудником Anthropic Оливией Чен, в рамках защиты компании от обвинений в том, что Claude обучался, используя тексты песен, защищенные авторским правом. В ходе судебного разбирательства юристы, представляющие Universal Music Group и других издателей, отметили приведенные источники как потенциально сфабрикованные, предположив, что они могли быть придуманы системой искусственного интеллекта Anthropic.
В недавно поданном ответе адвокат Anthropic Ивана Дуканович пояснила, что, хотя цитируемые материалы были подлинными, Клод использовал их для форматирования юридических цитат в документе. Компания признала, что, хотя автоматические проверки выявили и исправили неточности в объеме и номерах страниц, сгенерированных искусственным интеллектом, некоторые неточности в формулировках остались незамеченными при ручной проверке.
Дуканович пояснил: "Система правильно определила название публикации, год и доступную ссылку, но ошибочно включила неверные названия статей и информацию об авторах", подчеркнув, что это скорее честная ошибка, чем намеренное введение в заблуждение. Anthropic выразила сожаление по поводу возникшей путаницы, назвав недосмотр "досадной, но непреднамеренной ошибкой".
Этот случай присоединился к растущему списку судебных разбирательств, в которых цитирование с помощью ИИ привело к осложнениям. Недавно судья из Калифорнии сделал замечание адвокатам за то, что они не раскрыли роль искусственного интеллекта в подготовке справки, содержащей несуществующие юридические ссылки. В декабре прошлого года этот вопрос привлек дополнительное внимание, когда исследователь дезинформации признал, что ChatGPT придумал ссылки в одном из своих юридических материалов.












