Судья критикует адвокатов за фальшивое исследование ИИ

Суд наказал юридические фирмы за использование ИИ без раскрытия информации
В недавнем решении судья Калифорнии Майкл Уилнер оштрафовал две известные юридические фирмы на крупную сумму в размере 31 000 долларов за секретное использование искусственного интеллекта во время гражданского иска. По мнению судьи Уилнера, фирмы предоставили документ, полный «ложных, неточных и вводящих в заблуждение правовых ссылок и цитат». Как сообщили профессора права Эрик Голдман и Блейк Рид на Bluesky, судья выразил свое раздражение тем, что он сочлёт пренебрежительным отношением к профессиональным стандартам. «Я доверился документу, который прочитал», — написал судья Уилнер в своём решении. «Я был убеждён ссылками на авторитеты, поэтому углубился в исследование этих дел самостоятельно. Но они не существовали. Это было пугающе. Я почти подписал судебный приказ, основанный на ложной информации». Согласно судебным документам, проблема началась, когда команда защиты наняла инструмент ИИ для составления черновика дополнительного документа. Однако этот черновик был полон поддельного контента, когда его передали другому участвующему в деле юридическому бюро K&L Gates. К сожалению, ни одна из фирм не удосужилась проверить или подтвердить информацию перед её предоставлением. Судья Уилнер обнаружил, что «по крайней мере две из упомянутых ссылок вообще не существовали». При попытке выяснить подробности K&L Gates переподала документ, но судья выявил ещё больше вымышленных ссылок. В ответ он вынес Поручение объяснений, заставив стороны признаться в этом под присягой. Адвокат, ответственный за создание первоначального черновика, признался в использовании Google Gemini и юридических исследовательских инструментов, таких как Westlaw Precision с CoCounsel. Шаблон неправильного использования
Это не первый случай, когда адвокаты оказались в затруднительном положении из-за неправильного использования ИИ. Бывший адвокат Трампа Майкл Коэн однажды сослался на несуществующие судебные дела после ошибочного использования Google Gemini, тогда известного как Bard, как обычного поискового движка. Аналогично, судья в Колумбии обнаружил, что адвокаты, подавшие иск против авиакомпании, разбавили свой документ поддельными делами, сгенерированными ChatGPT. «Вся эта история была ничем иным, как тревожной», — заключил судья Уилнер. «Первоначальное решение полагаться на ИИ без раскрытия информации было недопустимым. Отправка такого дефектного материала другим профессионалам без предупреждения о его сомнительном происхождении поставило всех под угрозу». Более широкие последствия
Решение подчеркивает растущее беспокойство среди юридических профессионалов о этических последствиях использования ИИ в судебных документах. Хотя инструменты ИИ обещают эффективность и точность, они также несут риск распространения дезинформации, если их не должным образом проверить. Как подчеркнул судья Уилнер, «никакой разумно компетентный адвокат не должен передавать свою работу алгоритму без проверки его результатов». Этот случай напоминает о важности прозрачности и ответственности в юридической практике. Поскольку ИИ продолжает развиваться, для профессионалов остаётся критически важно осторожно использовать технологию, чтобы она укрепляла, а не подрывала целостность правовой системы.
Связанная статья
Пользователи Apple могут претендовать на долю в урегулировании вопросов конфиденциальности Siri на сумму 95 миллионов долларов
Владельцы устройств Apple в США теперь могут подать заявку на получение части урегулирования на сумму 95 миллионов долларов, связанного с вопросами конфиденциальности Siri. Специальный веб-сайт облегч
Meta Усиливает Безопасность ИИ с Помощью Продвинутых Инструментов Llama
Meta выпустила новые инструменты безопасности Llama для укрепления разработки ИИ и защиты от новых угроз.Эти усовершенствованные инструменты безопасности модели ИИ Llama сочетаются с новыми ресурсами
NotebookLM представляет курируемые тетради от ведущих изданий и экспертов
Google совершенствует свой инструмент для исследований и заметок на базе ИИ, NotebookLM, чтобы сделать его всеобъемлющим центром знаний. В понедельник компания представила курируемую коллекцию тетраде
Комментарии (1)
AlbertScott
5 августа 2025 г., 10:00:59 GMT+03:00
This is wild! Lawyers getting fined $31k for sneaking AI into their briefs? 🤯 I get it, AI’s a game-changer, but hiding it from the court? That’s just asking for trouble. Curious how often this happens undetected!
0
Суд наказал юридические фирмы за использование ИИ без раскрытия информации
В недавнем решении судья Калифорнии Майкл Уилнер оштрафовал две известные юридические фирмы на крупную сумму в размере 31 000 долларов за секретное использование искусственного интеллекта во время гражданского иска. По мнению судьи Уилнера, фирмы предоставили документ, полный «ложных, неточных и вводящих в заблуждение правовых ссылок и цитат». Как сообщили профессора права Эрик Голдман и Блейк Рид на Bluesky, судья выразил свое раздражение тем, что он сочлёт пренебрежительным отношением к профессиональным стандартам. «Я доверился документу, который прочитал», — написал судья Уилнер в своём решении. «Я был убеждён ссылками на авторитеты, поэтому углубился в исследование этих дел самостоятельно. Но они не существовали. Это было пугающе. Я почти подписал судебный приказ, основанный на ложной информации». Согласно судебным документам, проблема началась, когда команда защиты наняла инструмент ИИ для составления черновика дополнительного документа. Однако этот черновик был полон поддельного контента, когда его передали другому участвующему в деле юридическому бюро K&L Gates. К сожалению, ни одна из фирм не удосужилась проверить или подтвердить информацию перед её предоставлением. Судья Уилнер обнаружил, что «по крайней мере две из упомянутых ссылок вообще не существовали». При попытке выяснить подробности K&L Gates переподала документ, но судья выявил ещё больше вымышленных ссылок. В ответ он вынес Поручение объяснений, заставив стороны признаться в этом под присягой. Адвокат, ответственный за создание первоначального черновика, признался в использовании Google Gemini и юридических исследовательских инструментов, таких как Westlaw Precision с CoCounsel. Шаблон неправильного использования
Это не первый случай, когда адвокаты оказались в затруднительном положении из-за неправильного использования ИИ. Бывший адвокат Трампа Майкл Коэн однажды сослался на несуществующие судебные дела после ошибочного использования Google Gemini, тогда известного как Bard, как обычного поискового движка. Аналогично, судья в Колумбии обнаружил, что адвокаты, подавшие иск против авиакомпании, разбавили свой документ поддельными делами, сгенерированными ChatGPT. «Вся эта история была ничем иным, как тревожной», — заключил судья Уилнер. «Первоначальное решение полагаться на ИИ без раскрытия информации было недопустимым. Отправка такого дефектного материала другим профессионалам без предупреждения о его сомнительном происхождении поставило всех под угрозу». Более широкие последствия
Решение подчеркивает растущее беспокойство среди юридических профессионалов о этических последствиях использования ИИ в судебных документах. Хотя инструменты ИИ обещают эффективность и точность, они также несут риск распространения дезинформации, если их не должным образом проверить. Как подчеркнул судья Уилнер, «никакой разумно компетентный адвокат не должен передавать свою работу алгоритму без проверки его результатов». Этот случай напоминает о важности прозрачности и ответственности в юридической практике. Поскольку ИИ продолжает развиваться, для профессионалов остаётся критически важно осторожно использовать технологию, чтобы она укрепляла, а не подрывала целостность правовой системы.


This is wild! Lawyers getting fined $31k for sneaking AI into their briefs? 🤯 I get it, AI’s a game-changer, but hiding it from the court? That’s just asking for trouble. Curious how often this happens undetected!












