Juiz critica advogados por pesquisa de IA falsa

Juiz Penaliza Escritórios de Advocacia por Uso de IA sem Divulgação
Em uma recente decisão, o juiz da Califórnia, Michael Wilner, impôs uma multa elevada de $31.000 a dois renomados escritórios de advocacia por confiarem secretamente em inteligência artificial durante um processo civil. De acordo com o juiz Wilner, as empresas apresentaram uma petição repleta de “citações legais e citações falsas, imprecisas e enganosas”. Como relatado pelos professores de direito Eric Goldman e Blake Reid no Bluesky, o juiz expressou sua frustração com o que ele considerou um desrespeito negligente aos padrões profissionais. “Confiei na petição que li”, escreveu o juiz Wilner em sua decisão. “Fui convencido pelas autoridades que citaram, então investiguei esses casos por conta própria. Mas eles não existiam. Foi assustador. Quase assinei uma ordem judicial baseada em informações falsas.” De acordo com os documentos do tribunal, o problema começou quando a equipe jurídica de um requerente contratou uma ferramenta de IA para criar um esboço de uma petição suplementar. No entanto, este esboço estava repleto de conteúdo fabricado quando foi entregue à K&L Gates, outro escritório de advocacia envolvido no caso. Infelizmente, nem uma das empresas se deu ao trabalho de verificar ou confirmar as informações antes de submetê-las. O juiz Wilner descobriu que “pelo menos duas das autoridades citadas não existiam”. Quando pressionado pela explicação, a K&L Gates reenviou a petição, só para o juiz descobrir ainda mais referências fabricadas. Em resposta, ele emitiu uma Ordem para Explicar, levando ambas as partes a confessar a verdade sob juramento. O advogado responsável pela criação do esboço original admitiu ter usado o Google Gemini e ferramentas de pesquisa jurídica como o Westlaw Precision com CoCounsel. Um Padrão de Má Uso
Este não é o primeiro caso de advogados enfrentando complicações por má utilização de IA. O ex-advogado de Donald Trump, Michael Cohen, uma vez citou casos judiciais inexistentes após tratar erroneamente o Google Gemini, então conhecido como Bard, como um motor de busca regular. Da mesma forma, um juiz na Colômbia descobriu que os advogados processando uma companhia aérea haviam espalhado seu breve com casos fictícios gerados pelo ChatGPT. “Esta toda essa situação tem sido nada menos que alarmante”, concluiu o juiz Wilner. “A decisão inicial de confiar em IA sem divulgar isso foi inaceitável. Enviar tal material defeituoso a outros profissionais sem alertá-los sobre sua origem duvidosa colocou todos em risco.” As Implicações Mais Amplas
A decisão destaca uma preocupação crescente entre os profissionais jurídicos sobre as implicações éticas do uso de IA em petições judiciais. Embora as ferramentas de IA prometam eficiência e precisão, também carregam o risco de propagar desinformação se não forem devidamente verificadas. Como enfatizou o juiz Wilner, “Nenhum advogado razoavelmente competente deve transferir sua pesquisa ou escrita para um algoritmo sem verificar sua saída.” O caso serve como um lembrete contundente da importância da transparência e responsabilidade na prática jurídica. À medida que a IA continua a evoluir, permanece crucial para os profissionais avançarem com cuidado, garantindo que a tecnologia fortaleça — e não comprometa — a integridade do sistema de justiça.
Artigo relacionado
Usuários da Apple Podem Reivindicar Parte do Acordo de Privacidade do Siri de $95M
Proprietários de dispositivos Apple nos EUA agora podem solicitar uma parte de um acordo de $95 milhões que aborda preocupações com a privacidade do Siri. Um site dedicado facilita a distribuição de f
Meta Aprimora a Segurança de IA com Ferramentas Avançadas do Llama
A Meta lançou novas ferramentas de segurança do Llama para fortalecer o desenvolvimento de IA e proteger contra ameaças emergentes.Essas ferramentas de segurança do modelo de IA Llama atualizadas são
NotebookLM Apresenta Cadernos Curados de Publicações e Especialistas de Destaque
O Google está aprimorando sua ferramenta de pesquisa e anotações baseada em IA, NotebookLM, para servir como um hub de conhecimento abrangente. Na segunda-feira, a empresa lançou uma coleção curada de
Comentários (1)
0/200
AlbertScott
5 de Agosto de 2025 à59 08:00:59 WEST
This is wild! Lawyers getting fined $31k for sneaking AI into their briefs? 🤯 I get it, AI’s a game-changer, but hiding it from the court? That’s just asking for trouble. Curious how often this happens undetected!
0
Juiz Penaliza Escritórios de Advocacia por Uso de IA sem Divulgação
Em uma recente decisão, o juiz da Califórnia, Michael Wilner, impôs uma multa elevada de $31.000 a dois renomados escritórios de advocacia por confiarem secretamente em inteligência artificial durante um processo civil. De acordo com o juiz Wilner, as empresas apresentaram uma petição repleta de “citações legais e citações falsas, imprecisas e enganosas”. Como relatado pelos professores de direito Eric Goldman e Blake Reid no Bluesky, o juiz expressou sua frustração com o que ele considerou um desrespeito negligente aos padrões profissionais. “Confiei na petição que li”, escreveu o juiz Wilner em sua decisão. “Fui convencido pelas autoridades que citaram, então investiguei esses casos por conta própria. Mas eles não existiam. Foi assustador. Quase assinei uma ordem judicial baseada em informações falsas.” De acordo com os documentos do tribunal, o problema começou quando a equipe jurídica de um requerente contratou uma ferramenta de IA para criar um esboço de uma petição suplementar. No entanto, este esboço estava repleto de conteúdo fabricado quando foi entregue à K&L Gates, outro escritório de advocacia envolvido no caso. Infelizmente, nem uma das empresas se deu ao trabalho de verificar ou confirmar as informações antes de submetê-las. O juiz Wilner descobriu que “pelo menos duas das autoridades citadas não existiam”. Quando pressionado pela explicação, a K&L Gates reenviou a petição, só para o juiz descobrir ainda mais referências fabricadas. Em resposta, ele emitiu uma Ordem para Explicar, levando ambas as partes a confessar a verdade sob juramento. O advogado responsável pela criação do esboço original admitiu ter usado o Google Gemini e ferramentas de pesquisa jurídica como o Westlaw Precision com CoCounsel. Um Padrão de Má Uso
Este não é o primeiro caso de advogados enfrentando complicações por má utilização de IA. O ex-advogado de Donald Trump, Michael Cohen, uma vez citou casos judiciais inexistentes após tratar erroneamente o Google Gemini, então conhecido como Bard, como um motor de busca regular. Da mesma forma, um juiz na Colômbia descobriu que os advogados processando uma companhia aérea haviam espalhado seu breve com casos fictícios gerados pelo ChatGPT. “Esta toda essa situação tem sido nada menos que alarmante”, concluiu o juiz Wilner. “A decisão inicial de confiar em IA sem divulgar isso foi inaceitável. Enviar tal material defeituoso a outros profissionais sem alertá-los sobre sua origem duvidosa colocou todos em risco.” As Implicações Mais Amplas
A decisão destaca uma preocupação crescente entre os profissionais jurídicos sobre as implicações éticas do uso de IA em petições judiciais. Embora as ferramentas de IA prometam eficiência e precisão, também carregam o risco de propagar desinformação se não forem devidamente verificadas. Como enfatizou o juiz Wilner, “Nenhum advogado razoavelmente competente deve transferir sua pesquisa ou escrita para um algoritmo sem verificar sua saída.” O caso serve como um lembrete contundente da importância da transparência e responsabilidade na prática jurídica. À medida que a IA continua a evoluir, permanece crucial para os profissionais avançarem com cuidado, garantindo que a tecnologia fortaleça — e não comprometa — a integridade do sistema de justiça.


This is wild! Lawyers getting fined $31k for sneaking AI into their briefs? 🤯 I get it, AI’s a game-changer, but hiding it from the court? That’s just asking for trouble. Curious how often this happens undetected!












