Juiz critica advogados por pesquisa de IA falsa

Juiz Penaliza Escritórios de Advocacia por Uso de IA sem Divulgação
Em uma recente decisão, o juiz da Califórnia, Michael Wilner, impôs uma multa elevada de $31.000 a dois renomados escritórios de advocacia por confiarem secretamente em inteligência artificial durante um processo civil. De acordo com o juiz Wilner, as empresas apresentaram uma petição repleta de “citações legais e citações falsas, imprecisas e enganosas”. Como relatado pelos professores de direito Eric Goldman e Blake Reid no Bluesky, o juiz expressou sua frustração com o que ele considerou um desrespeito negligente aos padrões profissionais. “Confiei na petição que li”, escreveu o juiz Wilner em sua decisão. “Fui convencido pelas autoridades que citaram, então investiguei esses casos por conta própria. Mas eles não existiam. Foi assustador. Quase assinei uma ordem judicial baseada em informações falsas.” De acordo com os documentos do tribunal, o problema começou quando a equipe jurídica de um requerente contratou uma ferramenta de IA para criar um esboço de uma petição suplementar. No entanto, este esboço estava repleto de conteúdo fabricado quando foi entregue à K&L Gates, outro escritório de advocacia envolvido no caso. Infelizmente, nem uma das empresas se deu ao trabalho de verificar ou confirmar as informações antes de submetê-las. O juiz Wilner descobriu que “pelo menos duas das autoridades citadas não existiam”. Quando pressionado pela explicação, a K&L Gates reenviou a petição, só para o juiz descobrir ainda mais referências fabricadas. Em resposta, ele emitiu uma Ordem para Explicar, levando ambas as partes a confessar a verdade sob juramento. O advogado responsável pela criação do esboço original admitiu ter usado o Google Gemini e ferramentas de pesquisa jurídica como o Westlaw Precision com CoCounsel. Um Padrão de Má Uso
Este não é o primeiro caso de advogados enfrentando complicações por má utilização de IA. O ex-advogado de Donald Trump, Michael Cohen, uma vez citou casos judiciais inexistentes após tratar erroneamente o Google Gemini, então conhecido como Bard, como um motor de busca regular. Da mesma forma, um juiz na Colômbia descobriu que os advogados processando uma companhia aérea haviam espalhado seu breve com casos fictícios gerados pelo ChatGPT. “Esta toda essa situação tem sido nada menos que alarmante”, concluiu o juiz Wilner. “A decisão inicial de confiar em IA sem divulgar isso foi inaceitável. Enviar tal material defeituoso a outros profissionais sem alertá-los sobre sua origem duvidosa colocou todos em risco.” As Implicações Mais Amplas
A decisão destaca uma preocupação crescente entre os profissionais jurídicos sobre as implicações éticas do uso de IA em petições judiciais. Embora as ferramentas de IA prometam eficiência e precisão, também carregam o risco de propagar desinformação se não forem devidamente verificadas. Como enfatizou o juiz Wilner, “Nenhum advogado razoavelmente competente deve transferir sua pesquisa ou escrita para um algoritmo sem verificar sua saída.” O caso serve como um lembrete contundente da importância da transparência e responsabilidade na prática jurídica. À medida que a IA continua a evoluir, permanece crucial para os profissionais avançarem com cuidado, garantindo que a tecnologia fortaleça — e não comprometa — a integridade do sistema de justiça.
Artigo relacionado
谷歌的人工智慧未來基金可能需要謹慎行事
Google 的新 AI 投資計劃:監管審查下的戰略轉變Google 最近宣布設立 AI 未來基金(AI Futures Fund),這標誌著這家科技巨頭在其塑造人工智慧未來的征程中邁出了大膽的一步。該計劃旨在為初創公司提供急需的資金、早期接觸仍在開發中的尖端人工智慧模型,以及來自 Google 內部專家的指導。儘管這不是 Google 第一次涉足初創企業生
Oura推出AI驅動的血糖追蹤與餐飲記錄功能
歐瑞亞加強其對新陳代謝健康的承諾,推出兩項令人興奮的新功能歐瑞亞正在提升其在新陳代謝健康領域的地位,推出了兩項尖端的、由人工智慧驅動的功能:血糖追蹤和餐點記錄。血糖追蹤功能緊隨其戰略合作夥伴德克斯康(Dexcom)之後推出,該公司最近推出了其過-the-counter的Stelo連續血糖監測器(CGM)。另一方面,餐點記錄標誌著歐瑞亞實驗室Beta計劃的第三
Microsoft的緊湊型Surface Pro提供12英寸的顯示屏,價格為799美元
介紹微軟的新Surface Pro 12英寸片劑片劑今天正在推出全新的Surface Pro平板電腦,與較大的13英寸Surface Pro 11相比,它具有光滑的12英寸顯示屏和大量的設計更新。
Comentários (0)
0/200
Juiz Penaliza Escritórios de Advocacia por Uso de IA sem Divulgação
Em uma recente decisão, o juiz da Califórnia, Michael Wilner, impôs uma multa elevada de $31.000 a dois renomados escritórios de advocacia por confiarem secretamente em inteligência artificial durante um processo civil. De acordo com o juiz Wilner, as empresas apresentaram uma petição repleta de “citações legais e citações falsas, imprecisas e enganosas”. Como relatado pelos professores de direito Eric Goldman e Blake Reid no Bluesky, o juiz expressou sua frustração com o que ele considerou um desrespeito negligente aos padrões profissionais. “Confiei na petição que li”, escreveu o juiz Wilner em sua decisão. “Fui convencido pelas autoridades que citaram, então investiguei esses casos por conta própria. Mas eles não existiam. Foi assustador. Quase assinei uma ordem judicial baseada em informações falsas.” De acordo com os documentos do tribunal, o problema começou quando a equipe jurídica de um requerente contratou uma ferramenta de IA para criar um esboço de uma petição suplementar. No entanto, este esboço estava repleto de conteúdo fabricado quando foi entregue à K&L Gates, outro escritório de advocacia envolvido no caso. Infelizmente, nem uma das empresas se deu ao trabalho de verificar ou confirmar as informações antes de submetê-las. O juiz Wilner descobriu que “pelo menos duas das autoridades citadas não existiam”. Quando pressionado pela explicação, a K&L Gates reenviou a petição, só para o juiz descobrir ainda mais referências fabricadas. Em resposta, ele emitiu uma Ordem para Explicar, levando ambas as partes a confessar a verdade sob juramento. O advogado responsável pela criação do esboço original admitiu ter usado o Google Gemini e ferramentas de pesquisa jurídica como o Westlaw Precision com CoCounsel. Um Padrão de Má Uso
Este não é o primeiro caso de advogados enfrentando complicações por má utilização de IA. O ex-advogado de Donald Trump, Michael Cohen, uma vez citou casos judiciais inexistentes após tratar erroneamente o Google Gemini, então conhecido como Bard, como um motor de busca regular. Da mesma forma, um juiz na Colômbia descobriu que os advogados processando uma companhia aérea haviam espalhado seu breve com casos fictícios gerados pelo ChatGPT. “Esta toda essa situação tem sido nada menos que alarmante”, concluiu o juiz Wilner. “A decisão inicial de confiar em IA sem divulgar isso foi inaceitável. Enviar tal material defeituoso a outros profissionais sem alertá-los sobre sua origem duvidosa colocou todos em risco.” As Implicações Mais Amplas
A decisão destaca uma preocupação crescente entre os profissionais jurídicos sobre as implicações éticas do uso de IA em petições judiciais. Embora as ferramentas de IA prometam eficiência e precisão, também carregam o risco de propagar desinformação se não forem devidamente verificadas. Como enfatizou o juiz Wilner, “Nenhum advogado razoavelmente competente deve transferir sua pesquisa ou escrita para um algoritmo sem verificar sua saída.” O caso serve como um lembrete contundente da importância da transparência e responsabilidade na prática jurídica. À medida que a IA continua a evoluir, permanece crucial para os profissionais avançarem com cuidado, garantindo que a tecnologia fortaleça — e não comprometa — a integridade do sistema de justiça.











