Juez reprende a abogados por 'investigación falsa de IA'

Un juez penaliza a bufetes de abogados por usar IA sin divulgación
En una reciente sentencia, el juez californiano Michael Wilner impuso una multa de $31,000 a dos prominentes bufetes de abogados por confiar secretamente en la inteligencia artificial durante un litigio civil. Según el juez Wilner, los bufetes presentaron un memorando lleno de “citas legales y citas falsas, inexactas y engañosas”. Como reportaron los profesores de derecho Eric Goldman y Blake Reid en Bluesky, el juez expresó su frustración por lo que consideró un descuido temerario de los estándares profesionales. “Confíe en el memorando que leí”, escribió el juez en su fallo. “Estaba convencido por las autoridades que citaban, así que investigué esos casos por mi cuenta. Pero no existían. Fue aterrador. Casi firmaba una orden judicial basada en información falsa”. Según los documentos judiciales, el problema comenzó cuando el equipo legal del demandante contrató una herramienta de IA para crear un borrador para un memorando complementario. Sin embargo, este borrador estaba lleno de contenido fabricado cuando se entregó a K&L Gates, otro bufete involucrado en el caso. Desafortunadamente, ni uno ni otro bufete se molestó en verificar o confirmar la información antes de enviarla. El juez Wilner descubrió que “al menos dos de las autoridades citadas no existían en absoluto”. Al ser presionados para aclarar, K&L Gates volvió a presentar el memorando, solo para que el juez encontrara aún más referencias fabricadas. En respuesta, emitió una Orden para Justificar, instando a ambos lados a admitir la verdad bajo juramento. El abogado responsable de crear el borrador original confesó haber usado Google Gemini y herramientas de investigación legal como Westlaw Precision con CoCounsel. Un patrón de mal uso
Esta no es la primera vez que los abogados se meten en problemas por el mal uso de IA. El exabogado de Trump, Michael Cohen, una vez citó casos judiciales inexistentes después de tratar erróneamente a Google Gemini, entonces conocido como Bard, como un motor de búsqueda normal. De manera similar, un juez en Colombia encontró que los abogados que demandaban a una aerolínea habían esparcido sus memorandos con casos falsos generados por ChatGPT. “Esta toda esta situación ha sido nada menos que alarmante”, concluyó el juez Wilner. “La decisión inicial de confiar en IA sin divulgación fue inaceptable. Enviar material defectuoso a otros profesionales sin advertirles sobre su cuestionable origen puso en riesgo a todos”. Las implicaciones más amplias
La sentencia resalta una preocupación creciente entre los profesionales legales sobre las implicaciones éticas del uso de IA en presentaciones judiciales. Si bien las herramientas de IA prometen eficiencia y precisión, también corren el riesgo de propagar desinformación si no se verifican adecuadamente. Como enfatizó el juez Wilner, “ningún abogado competente debería externalizar su investigación o redacción a un algoritmo sin verificar su salida”. El caso sirve como un recordatorio contundente de la importancia de la transparencia y la rendición de cuentas en la práctica legal. A medida que la IA continúa evolucionando, sigue siendo crucial que los profesionales manejen con cuidado la tecnología, asegurando que esta no socave sino que fortalezca la integridad del sistema de justicia.
Artículo relacionado
Usuarios de Apple Pueden Reclamar Parte del Acuerdo de Privacidad de Siri de $95M
Los propietarios de dispositivos Apple en los EE. UU. ahora pueden solicitar una parte de un acuerdo de $95 millones que aborda preocupaciones de privacidad de Siri. Un sitio web dedicado facilita la
Meta Mejora la Seguridad de la IA con Herramientas Avanzadas de Llama
Meta ha lanzado nuevas herramientas de seguridad de Llama para fortalecer el desarrollo de la IA y proteger contra amenazas emergentes.Estas herramientas de seguridad mejoradas del modelo de IA Llama
NotebookLM Presenta Cuadernos Curados de Publicaciones y Expertos de Renombre
Google está mejorando su herramienta de investigación y toma de notas impulsada por IA, NotebookLM, para que sirva como un centro de conocimiento integral. El lunes, la compañía presentó una colección
comentario (1)
0/200
AlbertScott
5 de agosto de 2025 09:00:59 GMT+02:00
This is wild! Lawyers getting fined $31k for sneaking AI into their briefs? 🤯 I get it, AI’s a game-changer, but hiding it from the court? That’s just asking for trouble. Curious how often this happens undetected!
0
Un juez penaliza a bufetes de abogados por usar IA sin divulgación
En una reciente sentencia, el juez californiano Michael Wilner impuso una multa de $31,000 a dos prominentes bufetes de abogados por confiar secretamente en la inteligencia artificial durante un litigio civil. Según el juez Wilner, los bufetes presentaron un memorando lleno de “citas legales y citas falsas, inexactas y engañosas”. Como reportaron los profesores de derecho Eric Goldman y Blake Reid en Bluesky, el juez expresó su frustración por lo que consideró un descuido temerario de los estándares profesionales. “Confíe en el memorando que leí”, escribió el juez en su fallo. “Estaba convencido por las autoridades que citaban, así que investigué esos casos por mi cuenta. Pero no existían. Fue aterrador. Casi firmaba una orden judicial basada en información falsa”. Según los documentos judiciales, el problema comenzó cuando el equipo legal del demandante contrató una herramienta de IA para crear un borrador para un memorando complementario. Sin embargo, este borrador estaba lleno de contenido fabricado cuando se entregó a K&L Gates, otro bufete involucrado en el caso. Desafortunadamente, ni uno ni otro bufete se molestó en verificar o confirmar la información antes de enviarla. El juez Wilner descubrió que “al menos dos de las autoridades citadas no existían en absoluto”. Al ser presionados para aclarar, K&L Gates volvió a presentar el memorando, solo para que el juez encontrara aún más referencias fabricadas. En respuesta, emitió una Orden para Justificar, instando a ambos lados a admitir la verdad bajo juramento. El abogado responsable de crear el borrador original confesó haber usado Google Gemini y herramientas de investigación legal como Westlaw Precision con CoCounsel. Un patrón de mal uso
Esta no es la primera vez que los abogados se meten en problemas por el mal uso de IA. El exabogado de Trump, Michael Cohen, una vez citó casos judiciales inexistentes después de tratar erróneamente a Google Gemini, entonces conocido como Bard, como un motor de búsqueda normal. De manera similar, un juez en Colombia encontró que los abogados que demandaban a una aerolínea habían esparcido sus memorandos con casos falsos generados por ChatGPT. “Esta toda esta situación ha sido nada menos que alarmante”, concluyó el juez Wilner. “La decisión inicial de confiar en IA sin divulgación fue inaceptable. Enviar material defectuoso a otros profesionales sin advertirles sobre su cuestionable origen puso en riesgo a todos”. Las implicaciones más amplias
La sentencia resalta una preocupación creciente entre los profesionales legales sobre las implicaciones éticas del uso de IA en presentaciones judiciales. Si bien las herramientas de IA prometen eficiencia y precisión, también corren el riesgo de propagar desinformación si no se verifican adecuadamente. Como enfatizó el juez Wilner, “ningún abogado competente debería externalizar su investigación o redacción a un algoritmo sin verificar su salida”. El caso sirve como un recordatorio contundente de la importancia de la transparencia y la rendición de cuentas en la práctica legal. A medida que la IA continúa evolucionando, sigue siendo crucial que los profesionales manejen con cuidado la tecnología, asegurando que esta no socave sino que fortalezca la integridad del sistema de justicia.


This is wild! Lawyers getting fined $31k for sneaking AI into their briefs? 🤯 I get it, AI’s a game-changer, but hiding it from the court? That’s just asking for trouble. Curious how often this happens undetected!












