Juge critique les avocats pour une recherche en IA bidon

Un juge sanctionne des cabinets d'avocats pour l'utilisation d'IA sans divulgation
Dans un récent arrêt, le juge californien Michael Wilner a infligé une amende de 31 000 dollars à deux grands cabinets d’avocats pour avoir secrètement fait appel à l'intelligence artificielle lors d’un procès civil. Selon le juge Wilner, les cabinets avaient soumis une requête remplie de « citations et de références juridiques fausses, inexactes et trompeuses ». Comme rapporté par les professeurs de droit Eric Goldman et Blake Reid sur Bluesky, le juge a exprimé sa frustration face à ce qu'il considérait comme un mépris délibéré des normes professionnelles. « J’ai cru à la requête que j’ai lue », a écrit le juge dans son arrêt. « J’ai été convaincu par les autorités qu’ils citaient, alors je me suis plongé dans l’étude de ces affaires moi-même. Mais elles n'existaient pas. C'était effrayant. J’ai presque approuvé un ordre judiciaire basé sur des informations fausses. » Selon les documents du tribunal, le problème a commencé lorsque l’équipe juridique d’un plaignant a embauché un outil IA pour élaborer un plan directeur pour une requête complémentaire. Cependant, ce plan contenait du contenu fabriqué lorsqu’il a été transmis au cabinet K&L Gates, également impliqué dans l’affaire. Malheureusement, ni l’un ni l’autre des cabinets ne s’est donné la peine de vérifier ou de valider les informations avant de les soumettre. Le juge Wilner a découvert que « au moins deux des autorités citées n’existaient absolument pas ». Lorsqu’on lui a demandé des clarifications, K&L Gates a réintroduit la requête, mais le juge a découvert encore plus de références fabriquées. En réponse, il a émis une ordonnance enjoignant aux parties de fournir des explications sous serment, ce qui a conduit les deux camps à avouer la vérité. L’avocat responsable de l'élaboration du plan directeur a admis avoir utilisé Google Gemini ainsi que des outils de recherche juridique comme Westlaw Precision avec CoCounsel. Un Modèle de Mauvaise Utilisation
Ce n’est pas la première fois que des avocats se retrouvent dans l’embarras à cause de l’utilisation abusive d’IA. L’avocat de Donald Trump, Michael Cohen, avait une fois cité des affaires fictives après avoir malencontreusement utilisé Google Gemini, alors connu sous le nom de Bard, comme un moteur de recherche ordinaire. De même, un juge en Colombie a découvert que les avocats poursuivant une compagnie aérienne avaient parsemé leur requête de cas fictifs générés par ChatGPT. « Cette affaire entière a été rien de moins que troublante », a conclu le juge Wilner. « La décision initiale d'utiliser de l'IA sans divulgation était inacceptable. Envoyer de tels matériaux défectueux à d'autres professionnels sans les avertir de leur origine douteuse mettait tout le monde en danger. » Les Implications Plus Larges
Le jugement souligne une inquiétude croissante chez les professionnels du droit concernant les implications éthiques de l’utilisation de l’IA dans les documents judiciaires. Bien que les outils d’IA promettent efficacité et précision, ils comportent aussi le risque de propager de fausses informations s'ils ne sont pas correctement validés. Comme l’a souligné le juge Wilner : « Aucun avocat raisonnablement compétent ne devrait externaliser ses recherches ou sa rédaction à un algorithme sans vérifier son output. » Ce cas rappelle de manière frappante l'importance de la transparence et de la responsabilité dans la pratique juridique. Alors que l’IA continue d’évoluer, il reste essentiel pour les praticiens de procéder avec prudence, en veillant à ce que la technologie renforce – et non compromette – l’intégrité du système judiciaire.
Article connexe
谷歌的人工智慧未來基金可能需要謹慎行事
Google 的新 AI 投資計劃:監管審查下的戰略轉變Google 最近宣布設立 AI 未來基金(AI Futures Fund),這標誌著這家科技巨頭在其塑造人工智慧未來的征程中邁出了大膽的一步。該計劃旨在為初創公司提供急需的資金、早期接觸仍在開發中的尖端人工智慧模型,以及來自 Google 內部專家的指導。儘管這不是 Google 第一次涉足初創企業生
Oura推出AI驅動的血糖追蹤與餐飲記錄功能
歐瑞亞加強其對新陳代謝健康的承諾,推出兩項令人興奮的新功能歐瑞亞正在提升其在新陳代謝健康領域的地位,推出了兩項尖端的、由人工智慧驅動的功能:血糖追蹤和餐點記錄。血糖追蹤功能緊隨其戰略合作夥伴德克斯康(Dexcom)之後推出,該公司最近推出了其過-the-counter的Stelo連續血糖監測器(CGM)。另一方面,餐點記錄標誌著歐瑞亞實驗室Beta計劃的第三
Microsoft的緊湊型Surface Pro提供12英寸的顯示屏,價格為799美元
介紹微軟的新Surface Pro 12英寸片劑片劑今天正在推出全新的Surface Pro平板電腦,與較大的13英寸Surface Pro 11相比,它具有光滑的12英寸顯示屏和大量的設計更新。
commentaires (0)
0/200
Un juge sanctionne des cabinets d'avocats pour l'utilisation d'IA sans divulgation
Dans un récent arrêt, le juge californien Michael Wilner a infligé une amende de 31 000 dollars à deux grands cabinets d’avocats pour avoir secrètement fait appel à l'intelligence artificielle lors d’un procès civil. Selon le juge Wilner, les cabinets avaient soumis une requête remplie de « citations et de références juridiques fausses, inexactes et trompeuses ». Comme rapporté par les professeurs de droit Eric Goldman et Blake Reid sur Bluesky, le juge a exprimé sa frustration face à ce qu'il considérait comme un mépris délibéré des normes professionnelles. « J’ai cru à la requête que j’ai lue », a écrit le juge dans son arrêt. « J’ai été convaincu par les autorités qu’ils citaient, alors je me suis plongé dans l’étude de ces affaires moi-même. Mais elles n'existaient pas. C'était effrayant. J’ai presque approuvé un ordre judiciaire basé sur des informations fausses. » Selon les documents du tribunal, le problème a commencé lorsque l’équipe juridique d’un plaignant a embauché un outil IA pour élaborer un plan directeur pour une requête complémentaire. Cependant, ce plan contenait du contenu fabriqué lorsqu’il a été transmis au cabinet K&L Gates, également impliqué dans l’affaire. Malheureusement, ni l’un ni l’autre des cabinets ne s’est donné la peine de vérifier ou de valider les informations avant de les soumettre. Le juge Wilner a découvert que « au moins deux des autorités citées n’existaient absolument pas ». Lorsqu’on lui a demandé des clarifications, K&L Gates a réintroduit la requête, mais le juge a découvert encore plus de références fabriquées. En réponse, il a émis une ordonnance enjoignant aux parties de fournir des explications sous serment, ce qui a conduit les deux camps à avouer la vérité. L’avocat responsable de l'élaboration du plan directeur a admis avoir utilisé Google Gemini ainsi que des outils de recherche juridique comme Westlaw Precision avec CoCounsel. Un Modèle de Mauvaise Utilisation
Ce n’est pas la première fois que des avocats se retrouvent dans l’embarras à cause de l’utilisation abusive d’IA. L’avocat de Donald Trump, Michael Cohen, avait une fois cité des affaires fictives après avoir malencontreusement utilisé Google Gemini, alors connu sous le nom de Bard, comme un moteur de recherche ordinaire. De même, un juge en Colombie a découvert que les avocats poursuivant une compagnie aérienne avaient parsemé leur requête de cas fictifs générés par ChatGPT. « Cette affaire entière a été rien de moins que troublante », a conclu le juge Wilner. « La décision initiale d'utiliser de l'IA sans divulgation était inacceptable. Envoyer de tels matériaux défectueux à d'autres professionnels sans les avertir de leur origine douteuse mettait tout le monde en danger. » Les Implications Plus Larges
Le jugement souligne une inquiétude croissante chez les professionnels du droit concernant les implications éthiques de l’utilisation de l’IA dans les documents judiciaires. Bien que les outils d’IA promettent efficacité et précision, ils comportent aussi le risque de propager de fausses informations s'ils ne sont pas correctement validés. Comme l’a souligné le juge Wilner : « Aucun avocat raisonnablement compétent ne devrait externaliser ses recherches ou sa rédaction à un algorithme sans vérifier son output. » Ce cas rappelle de manière frappante l'importance de la transparence et de la responsabilité dans la pratique juridique. Alors que l’IA continue d’évoluer, il reste essentiel pour les praticiens de procéder avec prudence, en veillant à ce que la technologie renforce – et non compromette – l’intégrité du système judiciaire.











