Google propose des droits de droit d'auteur de l'IA détendus, des règles d'exportation

Google, sur les talons d'OpenAI, s'est lancé dans la course avec une proposition de politique en réponse à l'appel de l'administration Trump pour un "Plan d'action national sur l'IA". Le géant de la technologie plaide pour des restrictions assouplies sur les droits d'auteur pour l'entraînement de l'IA et des contrôles d'exportation "équilibrés" qui "protègent la sécurité nationale tout en permettant les exportations américaines et les opérations commerciales mondiales."
Dans leur document, Google soutient que "les États-Unis doivent poursuivre une politique économique internationale active pour promouvoir les valeurs américaines et soutenir l'innovation en IA à l'échelle mondiale." Ils n'hésitent pas à souligner que "pendant trop longtemps, l'élaboration des politiques sur l'IA a accordé une attention disproportionnée aux risques, ignorant souvent les coûts qu'une réglementation mal orientée peut avoir sur l'innovation, la compétitivité nationale et le leadership scientifique — une dynamique qui commence à changer sous la nouvelle administration."
L'une des recommandations les plus surprenantes de Google concerne l'utilisation de matériel protégé par la propriété intellectuelle. Ils soutiennent les "exceptions pour usage équitable et l'extraction de textes et de données", qu'ils qualifient de "cruciales" pour le développement de l'IA et l'innovation scientifique liée à l'IA. Comme OpenAI, Google souhaite rendre légal pour eux et leurs concurrents d'entraîner l'IA sur des données publiques — y compris du contenu protégé par des droits d'auteur — sans trop de contraintes.
"Ces exceptions permettent l'utilisation de matériel protégé par des droits d'auteur, disponible publiquement, pour l'entraînement de l'IA sans affecter significativement les détenteurs de droits," explique Google, "et évitent des négociations souvent très imprévisibles, déséquilibrées et longues avec les détenteurs de données pendant le développement de modèles ou les expérimentations scientifiques."
Google n'est pas étranger à la controverse dans ce domaine. Ils ont entraîné des modèles sur des données publiques protégées par des droits d'auteur et sont actuellement impliqués dans des litiges avec des propriétaires de données qui affirment que Google ne les a ni notifiés ni indemnisés au préalable. Les tribunaux américains n'ont pas encore déterminé si la doctrine de l'usage équitable protégera les développeurs d'IA dans ces batailles de propriété intellectuelle.
Dans leur proposition de politique sur l'IA, Google critique également certains contrôles d'exportation sous l'administration Biden, affirmant qu'ils "pourraient compromettre les objectifs de compétitivité économique" en "imposant des charges disproportionnées aux fournisseurs de services cloud américains." Cela diffère quelque peu de ce que Microsoft a déclaré en janvier — ils étaient assez confiants de pouvoir "se conformer pleinement" aux règles.
Les règles d'exportation visent à limiter les puces d'IA avancées dans les pays que les États-Unis ne favorisent pas, mais il existe des exemptions pour les entreprises de confiance cherchant à obtenir de grands clusters de puces.
Google appelle également à des investissements "à long terme et soutenus" dans la R&D nationale, repoussant les récents efforts fédéraux pour réduire les dépenses et annuler les subventions. Ils veulent que le gouvernement publie des ensembles de données qui pourraient aider à l'entraînement commercial de l'IA et finance la "R&D en phase précoce" tout en s'assurant que les ressources informatiques et les modèles sont "largement disponibles" pour les scientifiques et les institutions.
Avec un paysage réglementaire quelque peu chaotique aux États-Unis en raison d'un patchwork de lois étatiques sur l'IA, Google exhorte le gouvernement à adopter une législation fédérale sur l'IA, incluant un cadre complet de confidentialité et de sécurité. Début 2025, il y a déjà 781 projets de loi sur l'IA en attente aux États-Unis, selon un outil de suivi en ligne.
Google met également en garde le gouvernement américain contre l'imposition de ce qu'ils considèrent comme des obligations trop strictes sur les systèmes d'IA, comme les obligations de responsabilité d'utilisation. Ils soutiennent que dans de nombreux cas, le développeur d'un modèle "a peu ou pas de visibilité ou de contrôle" sur la manière dont il est utilisé et ne devrait pas être tenu responsable des abus.
Historiquement, Google s'est opposé à des lois comme le projet de loi SB 1047 en Californie, qui a été rejeté et qui détaillait les précautions que les développeurs d'IA devaient prendre avant de déployer un modèle et quand ils pourraient être tenus responsables des dommages causés par celui-ci.
"Même dans les cas où un développeur fournit un modèle directement aux déployeurs, ces derniers seront souvent les mieux placés pour comprendre les risques des utilisations en aval, mettre en œuvre une gestion efficace des risques, et effectuer un suivi et une journalisation post-commercialisation," souligne Google.
Google n'est pas non plus favorable aux exigences de divulgation comme celles envisagées par l'UE, les qualifiant de "trop vastes." Ils veulent que le gouvernement américain s'oppose aux règles de transparence qui exigeraient de "divulguer des secrets commerciaux, permettre aux concurrents de dupliquer des produits, ou compromettre la sécurité nationale en fournissant une feuille de route aux adversaires sur la manière de contourner les protections ou de pirater les modèles."
De plus en plus de pays et d'États adoptent des lois obligeant les développeurs d'IA à révéler le fonctionnement de leurs systèmes. La loi AB 2013 de Californie, par exemple, oblige les entreprises développant des systèmes d'IA à publier un résumé de haut niveau des ensembles de données utilisés pour l'entraînement. Dans l'UE, une fois que la loi sur l'IA entrera en vigueur, les entreprises devront fournir aux déployeurs de modèles des instructions détaillées sur le fonctionnement, les limitations et les risques associés au modèle.
Article connexe
Qodo s'associe à Google Cloud pour offrir des outils gratuits d'examen de code par IA aux développeurs
Qodo, une startup israélienne spécialisée dans le codage par IA et axée sur la qualité du code, a lancé un partenariat avec Google Cloud pour améliorer l'intégrité des logiciels générés par IA.À mesur
Google s'engage à respecter le code de pratique de l'IA de l'UE au milieu du débat industriel
Google s'est engagé à adopter le code de pratique volontaire de l'IA de l'Union européenne, un cadre conçu pour aider les développeurs d'IA à s'aligner sur la loi sur l'IA de l'UE en mettant en œuvre
Utilisateurs d'Apple peuvent réclamer une part du règlement de 95 millions de dollars concernant la confidentialité de Siri
Les propriétaires d'appareils Apple aux États-Unis peuvent désormais demander une partie d'un règlement de 95 millions de dollars concernant les préoccupations liées à la confidentialité de Siri. Un s
commentaires (42)
0/200
DouglasMitchell
18 août 2025 23:01:05 UTC+02:00
¡Vaya, Google y OpenAI pidiendo menos restricciones para la IA! Me parece curioso que busquen libertad para entrenar modelos, pero ¿y los creadores de contenido? Creo que deberían equilibrar innovación con derechos de autor. 🧐
0
AnthonyHernández
28 juillet 2025 03:20:54 UTC+02:00
Google's push for looser AI copyright rules is intriguing, but it feels like a double-edged sword. Sure, it could spark innovation, but what about creators getting shortchanged? 🤔 I wonder how they'll balance that with national security on exports.
0
JonathanNelson
20 avril 2025 08:24:23 UTC+02:00
Предложение Google по авторским правам на ИИ и правилам экспорта звучит интересно, но я не уверен, как это будет работать на практике. Всё про 'ослабление' того и 'баланс' этого. Посмотрим, поможет ли это или только усложнит ситуацию. 🤔
0
WillieHernández
19 avril 2025 11:12:07 UTC+02:00
GoogleのAI著作権と輸出規制の提案は興味深いけど、実際どうなるかわからないね。「緩和」だの「バランス」だのって言ってるけど、役立つのかそれとももっと複雑になるのか、見てみないとね。🤔
0
DouglasPerez
19 avril 2025 08:37:41 UTC+02:00
La propuesta de Google sobre derechos de autor de IA y reglas de exportación suena interesante, pero no estoy seguro de cómo se desarrollará. Todo es sobre 'relajado' esto y 'equilibrado' aquello. Supongo que veremos si ayuda o solo complica más las cosas. 🤔
0
RoyYoung
19 avril 2025 06:44:27 UTC+02:00
谷歌关于AI版权和出口规则的提案听起来挺有意思的,但我不确定实际效果会怎样。都是些“放宽”这个、“平衡”那个的说法。看看它是帮上忙还是让事情更复杂吧。🤔
0
Google, sur les talons d'OpenAI, s'est lancé dans la course avec une proposition de politique en réponse à l'appel de l'administration Trump pour un "Plan d'action national sur l'IA". Le géant de la technologie plaide pour des restrictions assouplies sur les droits d'auteur pour l'entraînement de l'IA et des contrôles d'exportation "équilibrés" qui "protègent la sécurité nationale tout en permettant les exportations américaines et les opérations commerciales mondiales."
Dans leur document, Google soutient que "les États-Unis doivent poursuivre une politique économique internationale active pour promouvoir les valeurs américaines et soutenir l'innovation en IA à l'échelle mondiale." Ils n'hésitent pas à souligner que "pendant trop longtemps, l'élaboration des politiques sur l'IA a accordé une attention disproportionnée aux risques, ignorant souvent les coûts qu'une réglementation mal orientée peut avoir sur l'innovation, la compétitivité nationale et le leadership scientifique — une dynamique qui commence à changer sous la nouvelle administration."
L'une des recommandations les plus surprenantes de Google concerne l'utilisation de matériel protégé par la propriété intellectuelle. Ils soutiennent les "exceptions pour usage équitable et l'extraction de textes et de données", qu'ils qualifient de "cruciales" pour le développement de l'IA et l'innovation scientifique liée à l'IA. Comme OpenAI, Google souhaite rendre légal pour eux et leurs concurrents d'entraîner l'IA sur des données publiques — y compris du contenu protégé par des droits d'auteur — sans trop de contraintes.
"Ces exceptions permettent l'utilisation de matériel protégé par des droits d'auteur, disponible publiquement, pour l'entraînement de l'IA sans affecter significativement les détenteurs de droits," explique Google, "et évitent des négociations souvent très imprévisibles, déséquilibrées et longues avec les détenteurs de données pendant le développement de modèles ou les expérimentations scientifiques."
Google n'est pas étranger à la controverse dans ce domaine. Ils ont entraîné des modèles sur des données publiques protégées par des droits d'auteur et sont actuellement impliqués dans des litiges avec des propriétaires de données qui affirment que Google ne les a ni notifiés ni indemnisés au préalable. Les tribunaux américains n'ont pas encore déterminé si la doctrine de l'usage équitable protégera les développeurs d'IA dans ces batailles de propriété intellectuelle.
Dans leur proposition de politique sur l'IA, Google critique également certains contrôles d'exportation sous l'administration Biden, affirmant qu'ils "pourraient compromettre les objectifs de compétitivité économique" en "imposant des charges disproportionnées aux fournisseurs de services cloud américains." Cela diffère quelque peu de ce que Microsoft a déclaré en janvier — ils étaient assez confiants de pouvoir "se conformer pleinement" aux règles.
Les règles d'exportation visent à limiter les puces d'IA avancées dans les pays que les États-Unis ne favorisent pas, mais il existe des exemptions pour les entreprises de confiance cherchant à obtenir de grands clusters de puces.
Google appelle également à des investissements "à long terme et soutenus" dans la R&D nationale, repoussant les récents efforts fédéraux pour réduire les dépenses et annuler les subventions. Ils veulent que le gouvernement publie des ensembles de données qui pourraient aider à l'entraînement commercial de l'IA et finance la "R&D en phase précoce" tout en s'assurant que les ressources informatiques et les modèles sont "largement disponibles" pour les scientifiques et les institutions.
Avec un paysage réglementaire quelque peu chaotique aux États-Unis en raison d'un patchwork de lois étatiques sur l'IA, Google exhorte le gouvernement à adopter une législation fédérale sur l'IA, incluant un cadre complet de confidentialité et de sécurité. Début 2025, il y a déjà 781 projets de loi sur l'IA en attente aux États-Unis, selon un outil de suivi en ligne.
Google met également en garde le gouvernement américain contre l'imposition de ce qu'ils considèrent comme des obligations trop strictes sur les systèmes d'IA, comme les obligations de responsabilité d'utilisation. Ils soutiennent que dans de nombreux cas, le développeur d'un modèle "a peu ou pas de visibilité ou de contrôle" sur la manière dont il est utilisé et ne devrait pas être tenu responsable des abus.
Historiquement, Google s'est opposé à des lois comme le projet de loi SB 1047 en Californie, qui a été rejeté et qui détaillait les précautions que les développeurs d'IA devaient prendre avant de déployer un modèle et quand ils pourraient être tenus responsables des dommages causés par celui-ci.
"Même dans les cas où un développeur fournit un modèle directement aux déployeurs, ces derniers seront souvent les mieux placés pour comprendre les risques des utilisations en aval, mettre en œuvre une gestion efficace des risques, et effectuer un suivi et une journalisation post-commercialisation," souligne Google.
Google n'est pas non plus favorable aux exigences de divulgation comme celles envisagées par l'UE, les qualifiant de "trop vastes." Ils veulent que le gouvernement américain s'oppose aux règles de transparence qui exigeraient de "divulguer des secrets commerciaux, permettre aux concurrents de dupliquer des produits, ou compromettre la sécurité nationale en fournissant une feuille de route aux adversaires sur la manière de contourner les protections ou de pirater les modèles."
De plus en plus de pays et d'États adoptent des lois obligeant les développeurs d'IA à révéler le fonctionnement de leurs systèmes. La loi AB 2013 de Californie, par exemple, oblige les entreprises développant des systèmes d'IA à publier un résumé de haut niveau des ensembles de données utilisés pour l'entraînement. Dans l'UE, une fois que la loi sur l'IA entrera en vigueur, les entreprises devront fournir aux déployeurs de modèles des instructions détaillées sur le fonctionnement, les limitations et les risques associés au modèle.




¡Vaya, Google y OpenAI pidiendo menos restricciones para la IA! Me parece curioso que busquen libertad para entrenar modelos, pero ¿y los creadores de contenido? Creo que deberían equilibrar innovación con derechos de autor. 🧐




Google's push for looser AI copyright rules is intriguing, but it feels like a double-edged sword. Sure, it could spark innovation, but what about creators getting shortchanged? 🤔 I wonder how they'll balance that with national security on exports.




Предложение Google по авторским правам на ИИ и правилам экспорта звучит интересно, но я не уверен, как это будет работать на практике. Всё про 'ослабление' того и 'баланс' этого. Посмотрим, поможет ли это или только усложнит ситуацию. 🤔




GoogleのAI著作権と輸出規制の提案は興味深いけど、実際どうなるかわからないね。「緩和」だの「バランス」だのって言ってるけど、役立つのかそれとももっと複雑になるのか、見てみないとね。🤔




La propuesta de Google sobre derechos de autor de IA y reglas de exportación suena interesante, pero no estoy seguro de cómo se desarrollará. Todo es sobre 'relajado' esto y 'equilibrado' aquello. Supongo que veremos si ayuda o solo complica más las cosas. 🤔




谷歌关于AI版权和出口规则的提案听起来挺有意思的,但我不确定实际效果会怎样。都是些“放宽”这个、“平衡”那个的说法。看看它是帮上忙还是让事情更复杂吧。🤔












