Google propone derechos de autor de IA relajados, reglas de exportación

Google, siguiendo de cerca a OpenAI, ha presentado una propuesta de política en respuesta al llamado de la administración Trump para un "Plan de Acción Nacional de IA". El gigante tecnológico aboga por restricciones de derechos de autor más flexibles para el entrenamiento de IA y controles de exportación "equilibrados" que "protejan la seguridad nacional mientras permiten las exportaciones de EE. UU. y las operaciones comerciales globales".
En su documento, Google argumenta que "EE. UU. necesita seguir una política económica internacional activa para promover los valores estadounidenses y apoyar la innovación en IA a nivel internacional". No se andan con rodeos al señalar que "durante demasiado tiempo, la formulación de políticas de IA ha prestado una atención desproporcionada a los riesgos, a menudo ignorando los costos que una regulación mal orientada puede tener en la innovación, la competitividad nacional y el liderazgo científico, una dinámica que está comenzando a cambiar bajo la nueva Administración".
Una de las recomendaciones más sorprendentes de Google es sobre el uso de material protegido por propiedad intelectual. Apoyan las "excepciones de uso justo y minería de textos y datos", que consideran "críticas" para el desarrollo de IA y la innovación científica relacionada con la IA. Al igual que OpenAI, Google quiere que sea legal para ellos y sus competidores entrenar IA con datos disponibles públicamente, incluido material con derechos de autor, sin demasiadas restricciones.
"Estas excepciones permiten el uso de material con derechos de autor disponible públicamente para el entrenamiento de IA sin impactar significativamente a los titulares de derechos", explica Google, "y evitan negociaciones a menudo altamente impredecibles, desequilibradas y prolongadas con los propietarios de datos durante el desarrollo de modelos o la experimentación científica".
Google no es ajeno a la controversia en este tema. Han estado entrenando modelos con datos públicos protegidos por derechos de autor y actualmente están envueltos en demandas con propietarios de datos que afirman que Google no les notificó ni compensó previamente. Los tribunales de EE. UU. aún no han decidido si la doctrina del uso justo salvará a los desarrolladores de IA de estas batallas de propiedad intelectual.
En su propuesta de política de IA, Google también critica ciertos controles de exportación bajo la administración Biden, diciendo que "pueden socavar los objetivos de competitividad económica" al "imponer cargas desproporcionadas a los proveedores de servicios en la nube de EE. UU.". Esto es un poco diferente de lo que dijo Microsoft en enero: ellos estaban bastante seguros de que podían "cumplir plenamente" con las reglas.
Las reglas de exportación buscan limitar los chips de IA avanzados en países que no son del agrado de EE. UU., pero hay exenciones para empresas confiables que buscan obtener grandes clústeres de chips.
Google también pide inversiones "a largo plazo y sostenidas" en I+D doméstica, rechazando los recientes esfuerzos federales para recortar gastos y eliminar premios de subvenciones. Quieren que el gobierno libere conjuntos de datos que puedan ayudar con el entrenamiento comercial de IA y financie la "I+D en etapas iniciales del mercado" mientras asegura que la computación y los modelos estén "ampliamente disponibles" para científicos e instituciones.
Aveces un panorama regulatorio desordenado en EE. UU. debido a un mosaico de leyes estatales de IA, Google insta al gobierno a aprobar legislación federal sobre IA, incluyendo un marco integral de privacidad y seguridad. A principios de 2025, ya hay 781 proyectos de ley de IA pendientes en EE. UU., según una herramienta de seguimiento en línea.
Google también advierte al gobierno de EE. UU. contra imponer lo que consideran obligaciones demasiado estrictas sobre los sistemas de IA, como obligaciones de responsabilidad por uso. Argumentan que, en muchos casos, el desarrollador de un modelo "tiene poca o ninguna visibilidad o control" sobre cómo se usa y no debería ser responsable por el mal uso.
Históricamente, Google se ha opuesto a leyes como la derrotada SB 1047 de California, que detallaba qué precauciones debían tomar los desarrolladores de IA antes de lanzar un modelo y cuándo podrían ser responsables por cualquier daño causado por este.
"Incluso en casos donde un desarrollador proporciona un modelo directamente a los implementadores, los implementadores a menudo estarán mejor posicionados para entender los riesgos de los usos posteriores, implementar una gestión de riesgos efectiva y realizar monitoreo y registro post-mercado", señala Google.
Google también se opone a los requisitos de divulgación como los que está considerando la UE, calificándolos de "demasiado amplios". Quieren que el gobierno de EE. UU. se oponga a las reglas de transparencia que requerirían "divulgar secretos comerciales, permitir a los competidores duplicar productos o comprometer la seguridad nacional al proporcionar una hoja de ruta a adversarios sobre cómo eludir protecciones o desbloquear modelos".
Cada vez más países y estados están aprobando leyes que requieren que los desarrolladores de IA revelen cómo funcionan sus sistemas. Por ejemplo, la AB 2013 de California obliga a las empresas que desarrollan sistemas de IA a publicar un resumen de alto nivel de los conjuntos de datos que usaron para el entrenamiento. En la UE, una vez que entre en vigor la Ley de IA, las empresas deberán proporcionar a los implementadores de modelos instrucciones detalladas sobre la operación, limitaciones y riesgos asociados con el modelo.
Artículo relacionado
Qodo se asocia con Google Cloud para ofrecer herramientas gratuitas de revisión de código de IA para desarrolladores
Qodo, una startup de codificación de IA con sede en Israel enfocada en la calidad del código, ha iniciado una asociación con Google Cloud para mejorar la integridad del software generado por IA.A medi
Google se compromete con el Código de Práctica de IA de la UE en medio del debate de la industria
Google se ha comprometido a adoptar el código de práctica de IA voluntario de la Unión Europea, un marco diseñado para ayudar a los desarrolladores de IA a alinearse con la Ley de IA de la UE mediante
Usuarios de Apple Pueden Reclamar Parte del Acuerdo de Privacidad de Siri de $95M
Los propietarios de dispositivos Apple en los EE. UU. ahora pueden solicitar una parte de un acuerdo de $95 millones que aborda preocupaciones de privacidad de Siri. Un sitio web dedicado facilita la
comentario (42)
0/200
DouglasMitchell
18 de agosto de 2025 23:01:05 GMT+02:00
¡Vaya, Google y OpenAI pidiendo menos restricciones para la IA! Me parece curioso que busquen libertad para entrenar modelos, pero ¿y los creadores de contenido? Creo que deberían equilibrar innovación con derechos de autor. 🧐
0
AnthonyHernández
28 de julio de 2025 03:20:54 GMT+02:00
Google's push for looser AI copyright rules is intriguing, but it feels like a double-edged sword. Sure, it could spark innovation, but what about creators getting shortchanged? 🤔 I wonder how they'll balance that with national security on exports.
0
JonathanNelson
20 de abril de 2025 08:24:23 GMT+02:00
Предложение Google по авторским правам на ИИ и правилам экспорта звучит интересно, но я не уверен, как это будет работать на практике. Всё про 'ослабление' того и 'баланс' этого. Посмотрим, поможет ли это или только усложнит ситуацию. 🤔
0
WillieHernández
19 de abril de 2025 11:12:07 GMT+02:00
GoogleのAI著作権と輸出規制の提案は興味深いけど、実際どうなるかわからないね。「緩和」だの「バランス」だのって言ってるけど、役立つのかそれとももっと複雑になるのか、見てみないとね。🤔
0
DouglasPerez
19 de abril de 2025 08:37:41 GMT+02:00
La propuesta de Google sobre derechos de autor de IA y reglas de exportación suena interesante, pero no estoy seguro de cómo se desarrollará. Todo es sobre 'relajado' esto y 'equilibrado' aquello. Supongo que veremos si ayuda o solo complica más las cosas. 🤔
0
RoyYoung
19 de abril de 2025 06:44:27 GMT+02:00
谷歌关于AI版权和出口规则的提案听起来挺有意思的,但我不确定实际效果会怎样。都是些“放宽”这个、“平衡”那个的说法。看看它是帮上忙还是让事情更复杂吧。🤔
0
Google, siguiendo de cerca a OpenAI, ha presentado una propuesta de política en respuesta al llamado de la administración Trump para un "Plan de Acción Nacional de IA". El gigante tecnológico aboga por restricciones de derechos de autor más flexibles para el entrenamiento de IA y controles de exportación "equilibrados" que "protejan la seguridad nacional mientras permiten las exportaciones de EE. UU. y las operaciones comerciales globales".
En su documento, Google argumenta que "EE. UU. necesita seguir una política económica internacional activa para promover los valores estadounidenses y apoyar la innovación en IA a nivel internacional". No se andan con rodeos al señalar que "durante demasiado tiempo, la formulación de políticas de IA ha prestado una atención desproporcionada a los riesgos, a menudo ignorando los costos que una regulación mal orientada puede tener en la innovación, la competitividad nacional y el liderazgo científico, una dinámica que está comenzando a cambiar bajo la nueva Administración".
Una de las recomendaciones más sorprendentes de Google es sobre el uso de material protegido por propiedad intelectual. Apoyan las "excepciones de uso justo y minería de textos y datos", que consideran "críticas" para el desarrollo de IA y la innovación científica relacionada con la IA. Al igual que OpenAI, Google quiere que sea legal para ellos y sus competidores entrenar IA con datos disponibles públicamente, incluido material con derechos de autor, sin demasiadas restricciones.
"Estas excepciones permiten el uso de material con derechos de autor disponible públicamente para el entrenamiento de IA sin impactar significativamente a los titulares de derechos", explica Google, "y evitan negociaciones a menudo altamente impredecibles, desequilibradas y prolongadas con los propietarios de datos durante el desarrollo de modelos o la experimentación científica".
Google no es ajeno a la controversia en este tema. Han estado entrenando modelos con datos públicos protegidos por derechos de autor y actualmente están envueltos en demandas con propietarios de datos que afirman que Google no les notificó ni compensó previamente. Los tribunales de EE. UU. aún no han decidido si la doctrina del uso justo salvará a los desarrolladores de IA de estas batallas de propiedad intelectual.
En su propuesta de política de IA, Google también critica ciertos controles de exportación bajo la administración Biden, diciendo que "pueden socavar los objetivos de competitividad económica" al "imponer cargas desproporcionadas a los proveedores de servicios en la nube de EE. UU.". Esto es un poco diferente de lo que dijo Microsoft en enero: ellos estaban bastante seguros de que podían "cumplir plenamente" con las reglas.
Las reglas de exportación buscan limitar los chips de IA avanzados en países que no son del agrado de EE. UU., pero hay exenciones para empresas confiables que buscan obtener grandes clústeres de chips.
Google también pide inversiones "a largo plazo y sostenidas" en I+D doméstica, rechazando los recientes esfuerzos federales para recortar gastos y eliminar premios de subvenciones. Quieren que el gobierno libere conjuntos de datos que puedan ayudar con el entrenamiento comercial de IA y financie la "I+D en etapas iniciales del mercado" mientras asegura que la computación y los modelos estén "ampliamente disponibles" para científicos e instituciones.
Aveces un panorama regulatorio desordenado en EE. UU. debido a un mosaico de leyes estatales de IA, Google insta al gobierno a aprobar legislación federal sobre IA, incluyendo un marco integral de privacidad y seguridad. A principios de 2025, ya hay 781 proyectos de ley de IA pendientes en EE. UU., según una herramienta de seguimiento en línea.
Google también advierte al gobierno de EE. UU. contra imponer lo que consideran obligaciones demasiado estrictas sobre los sistemas de IA, como obligaciones de responsabilidad por uso. Argumentan que, en muchos casos, el desarrollador de un modelo "tiene poca o ninguna visibilidad o control" sobre cómo se usa y no debería ser responsable por el mal uso.
Históricamente, Google se ha opuesto a leyes como la derrotada SB 1047 de California, que detallaba qué precauciones debían tomar los desarrolladores de IA antes de lanzar un modelo y cuándo podrían ser responsables por cualquier daño causado por este.
"Incluso en casos donde un desarrollador proporciona un modelo directamente a los implementadores, los implementadores a menudo estarán mejor posicionados para entender los riesgos de los usos posteriores, implementar una gestión de riesgos efectiva y realizar monitoreo y registro post-mercado", señala Google.
Google también se opone a los requisitos de divulgación como los que está considerando la UE, calificándolos de "demasiado amplios". Quieren que el gobierno de EE. UU. se oponga a las reglas de transparencia que requerirían "divulgar secretos comerciales, permitir a los competidores duplicar productos o comprometer la seguridad nacional al proporcionar una hoja de ruta a adversarios sobre cómo eludir protecciones o desbloquear modelos".
Cada vez más países y estados están aprobando leyes que requieren que los desarrolladores de IA revelen cómo funcionan sus sistemas. Por ejemplo, la AB 2013 de California obliga a las empresas que desarrollan sistemas de IA a publicar un resumen de alto nivel de los conjuntos de datos que usaron para el entrenamiento. En la UE, una vez que entre en vigor la Ley de IA, las empresas deberán proporcionar a los implementadores de modelos instrucciones detalladas sobre la operación, limitaciones y riesgos asociados con el modelo.




¡Vaya, Google y OpenAI pidiendo menos restricciones para la IA! Me parece curioso que busquen libertad para entrenar modelos, pero ¿y los creadores de contenido? Creo que deberían equilibrar innovación con derechos de autor. 🧐




Google's push for looser AI copyright rules is intriguing, but it feels like a double-edged sword. Sure, it could spark innovation, but what about creators getting shortchanged? 🤔 I wonder how they'll balance that with national security on exports.




Предложение Google по авторским правам на ИИ и правилам экспорта звучит интересно, но я не уверен, как это будет работать на практике. Всё про 'ослабление' того и 'баланс' этого. Посмотрим, поможет ли это или только усложнит ситуацию. 🤔




GoogleのAI著作権と輸出規制の提案は興味深いけど、実際どうなるかわからないね。「緩和」だの「バランス」だのって言ってるけど、役立つのかそれとももっと複雑になるのか、見てみないとね。🤔




La propuesta de Google sobre derechos de autor de IA y reglas de exportación suena interesante, pero no estoy seguro de cómo se desarrollará. Todo es sobre 'relajado' esto y 'equilibrado' aquello. Supongo que veremos si ayuda o solo complica más las cosas. 🤔




谷歌关于AI版权和出口规则的提案听起来挺有意思的,但我不确定实际效果会怎样。都是些“放宽”这个、“平衡”那个的说法。看看它是帮上忙还是让事情更复杂吧。🤔












