

El último informe del modelo de inteligencia artificial de Google carece de detalles clave de seguridad, dicen los expertos
27 de abril de 2025
ChristopherThomas
0
El jueves, semanas después de lanzar su último y más avanzado modelo de IA, Gemini 2.5 Pro, Google publicó un informe técnico que detalla los resultados de sus evaluaciones de seguridad internas. Sin embargo, los expertos han criticado el informe por su falta de detalles, lo que hace que sea difícil comprender completamente los riesgos potenciales asociados con el modelo.
Los informes técnicos son cruciales en el mundo de la IA, que ofrecen ideas, incluso si a veces no son halagadoras, que las empresas pueden no compartir públicamente. La comunidad de IA generalmente considera que estos informes son vistos como esfuerzos genuinos para fomentar la investigación independiente y mejorar las evaluaciones de seguridad.
El enfoque de Google para los informes de seguridad difiere de algunos de sus competidores. La compañía solo publica informes técnicos una vez que un modelo va más allá de la fase "experimental". Además, Google omite ciertos resultados de evaluación de "capacidad peligrosa" de estos informes, guardándolos para una auditoría separada.
A pesar de esto, varios expertos expresaron su decepción con el informe Gemini 2.5 Pro a TechCrunch, señalando su escasa cobertura del Marco de Seguridad Frontier (FSF) propuesto por Google. Google dio a conocer el FSF el año pasado, con el objetivo de identificar las capacidades futuras de IA que podrían conducir a un "daño severo".
"Este informe es muy escaso, contiene información mínima y se publicó semanas después de que el modelo ya se hizo público", dijo a TechCrunch Peter Wildeford, cofundador del Instituto de Política y Estrategia de AI. "Es imposible verificar si Google está a la altura de sus compromisos públicos y, por lo tanto, imposible evaluar la seguridad de sus modelos".
Thomas Woodside, cofundador del proyecto Secure AI, reconoció la publicación del informe de Gemini 2.5 Pro, pero cuestionó la dedicación de Google para proporcionar evaluaciones de seguridad complementarias oportunas. Señaló que Google publicó por última vez los resultados de la prueba de capacidad peligrosa en junio de 2024, para un modelo anunciado en febrero de ese año.
Además de las preocupaciones, Google aún no ha publicado un informe para Gemini 2.5 Flash, un modelo más pequeño y más eficiente anunciado la semana pasada. Un portavoz informó a TechCrunch que un informe para Flash "próximamente".
"Espero que esta sea una promesa de Google para comenzar a publicar actualizaciones más frecuentes", dijo Woodside a TechCrunch. "Esas actualizaciones deben incluir los resultados de las evaluaciones para modelos que aún no se han implementado públicamente, ya que esos modelos también podrían plantear riesgos graves".
Si bien Google fue uno de los primeros laboratorios de IA en proponer informes estandarizados para los modelos, no está solo para enfrentar críticas por falta de transparencia. Meta publicó una evaluación de seguridad similarmente breve para sus nuevos modelos abiertos de Llama 4, y OpenAI decidió no publicar ningún informe para su serie GPT-4.1.
Las garantías de Google a los reguladores sobre el mantenimiento de altos estándares en las pruebas de seguridad de IA e informes agregan presión a la situación. Hace dos años, Google prometió al gobierno de los Estados Unidos que publique informes de seguridad para todos los "modelos de IA públicos significativos" dentro del alcance ", seguido de compromisos similares con otros países, prometiendo" transparencia pública "en torno a los productos de IA.
Kevin Bankston, asesor principal del gobierno de IA en el Centro de Democracia y Tecnología, describió la tendencia de los informes esporádicos y vagos como una "carrera hacia el fondo" sobre la seguridad de la IA.
"Combinado con informes de que los laboratorios competidores como OpenAI han reducido su tiempo de prueba de seguridad antes de su lanzamiento de meses a días, esta escasa documentación para el mejor modelo de IA de Google cuenta una historia preocupante de una carrera hacia el fondo en la seguridad y la transparencia de la IA como las compañías apresuran sus modelos al mercado", dijo a TechCrunch.
Google ha declarado que, aunque no es detallado en sus informes técnicos, realiza pruebas de seguridad y "equipo rojo adversario" para los modelos antes de su lanzamiento.
Actualizado 4/22 a las 12:58 PM Pacífico: lenguaje modificado alrededor de la referencia del informe técnico al FSF de Google.
Artículo relacionado
Google’s latest AI model report lacks key safety details, experts say
On Thursday, weeks after launching its latest and most advanced AI model, Gemini 2.5 Pro, Google released a technical report detailing the results of its internal safety assessments. However, experts have criticized the report for its lack of detail, making it challenging to fully understand the pot
Google Search Introduces 'AI Mode' for Complex, Multi-Part Queries
Google Unveils "AI Mode" in Search to Rival Perplexity AI and ChatGPTGoogle is stepping up its game in the AI arena with the launch of an experimental "AI Mode" feature in its Search engine. Aimed at taking on the likes of Perplexity AI and OpenAI's ChatGPT Search, this new mode was announced on Wed
DeepMind CEO Demis Hassabis Announces Future Integration of Google's Gemini and Veo AI Models
In a recent episode of the podcast Possible, co-hosted by LinkedIn co-founder Reid Hoffman, Google DeepMind CEO Demis Hassabis shared some exciting news about Google's plans. He revealed that Google is looking to merge its Gemini AI models with the Veo video-generating models. This fusion aims to en
Comentario (0)
0/200






El jueves, semanas después de lanzar su último y más avanzado modelo de IA, Gemini 2.5 Pro, Google publicó un informe técnico que detalla los resultados de sus evaluaciones de seguridad internas. Sin embargo, los expertos han criticado el informe por su falta de detalles, lo que hace que sea difícil comprender completamente los riesgos potenciales asociados con el modelo.
Los informes técnicos son cruciales en el mundo de la IA, que ofrecen ideas, incluso si a veces no son halagadoras, que las empresas pueden no compartir públicamente. La comunidad de IA generalmente considera que estos informes son vistos como esfuerzos genuinos para fomentar la investigación independiente y mejorar las evaluaciones de seguridad.
El enfoque de Google para los informes de seguridad difiere de algunos de sus competidores. La compañía solo publica informes técnicos una vez que un modelo va más allá de la fase "experimental". Además, Google omite ciertos resultados de evaluación de "capacidad peligrosa" de estos informes, guardándolos para una auditoría separada.
A pesar de esto, varios expertos expresaron su decepción con el informe Gemini 2.5 Pro a TechCrunch, señalando su escasa cobertura del Marco de Seguridad Frontier (FSF) propuesto por Google. Google dio a conocer el FSF el año pasado, con el objetivo de identificar las capacidades futuras de IA que podrían conducir a un "daño severo".
"Este informe es muy escaso, contiene información mínima y se publicó semanas después de que el modelo ya se hizo público", dijo a TechCrunch Peter Wildeford, cofundador del Instituto de Política y Estrategia de AI. "Es imposible verificar si Google está a la altura de sus compromisos públicos y, por lo tanto, imposible evaluar la seguridad de sus modelos".
Thomas Woodside, cofundador del proyecto Secure AI, reconoció la publicación del informe de Gemini 2.5 Pro, pero cuestionó la dedicación de Google para proporcionar evaluaciones de seguridad complementarias oportunas. Señaló que Google publicó por última vez los resultados de la prueba de capacidad peligrosa en junio de 2024, para un modelo anunciado en febrero de ese año.
Además de las preocupaciones, Google aún no ha publicado un informe para Gemini 2.5 Flash, un modelo más pequeño y más eficiente anunciado la semana pasada. Un portavoz informó a TechCrunch que un informe para Flash "próximamente".
"Espero que esta sea una promesa de Google para comenzar a publicar actualizaciones más frecuentes", dijo Woodside a TechCrunch. "Esas actualizaciones deben incluir los resultados de las evaluaciones para modelos que aún no se han implementado públicamente, ya que esos modelos también podrían plantear riesgos graves".
Si bien Google fue uno de los primeros laboratorios de IA en proponer informes estandarizados para los modelos, no está solo para enfrentar críticas por falta de transparencia. Meta publicó una evaluación de seguridad similarmente breve para sus nuevos modelos abiertos de Llama 4, y OpenAI decidió no publicar ningún informe para su serie GPT-4.1.
Las garantías de Google a los reguladores sobre el mantenimiento de altos estándares en las pruebas de seguridad de IA e informes agregan presión a la situación. Hace dos años, Google prometió al gobierno de los Estados Unidos que publique informes de seguridad para todos los "modelos de IA públicos significativos" dentro del alcance ", seguido de compromisos similares con otros países, prometiendo" transparencia pública "en torno a los productos de IA.
Kevin Bankston, asesor principal del gobierno de IA en el Centro de Democracia y Tecnología, describió la tendencia de los informes esporádicos y vagos como una "carrera hacia el fondo" sobre la seguridad de la IA.
"Combinado con informes de que los laboratorios competidores como OpenAI han reducido su tiempo de prueba de seguridad antes de su lanzamiento de meses a días, esta escasa documentación para el mejor modelo de IA de Google cuenta una historia preocupante de una carrera hacia el fondo en la seguridad y la transparencia de la IA como las compañías apresuran sus modelos al mercado", dijo a TechCrunch.
Google ha declarado que, aunque no es detallado en sus informes técnicos, realiza pruebas de seguridad y "equipo rojo adversario" para los modelos antes de su lanzamiento.
Actualizado 4/22 a las 12:58 PM Pacífico: lenguaje modificado alrededor de la referencia del informe técnico al FSF de Google.











