opción
Hogar
Noticias
El último informe del modelo de inteligencia artificial de Google carece de detalles clave de seguridad, dicen los expertos

El último informe del modelo de inteligencia artificial de Google carece de detalles clave de seguridad, dicen los expertos

28 de abril de 2025
87

El jueves, semanas después de lanzar su modelo de IA más reciente y avanzado, Gemini 2.5 Pro, Google publicó un informe técnico detallando los resultados de sus evaluaciones internas de seguridad. Sin embargo, expertos han criticado el informe por su falta de detalles, lo que dificulta comprender completamente los riesgos potenciales asociados con el modelo.

Los informes técnicos son cruciales en el mundo de la IA, ofreciendo perspectivas—aunque a veces poco halagadoras—que las empresas normalmente no comparten públicamente. Estos informes son generalmente vistos por la comunidad de IA como esfuerzos genuinos para fomentar la investigación independiente y mejorar las evaluaciones de seguridad.

El enfoque de Google para los informes de seguridad difiere del de algunos competidores. La empresa solo publica informes técnicos una vez que un modelo supera la fase "experimental". Además, Google omite ciertos resultados de evaluaciones de "capacidades peligrosas" en estos informes, reservándolos para una auditoría separada.

A pesar de esto, varios expertos expresaron su decepción con el informe de Gemini 2.5 Pro a TechCrunch, señalando su escasa cobertura del Marco de Seguridad Frontier (FSF) propuesto por Google. Google presentó el FSF el año pasado, con el objetivo de identificar capacidades futuras de IA que podrían causar "daños graves".

"Este informe es muy escaso, contiene información mínima y se publicó semanas después de que el modelo ya estuviera disponible públicamente," dijo Peter Wildeford, cofundador del Instituto para la Política y Estrategia de IA, a TechCrunch. "Es imposible verificar si Google cumple con sus compromisos públicos y, por lo tanto, imposible evaluar la seguridad de sus modelos."

Thomas Woodside, cofundador del Proyecto Secure AI, reconoció la publicación del informe para Gemini 2.5 Pro, pero cuestionó la dedicación de Google para proporcionar evaluaciones de seguridad complementarias oportunas. Notó que Google publicó por última vez resultados de pruebas de capacidades peligrosas en junio de 2024, para un modelo anunciado en febrero de ese año.

Aumentando las preocupaciones, Google aún no ha publicado un informe para Gemini 2.5 Flash, un modelo más pequeño y eficiente anunciado la semana pasada. Un portavoz informó a TechCrunch que un informe para Flash "está por venir pronto".

"Espero que esto sea una promesa de Google para comenzar a publicar actualizaciones más frecuentes," dijo Woodside a TechCrunch. "Esas actualizaciones deberían incluir los resultados de evaluaciones para modelos que aún no se han implementado públicamente, ya que esos modelos también podrían representar riesgos serios."

Aunque Google estuvo entre los primeros laboratorios de IA en proponer informes estandarizados para modelos, no es el único en enfrentar críticas por falta de transparencia. Meta publicó una evaluación de seguridad igualmente breve para sus nuevos modelos abiertos Llama 4, y OpenAI optó por no publicar ningún informe para su serie GPT-4.1.

Las garantías de Google a los reguladores sobre mantener altos estándares en pruebas y reportes de seguridad de IA añaden presión a la situación. Hace dos años, Google prometió al gobierno de EE. UU. publicar informes de seguridad para todos los modelos de IA públicos "significativos" dentro del alcance, seguido de compromisos similares con otros países, prometiendo "transparencia pública" en torno a los productos de IA.

Kevin Bankston, asesor senior en gobernanza de IA en el Centro para la Democracia y la Tecnología, describió la tendencia de informes esporádicos y vagos como una "carrera hacia el fondo" en seguridad de IA.

"Combinado con informes de que laboratorios competidores como OpenAI han reducido su tiempo de pruebas de seguridad antes del lanzamiento de meses a días, esta escasa documentación para el modelo de IA principal de Google cuenta una historia preocupante de una carrera hacia el fondo en seguridad y transparencia de IA mientras las empresas apresuran sus modelos al mercado," dijo a TechCrunch.

Google ha declarado que, aunque no se detalla en sus informes técnicos, realiza pruebas de seguridad y "equipos rojos adversarios" para los modelos antes de su lanzamiento.

Actualizado el 22/4 a las 12:58 p.m. Pacífico: Modificado el lenguaje en torno a la referencia del informe técnico al FSF de Google.

Artículo relacionado
Google Presenta Modelos de IA Gemini 2.5 Listos para Producción para Competir con OpenAI en el Mercado Empresarial Google Presenta Modelos de IA Gemini 2.5 Listos para Producción para Competir con OpenAI en el Mercado Empresarial Google intensificó su estrategia de IA el lunes, lanzando sus avanzados modelos Gemini 2.5 para uso empresarial e introduciendo una variante rentable para competir en precio y rendimiento.La empresa p
Google Presenta la Herramienta Simplificar Impulsada por IA para una Lectura Web Más Fácil Google Presenta la Herramienta Simplificar Impulsada por IA para una Lectura Web Más Fácil La aplicación de iOS de Google ahora incluye una función “Simplificar”, que utiliza IA para transformar textos web complejos en contenido claro y comprensible sin salir de la página.La herramienta Sim
Chatbot Gemini Mejora las Capacidades de Edición de Imágenes Chatbot Gemini Mejora las Capacidades de Edición de Imágenes La aplicación de chatbot Gemini de Google ahora permite a los usuarios editar imágenes generadas por IA y cargadas desde teléfonos o computadoras, anunció la compañía en una publicación de blog el mié
comentario (6)
0/200
MarkSanchez
MarkSanchez 1 de agosto de 2025 15:47:34 GMT+02:00

Google's AI safety report sounds like a half-baked cake – looks good but lacks substance. 😕 Why skimp on the details? Transparency matters when stakes are this high.

WalterKing
WalterKing 29 de abril de 2025 17:19:22 GMT+02:00

Der Bericht von Google über Gemini 2.5 Pro ist ein bisschen enttäuschend. Ich hatte mehr Details zu den Sicherheitsbewertungen erwartet, aber es scheint, als würden sie Informationen zurückhalten. Ohne die ganze Geschichte ist es schwer, der KI vollständig zu vertrauen. Vielleicht beim nächsten Mal, Google? 🤔

CharlesThomas
CharlesThomas 29 de abril de 2025 03:17:55 GMT+02:00

ジェミニ2.5プロのレポート、ちょっとがっかりですね。安全評価の詳細をもっと知りたかったのに、情報が少なすぎる。AIを完全に信頼するのは難しいです。次回はもっと詳しくお願いします!😅

AlbertWalker
AlbertWalker 29 de abril de 2025 01:15:07 GMT+02:00

Google's report on Gemini 2.5 Pro is a bit of a letdown. I was expecting more juicy details about the safety assessments, but it feels like they're holding back. It's hard to trust the AI fully without knowing the full story. Maybe next time, Google? 🤔

JimmyGarcia
JimmyGarcia 28 de abril de 2025 22:01:42 GMT+02:00

O relatório do Google sobre o Gemini 2.5 Pro é um pouco decepcionante. Esperava mais detalhes sobre as avaliações de segurança, mas parece que eles estão escondendo algo. É difícil confiar totalmente na IA sem saber toda a história. Talvez na próxima, Google? 🤔

BillyThomas
BillyThomas 28 de abril de 2025 01:41:33 GMT+02:00

El informe de Google sobre Gemini 2.5 Pro es decepcionante. Esperaba más detalles sobre las evaluaciones de seguridad, pero parece que están ocultando información. Es difícil confiar en la IA sin conocer toda la historia. ¿Tal vez la próxima vez, Google? 🤔

Volver arriba
OR