opción
Hogar
Noticias
El último informe del modelo de inteligencia artificial de Google carece de detalles clave de seguridad, dicen los expertos

El último informe del modelo de inteligencia artificial de Google carece de detalles clave de seguridad, dicen los expertos

28 de abril de 2025
58

El jueves, semanas después de lanzar su último y más avanzado modelo de IA, Gemini 2.5 Pro, Google publicó un informe técnico que detalla los resultados de sus evaluaciones de seguridad internas. Sin embargo, los expertos han criticado el informe por su falta de detalles, lo que hace que sea difícil comprender completamente los riesgos potenciales asociados con el modelo.

Los informes técnicos son cruciales en el mundo de la IA, que ofrecen ideas, incluso si a veces no son halagadoras, que las empresas pueden no compartir públicamente. La comunidad de IA generalmente considera que estos informes son vistos como esfuerzos genuinos para fomentar la investigación independiente y mejorar las evaluaciones de seguridad.

El enfoque de Google para los informes de seguridad difiere de algunos de sus competidores. La compañía solo publica informes técnicos una vez que un modelo va más allá de la fase "experimental". Además, Google omite ciertos resultados de evaluación de "capacidad peligrosa" de estos informes, guardándolos para una auditoría separada.

A pesar de esto, varios expertos expresaron su decepción con el informe Gemini 2.5 Pro a TechCrunch, señalando su escasa cobertura del Marco de Seguridad Frontier (FSF) propuesto por Google. Google dio a conocer el FSF el año pasado, con el objetivo de identificar las capacidades futuras de IA que podrían conducir a un "daño severo".

"Este informe es muy escaso, contiene información mínima y se publicó semanas después de que el modelo ya se hizo público", dijo a TechCrunch Peter Wildeford, cofundador del Instituto de Política y Estrategia de AI. "Es imposible verificar si Google está a la altura de sus compromisos públicos y, por lo tanto, imposible evaluar la seguridad de sus modelos".

Thomas Woodside, cofundador del proyecto Secure AI, reconoció la publicación del informe de Gemini 2.5 Pro, pero cuestionó la dedicación de Google para proporcionar evaluaciones de seguridad complementarias oportunas. Señaló que Google publicó por última vez los resultados de la prueba de capacidad peligrosa en junio de 2024, para un modelo anunciado en febrero de ese año.

Además de las preocupaciones, Google aún no ha publicado un informe para Gemini 2.5 Flash, un modelo más pequeño y más eficiente anunciado la semana pasada. Un portavoz informó a TechCrunch que un informe para Flash "próximamente".

"Espero que esta sea una promesa de Google para comenzar a publicar actualizaciones más frecuentes", dijo Woodside a TechCrunch. "Esas actualizaciones deben incluir los resultados de las evaluaciones para modelos que aún no se han implementado públicamente, ya que esos modelos también podrían plantear riesgos graves".

Si bien Google fue uno de los primeros laboratorios de IA en proponer informes estandarizados para los modelos, no está solo para enfrentar críticas por falta de transparencia. Meta publicó una evaluación de seguridad similarmente breve para sus nuevos modelos abiertos de Llama 4, y OpenAI decidió no publicar ningún informe para su serie GPT-4.1.

Las garantías de Google a los reguladores sobre el mantenimiento de altos estándares en las pruebas de seguridad de IA e informes agregan presión a la situación. Hace dos años, Google prometió al gobierno de los Estados Unidos que publique informes de seguridad para todos los "modelos de IA públicos significativos" dentro del alcance ", seguido de compromisos similares con otros países, prometiendo" transparencia pública "en torno a los productos de IA.

Kevin Bankston, asesor principal del gobierno de IA en el Centro de Democracia y Tecnología, describió la tendencia de los informes esporádicos y vagos como una "carrera hacia el fondo" sobre la seguridad de la IA.

"Combinado con informes de que los laboratorios competidores como OpenAI han reducido su tiempo de prueba de seguridad antes de su lanzamiento de meses a días, esta escasa documentación para el mejor modelo de IA de Google cuenta una historia preocupante de una carrera hacia el fondo en la seguridad y la transparencia de la IA como las compañías apresuran sus modelos al mercado", dijo a TechCrunch.

Google ha declarado que, aunque no es detallado en sus informes técnicos, realiza pruebas de seguridad y "equipo rojo adversario" para los modelos antes de su lanzamiento.

Actualizado 4/22 a las 12:58 PM Pacífico: lenguaje modificado alrededor de la referencia del informe técnico al FSF de Google.

Artículo relacionado
Imagen 4:谷歌最新AI圖像生成器 Imagen 4:谷歌最新AI圖像生成器 Google近日發表最新圖像生成AI模型「Imagen 4」,宣稱將為用戶帶來比前代Imagen 3更出色的視覺體驗。本週稍早在Google I/O 2025大會亮相的這款新模型,被譽為在畫質與多樣性方面取得重大突破。Google表示,Imagen 4特別擅長處理織物質感、水珠反光與動物毛髮等精細紋理,同時能輕鬆駕馭寫實與抽象風格。其輸出解析度最高可達2K,
谷歌Gemini代碼助手強化AI編程代理功能 谷歌Gemini代碼助手強化AI編程代理功能 Google旗下AI程式開發助手Gemini Code Assist近期推出全新「代理模式」功能,目前開放預覽體驗。在最新Cloud Next大會上,Google展示這些AI代理如何突破性處理複雜編程任務——從Google文件規格書直接生成完整應用程式,或輕鬆實現跨語言程式碼轉換。更令人驚豔的是,開發者現可在Android Studio等整合開發環境中直接啟
谷歌的人工智慧未來基金可能需要謹慎行事 谷歌的人工智慧未來基金可能需要謹慎行事 Google 的新 AI 投資計劃:監管審查下的戰略轉變Google 最近宣布設立 AI 未來基金(AI Futures Fund),這標誌著這家科技巨頭在其塑造人工智慧未來的征程中邁出了大膽的一步。該計劃旨在為初創公司提供急需的資金、早期接觸仍在開發中的尖端人工智慧模型,以及來自 Google 內部專家的指導。儘管這不是 Google 第一次涉足初創企業生
comentario (5)
0/200
AlbertWalker
AlbertWalker 29 de abril de 2025 00:00:00 GMT

Google's report on Gemini 2.5 Pro is a bit of a letdown. I was expecting more juicy details about the safety assessments, but it feels like they're holding back. It's hard to trust the AI fully without knowing the full story. Maybe next time, Google? 🤔

CharlesThomas
CharlesThomas 29 de abril de 2025 00:00:00 GMT

ジェミニ2.5プロのレポート、ちょっとがっかりですね。安全評価の詳細をもっと知りたかったのに、情報が少なすぎる。AIを完全に信頼するのは難しいです。次回はもっと詳しくお願いします!😅

BillyThomas
BillyThomas 28 de abril de 2025 00:00:00 GMT

El informe de Google sobre Gemini 2.5 Pro es decepcionante. Esperaba más detalles sobre las evaluaciones de seguridad, pero parece que están ocultando información. Es difícil confiar en la IA sin conocer toda la historia. ¿Tal vez la próxima vez, Google? 🤔

JimmyGarcia
JimmyGarcia 29 de abril de 2025 00:00:00 GMT

O relatório do Google sobre o Gemini 2.5 Pro é um pouco decepcionante. Esperava mais detalhes sobre as avaliações de segurança, mas parece que eles estão escondendo algo. É difícil confiar totalmente na IA sem saber toda a história. Talvez na próxima, Google? 🤔

WalterKing
WalterKing 29 de abril de 2025 00:00:00 GMT

Der Bericht von Google über Gemini 2.5 Pro ist ein bisschen enttäuschend. Ich hatte mehr Details zu den Sicherheitsbewertungen erwartet, aber es scheint, als würden sie Informationen zurückhalten. Ohne die ganze Geschichte ist es schwer, der KI vollständig zu vertrauen. Vielleicht beim nächsten Mal, Google? 🤔

Volver arriba
OR