Google acelera los envíos del modelo Gemini en medio de retrasos en el informe de seguridad de IA

Más de dos años después de ser sorprendido por ChatGPT de OpenAI, Google ha intensificado significativamente su juego. A finales de marzo, lanzaron Gemini 2.5 Pro, un modelo de razonamiento de AI que lidera los benchmarks en codificación y matemáticas. Y solo tres meses antes, presentaron Gemini 2.0 Flash, que en su momento era de primera categoría. Tulsee Doshi, directora de Google y jefa de producto para Gemini, le dijo a TechCrunch que este calendario de lanzamientos acelerados es parte de su estrategia para mantenerse al ritmo del mundo de la AI que avanza rápidamente.
"Todavía estamos descubriendo la mejor manera de lanzar estos modelos y obtener retroalimentación", explicó Doshi. Pero este lanzamiento más rápido parece tener un inconveniente. Google no ha publicado informes de seguridad para sus últimos modelos, como Gemini 2.5 Pro y Gemini 2.0 Flash, lo que ha generado preocupación de que estén apresurando las cosas sin ser lo suficientemente transparentes.
Hoy en día, es bastante común que los grandes laboratorios de AI, como OpenAI, Anthropic y Meta, compartan pruebas de seguridad, verificaciones de rendimiento y casos de uso cuando lanzan un nuevo modelo. Estos informes, a veces llamados "tarjetas de sistema" o "tarjetas de modelo", fueron sugeridos hace años por investigadores tanto de la industria como de la academia. De hecho, Google fue uno de los primeros en proponer tarjetas de modelo en un artículo de 2019, diciendo que son clave para prácticas de aprendizaje automático responsables y transparentes.
Doshi mencionó a TechCrunch que aún no han publicado una tarjeta de modelo para Gemini 2.5 Pro porque lo están tratando como un lanzamiento "experimental". La idea es lanzarlo de manera limitada, recopilar retroalimentación y mejorarlo antes de un lanzamiento completo. Dijo que Google planea publicar la tarjeta de modelo de Gemini 2.5 Pro cuando esté ampliamente disponible, y ya han realizado algunas pruebas de seguridad y equipos rojos adversarios.
Un portavoz de Google continuó diciendo que la seguridad sigue siendo una "máxima prioridad" y que pronto publicarán más documentos sobre sus modelos de AI, incluyendo Gemini 2.0 Flash. Aunque Gemini 2.0 Flash está disponible para todos, aún le falta su tarjeta de modelo. La tarjeta de modelo más reciente que Google publicó fue para Gemini 1.5 Pro hace más de un año.
Las tarjetas de sistema y de modelo proporcionan información útil, a veces cosas que las empresas podrían no querer destacar. Por ejemplo, la tarjeta de sistema de OpenAI para su modelo o1 mostró que tenía una tendencia a "conspirar" contra los humanos y perseguir secretamente sus propios objetivos. La comunidad de AI generalmente ve estos informes como una forma de apoyar la investigación independiente y las verificaciones de seguridad, pero se han vuelto aún más importantes últimamente. Como señaló Transformer, Google prometió al gobierno de EE. UU. en 2023 publicar informes de seguridad para todos los lanzamientos de modelos de AI públicos "significativos" dentro del ámbito. Hicieron promesas similares a otros gobiernos sobre ser transparentes.
Ha habido esfuerzos a nivel federal y estatal en EE. UU. para establecer estándares de informes de seguridad para los desarrolladores de AI, pero no han prosperado realmente. Un gran intento fue el proyecto de ley SB 1047 de California, que fue vetado y enfrentó una fuerte oposición de la industria tecnológica. También ha habido discusiones sobre legislación para permitir que el Instituto de Seguridad de AI de EE. UU. establezca directrices para los lanzamientos de modelos, pero ahora el Instituto podría enfrentar recortes presupuestarios bajo la administración de Trump.
Parece que Google está quedando atrás en algunas de sus promesas de informar sobre las pruebas de modelos mientras lanza modelos más rápido que nunca. Muchos expertos piensan que esto establece un mal ejemplo, especialmente a medida que estos modelos se vuelven más avanzados y poderosos.
Artículo relacionado
Google relanza "Ask Photos" con IA y funciones de velocidad mejoradas
Tras una interrupción temporal de las pruebas, Google relanza su función de búsqueda "Ask Photos" basada en IA en Google Fotos con importantes mejoras. Gracias a la tecnología Gemini AI de Google, est
Presentación de Google AI Ultra: Suscripción Premium a 249,99 $ al mes
Google presenta la suscripción Premium AI UltraEn Google I/O 2025, el gigante tecnológico anunció su nuevo servicio integral de suscripción a IA: Google AI Ultra. Con un precio mensual de 249,99 $, es
Un estudio de Microsoft revela que más tokens de IA aumentan los errores de razonamiento
Nuevos conocimientos sobre la eficacia del razonamiento LLMUna nueva investigación de Microsoft demuestra que las técnicas avanzadas de razonamiento de los grandes modelos lingüísticos no producen mej
comentario (62)
0/200
RoyLopez
3 de octubre de 2025 04:30:38 GMT+02:00
Google이 Gemini 모델 배포를 서두르는 모습이 좀 우습네요. OpenAI한테 뒤쳐지지 않으려고 안간힘을 쓰는 거 같은데...AI 안전성 보고서는 뒤로 미루고 성능 경쟁만 하는 건 아닌지 걱정이 됩니다 😅
0
AlbertJones
26 de agosto de 2025 07:59:22 GMT+02:00
Google's pushing hard with Gemini, huh? That 2.5 Pro sounds like a beast for coding and math! 😎 Wonder how it stacks up against ChatGPT in real-world tasks.
0
FredJones
24 de abril de 2025 15:49:30 GMT+02:00
गूगल के जेमिनी मॉडल वास्तव में सीमाओं को बढ़ा रहे हैं! जेमिनी 2.5 प्रो कोडिंग और गणित के लिए बहुत अच्छा है, लेकिन सुरक्षा रिपोर्ट में देरी थोड़ी चिंताजनक है। फिर भी, आगे क्या होगा देखने के लिए उत्सुक हूँ! 🤓
0
BrianWalker
24 de abril de 2025 12:04:20 GMT+02:00
GoogleのGeminiモデルは素晴らしいですが、安全性レポートの遅れが少し心配です。コーディングや数学のベンチマークは最高ですが、安全性についてもっと透明性が欲しいです。それでも、開発者にとっては強力なツールです。Google、限界を超え続けてください!💪
0
AnthonyHernández
22 de abril de 2025 10:56:18 GMT+02:00
구글의 Gemini 2.5 Pro는 인상적이야, 특히 코딩과 수학에서. 하지만 안전성 보고서 지연은 좀 실망스럽네. 복잡한 문제를 다룰 모델이 필요하면, 이거야! 💻
0
JackCarter
21 de abril de 2025 16:52:23 GMT+02:00
Google's Gemini 2.5 Pro is impressive, especially with coding and math. But man, the safety report delays are a bit of a buzzkill. Still, if you need a model that can handle complex problems, this is it! 💻
0
Más de dos años después de ser sorprendido por ChatGPT de OpenAI, Google ha intensificado significativamente su juego. A finales de marzo, lanzaron Gemini 2.5 Pro, un modelo de razonamiento de AI que lidera los benchmarks en codificación y matemáticas. Y solo tres meses antes, presentaron Gemini 2.0 Flash, que en su momento era de primera categoría. Tulsee Doshi, directora de Google y jefa de producto para Gemini, le dijo a TechCrunch que este calendario de lanzamientos acelerados es parte de su estrategia para mantenerse al ritmo del mundo de la AI que avanza rápidamente.
"Todavía estamos descubriendo la mejor manera de lanzar estos modelos y obtener retroalimentación", explicó Doshi. Pero este lanzamiento más rápido parece tener un inconveniente. Google no ha publicado informes de seguridad para sus últimos modelos, como Gemini 2.5 Pro y Gemini 2.0 Flash, lo que ha generado preocupación de que estén apresurando las cosas sin ser lo suficientemente transparentes.
Hoy en día, es bastante común que los grandes laboratorios de AI, como OpenAI, Anthropic y Meta, compartan pruebas de seguridad, verificaciones de rendimiento y casos de uso cuando lanzan un nuevo modelo. Estos informes, a veces llamados "tarjetas de sistema" o "tarjetas de modelo", fueron sugeridos hace años por investigadores tanto de la industria como de la academia. De hecho, Google fue uno de los primeros en proponer tarjetas de modelo en un artículo de 2019, diciendo que son clave para prácticas de aprendizaje automático responsables y transparentes.
Doshi mencionó a TechCrunch que aún no han publicado una tarjeta de modelo para Gemini 2.5 Pro porque lo están tratando como un lanzamiento "experimental". La idea es lanzarlo de manera limitada, recopilar retroalimentación y mejorarlo antes de un lanzamiento completo. Dijo que Google planea publicar la tarjeta de modelo de Gemini 2.5 Pro cuando esté ampliamente disponible, y ya han realizado algunas pruebas de seguridad y equipos rojos adversarios.
Un portavoz de Google continuó diciendo que la seguridad sigue siendo una "máxima prioridad" y que pronto publicarán más documentos sobre sus modelos de AI, incluyendo Gemini 2.0 Flash. Aunque Gemini 2.0 Flash está disponible para todos, aún le falta su tarjeta de modelo. La tarjeta de modelo más reciente que Google publicó fue para Gemini 1.5 Pro hace más de un año.
Las tarjetas de sistema y de modelo proporcionan información útil, a veces cosas que las empresas podrían no querer destacar. Por ejemplo, la tarjeta de sistema de OpenAI para su modelo o1 mostró que tenía una tendencia a "conspirar" contra los humanos y perseguir secretamente sus propios objetivos. La comunidad de AI generalmente ve estos informes como una forma de apoyar la investigación independiente y las verificaciones de seguridad, pero se han vuelto aún más importantes últimamente. Como señaló Transformer, Google prometió al gobierno de EE. UU. en 2023 publicar informes de seguridad para todos los lanzamientos de modelos de AI públicos "significativos" dentro del ámbito. Hicieron promesas similares a otros gobiernos sobre ser transparentes.
Ha habido esfuerzos a nivel federal y estatal en EE. UU. para establecer estándares de informes de seguridad para los desarrolladores de AI, pero no han prosperado realmente. Un gran intento fue el proyecto de ley SB 1047 de California, que fue vetado y enfrentó una fuerte oposición de la industria tecnológica. También ha habido discusiones sobre legislación para permitir que el Instituto de Seguridad de AI de EE. UU. establezca directrices para los lanzamientos de modelos, pero ahora el Instituto podría enfrentar recortes presupuestarios bajo la administración de Trump.
Parece que Google está quedando atrás en algunas de sus promesas de informar sobre las pruebas de modelos mientras lanza modelos más rápido que nunca. Muchos expertos piensan que esto establece un mal ejemplo, especialmente a medida que estos modelos se vuelven más avanzados y poderosos.




Google이 Gemini 모델 배포를 서두르는 모습이 좀 우습네요. OpenAI한테 뒤쳐지지 않으려고 안간힘을 쓰는 거 같은데...AI 안전성 보고서는 뒤로 미루고 성능 경쟁만 하는 건 아닌지 걱정이 됩니다 😅




Google's pushing hard with Gemini, huh? That 2.5 Pro sounds like a beast for coding and math! 😎 Wonder how it stacks up against ChatGPT in real-world tasks.




गूगल के जेमिनी मॉडल वास्तव में सीमाओं को बढ़ा रहे हैं! जेमिनी 2.5 प्रो कोडिंग और गणित के लिए बहुत अच्छा है, लेकिन सुरक्षा रिपोर्ट में देरी थोड़ी चिंताजनक है। फिर भी, आगे क्या होगा देखने के लिए उत्सुक हूँ! 🤓




GoogleのGeminiモデルは素晴らしいですが、安全性レポートの遅れが少し心配です。コーディングや数学のベンチマークは最高ですが、安全性についてもっと透明性が欲しいです。それでも、開発者にとっては強力なツールです。Google、限界を超え続けてください!💪




구글의 Gemini 2.5 Pro는 인상적이야, 특히 코딩과 수학에서. 하지만 안전성 보고서 지연은 좀 실망스럽네. 복잡한 문제를 다룰 모델이 필요하면, 이거야! 💻




Google's Gemini 2.5 Pro is impressive, especially with coding and math. But man, the safety report delays are a bit of a buzzkill. Still, if you need a model that can handle complex problems, this is it! 💻












