OpenAI lanza GPT-4.1 sin informe de seguridad
El lanzamiento de GPT-4.1 de OpenAI sin informe de seguridad: por qué esto importa
El lunes, OpenAI presentó GPT-4.1, su último modelo de IA, que presume de un rendimiento mejorado, especialmente en pruebas de programación. Pero, a diferencia de lanzamientos anteriores, este vino con una omisión notable: sin informe de seguridad.
Normalmente, OpenAI publica una "tarjeta del sistema" que detalla evaluaciones de seguridad internas y de terceros, revelando riesgos potenciales como comportamiento engañoso o capacidades persuasivas no deseadas. Estos informes se consideran un esfuerzo de buena fe para fomentar la transparencia en el desarrollo de la IA.
Sin embargo, hasta el martes, OpenAI confirmó que no publicará uno para GPT-4.1. Según la portavoz Shaokyi Amdo, el modelo no se considera un sistema de IA "frontera", lo que significa que no empuja los límites lo suficiente como para justificar un desglose completo de seguridad.
¿Una tendencia hacia menos transparencia?
Este movimiento llega en medio de crecientes preocupaciones de que los principales laboratorios de IA están reduciendo las divulgaciones de seguridad. Durante el último año:
- Google ha retrasado la publicación de informes de seguridad.
- Anthropic y otros han publicado evaluaciones menos detalladas.
- La propia OpenAI ha enfrentado críticas por informes inconsistentes, incluyendo:
- Publicar un informe de seguridad de diciembre de 2023 con resultados de pruebas que no coincidían con el modelo de producción.
- Lanzar DeepSeek-V3 semanas antes de publicar su tarjeta del sistema.
Steven Adler, exinvestigador de seguridad de OpenAI, dijo a TechCrunch que, aunque estos informes son voluntarios, se han convertido en una herramienta clave de transparencia en la industria de la IA. OpenAI se ha comprometido previamente con gobiernos, incluido antes de la Cumbre de Seguridad de IA del Reino Unido de 2023, a que las tarjetas del sistema son esenciales para la rendición de cuentas.
¿Por qué la resistencia?
Los informes de seguridad a veces revelan verdades incómodas, como modelos que pueden manipular a los usuarios o generar contenido dañino. Pero con una competencia creciente, las empresas de IA podrían estar priorizando la velocidad sobre el escrutinio.
Informes recientes sugieren que OpenAI ha reducido los recursos para pruebas de seguridad, y la semana pasada, 12 ex empleados (incluido Adler) presentaron un escrito de amicus en la demanda de Elon Musk, advirtiendo que una OpenAI impulsada por las ganancias podría comprometer la seguridad.
¿Es GPT-4.1 arriesgado sin un informe?
Aunque GPT-4.1 no es el modelo más avanzado de OpenAI, mejora la eficiencia y reduce la latencia, factores que aún podrían introducir riesgos.
Thomas Woodside, cofundador del Secure AI Project, argumenta que cualquier aumento de rendimiento debería venir con documentación de seguridad. "Cuanto más sofisticado es el modelo, mayor es el riesgo", dijo a TechCrunch.
La mayor lucha por la regulación de la IA
Muchas empresas de IA, incluida OpenAI, han resistido las leyes obligatorias de seguridad. A principios de este año, OpenAI se opuso a la SB 1047 de California, que habría obligado a los desarrolladores de IA a publicar auditorías de seguridad para modelos públicos.
Por ahora, los estándares de transparencia de la industria siguen siendo autoimpuestos y, cada vez más, opcionales.
Evento de TechCrunch: Ahorra más de $200 en tu pase para todas las etapas
🚀 Construye de manera más inteligente. Escala más rápido. Conecta más profundamente.
Únete a visionarios de Precursor Ventures, NEA, Index Ventures, Underscore VC, y más para un día de estrategias, talleres y networking.
📍 Boston, MA | 15 de julio
🔗 REGÍSTRATE AHORA
A medida que la IA evoluciona, el debate sobre seguridad frente a velocidad se intensifica. Sin una rendición de cuentas más estricta, ¿quién decide qué riesgos vale la pena tomar?
Artículo relacionado
Inversión de Oracle de $40 mil millones en chips Nvidia impulsa el centro de datos de IA en Texas
Oracle planea invertir aproximadamente $40 mil millones en chips Nvidia para alimentar un importante centro de datos nuevo en Texas, desarrollado por OpenAI, según informó el Financial Times. Este acu
SoftBank Adquiere Fábrica de Sharp por $676M para Centro de Datos de IA en Japón
SoftBank avanza en su objetivo de establecer un gran centro de IA en Japón, tanto de forma independiente como a través de asociaciones como OpenAI. El gigante tecnológico confirmó el viernes que inver
Adobe y Figma Integran el Modelo Avanzado de Generación de Imágenes de OpenAI
La generación de imágenes mejorada de OpenAI en ChatGPT ha impulsado un aumento en los usuarios, impulsado por su capacidad para producir visuales al estilo Studio Ghibli y diseños únicos, y ahora se
comentario (0)
0/200
El lanzamiento de GPT-4.1 de OpenAI sin informe de seguridad: por qué esto importa
El lunes, OpenAI presentó GPT-4.1, su último modelo de IA, que presume de un rendimiento mejorado, especialmente en pruebas de programación. Pero, a diferencia de lanzamientos anteriores, este vino con una omisión notable: sin informe de seguridad.
Normalmente, OpenAI publica una "tarjeta del sistema" que detalla evaluaciones de seguridad internas y de terceros, revelando riesgos potenciales como comportamiento engañoso o capacidades persuasivas no deseadas. Estos informes se consideran un esfuerzo de buena fe para fomentar la transparencia en el desarrollo de la IA.
Sin embargo, hasta el martes, OpenAI confirmó que no publicará uno para GPT-4.1. Según la portavoz Shaokyi Amdo, el modelo no se considera un sistema de IA "frontera", lo que significa que no empuja los límites lo suficiente como para justificar un desglose completo de seguridad.
¿Una tendencia hacia menos transparencia?
Este movimiento llega en medio de crecientes preocupaciones de que los principales laboratorios de IA están reduciendo las divulgaciones de seguridad. Durante el último año:
- Google ha retrasado la publicación de informes de seguridad.
- Anthropic y otros han publicado evaluaciones menos detalladas.
- La propia OpenAI ha enfrentado críticas por informes inconsistentes, incluyendo:
- Publicar un informe de seguridad de diciembre de 2023 con resultados de pruebas que no coincidían con el modelo de producción.
- Lanzar DeepSeek-V3 semanas antes de publicar su tarjeta del sistema.
Steven Adler, exinvestigador de seguridad de OpenAI, dijo a TechCrunch que, aunque estos informes son voluntarios, se han convertido en una herramienta clave de transparencia en la industria de la IA. OpenAI se ha comprometido previamente con gobiernos, incluido antes de la Cumbre de Seguridad de IA del Reino Unido de 2023, a que las tarjetas del sistema son esenciales para la rendición de cuentas.
¿Por qué la resistencia?
Los informes de seguridad a veces revelan verdades incómodas, como modelos que pueden manipular a los usuarios o generar contenido dañino. Pero con una competencia creciente, las empresas de IA podrían estar priorizando la velocidad sobre el escrutinio.
Informes recientes sugieren que OpenAI ha reducido los recursos para pruebas de seguridad, y la semana pasada, 12 ex empleados (incluido Adler) presentaron un escrito de amicus en la demanda de Elon Musk, advirtiendo que una OpenAI impulsada por las ganancias podría comprometer la seguridad.
¿Es GPT-4.1 arriesgado sin un informe?
Aunque GPT-4.1 no es el modelo más avanzado de OpenAI, mejora la eficiencia y reduce la latencia, factores que aún podrían introducir riesgos.
Thomas Woodside, cofundador del Secure AI Project, argumenta que cualquier aumento de rendimiento debería venir con documentación de seguridad. "Cuanto más sofisticado es el modelo, mayor es el riesgo", dijo a TechCrunch.
La mayor lucha por la regulación de la IA
Muchas empresas de IA, incluida OpenAI, han resistido las leyes obligatorias de seguridad. A principios de este año, OpenAI se opuso a la SB 1047 de California, que habría obligado a los desarrolladores de IA a publicar auditorías de seguridad para modelos públicos.
Por ahora, los estándares de transparencia de la industria siguen siendo autoimpuestos y, cada vez más, opcionales.
Evento de TechCrunch: Ahorra más de $200 en tu pase para todas las etapas
🚀 Construye de manera más inteligente. Escala más rápido. Conecta más profundamente.
Únete a visionarios de Precursor Ventures, NEA, Index Ventures, Underscore VC, y más para un día de estrategias, talleres y networking.
📍 Boston, MA | 15 de julio
🔗 REGÍSTRATE AHORA
A medida que la IA evoluciona, el debate sobre seguridad frente a velocidad se intensifica. Sin una rendición de cuentas más estricta, ¿quién decide qué riesgos vale la pena tomar?










