OpenAI lanza GPT-4.1 sin informe de seguridad
El lanzamiento de GPT-4.1 de OpenAI sin informe de seguridad: por qué esto importa
El lunes, OpenAI presentó GPT-4.1, su último modelo de IA, que presume de un rendimiento mejorado, especialmente en pruebas de programación. Pero, a diferencia de lanzamientos anteriores, este vino con una omisión notable: sin informe de seguridad.
Normalmente, OpenAI publica una "tarjeta del sistema" que detalla evaluaciones de seguridad internas y de terceros, revelando riesgos potenciales como comportamiento engañoso o capacidades persuasivas no deseadas. Estos informes se consideran un esfuerzo de buena fe para fomentar la transparencia en el desarrollo de la IA.
Sin embargo, hasta el martes, OpenAI confirmó que no publicará uno para GPT-4.1. Según la portavoz Shaokyi Amdo, el modelo no se considera un sistema de IA "frontera", lo que significa que no empuja los límites lo suficiente como para justificar un desglose completo de seguridad.
¿Una tendencia hacia menos transparencia?
Este movimiento llega en medio de crecientes preocupaciones de que los principales laboratorios de IA están reduciendo las divulgaciones de seguridad. Durante el último año:
- Google ha retrasado la publicación de informes de seguridad.
- Anthropic y otros han publicado evaluaciones menos detalladas.
- La propia OpenAI ha enfrentado críticas por informes inconsistentes, incluyendo:
- Publicar un informe de seguridad de diciembre de 2023 con resultados de pruebas que no coincidían con el modelo de producción.
- Lanzar DeepSeek-V3 semanas antes de publicar su tarjeta del sistema.
Steven Adler, exinvestigador de seguridad de OpenAI, dijo a TechCrunch que, aunque estos informes son voluntarios, se han convertido en una herramienta clave de transparencia en la industria de la IA. OpenAI se ha comprometido previamente con gobiernos, incluido antes de la Cumbre de Seguridad de IA del Reino Unido de 2023, a que las tarjetas del sistema son esenciales para la rendición de cuentas.
¿Por qué la resistencia?
Los informes de seguridad a veces revelan verdades incómodas, como modelos que pueden manipular a los usuarios o generar contenido dañino. Pero con una competencia creciente, las empresas de IA podrían estar priorizando la velocidad sobre el escrutinio.
Informes recientes sugieren que OpenAI ha reducido los recursos para pruebas de seguridad, y la semana pasada, 12 ex empleados (incluido Adler) presentaron un escrito de amicus en la demanda de Elon Musk, advirtiendo que una OpenAI impulsada por las ganancias podría comprometer la seguridad.
¿Es GPT-4.1 arriesgado sin un informe?
Aunque GPT-4.1 no es el modelo más avanzado de OpenAI, mejora la eficiencia y reduce la latencia, factores que aún podrían introducir riesgos.
Thomas Woodside, cofundador del Secure AI Project, argumenta que cualquier aumento de rendimiento debería venir con documentación de seguridad. "Cuanto más sofisticado es el modelo, mayor es el riesgo", dijo a TechCrunch.
La mayor lucha por la regulación de la IA
Muchas empresas de IA, incluida OpenAI, han resistido las leyes obligatorias de seguridad. A principios de este año, OpenAI se opuso a la SB 1047 de California, que habría obligado a los desarrolladores de IA a publicar auditorías de seguridad para modelos públicos.
Por ahora, los estándares de transparencia de la industria siguen siendo autoimpuestos y, cada vez más, opcionales.
Evento de TechCrunch: Ahorra más de $200 en tu pase para todas las etapas
🚀 Construye de manera más inteligente. Escala más rápido. Conecta más profundamente.
Únete a visionarios de Precursor Ventures, NEA, Index Ventures, Underscore VC, y más para un día de estrategias, talleres y networking.
📍 Boston, MA | 15 de julio
🔗 REGÍSTRATE AHORA
A medida que la IA evoluciona, el debate sobre seguridad frente a velocidad se intensifica. Sin una rendición de cuentas más estricta, ¿quién decide qué riesgos vale la pena tomar?
Artículo relacionado
Former OpenAI Employees File Brief Against Company’s For-Profit Shift
Former OpenAI Employees Back Elon Musk in Lawsuit Against OpenAI’s Shift to For-Profit ModelA group of former OpenAI employees has filed an amicus brief in support of Elon Musk’s lawsuit against OpenAI, challenging the company’s planned transition from a nonprofit to a for-profit corporation. The b
OpenAI Enhances AI Model Behind Its Operator Agent
OpenAI Takes Operator to the Next LevelOpenAI is giving its autonomous AI agent, Operator, a major upgrade. The upcoming changes mean Operator will soon rely on a model based on o3
OpenAI’s o3 AI model scores lower on a benchmark than the company initially implied
Why Benchmark Discrepancies Matter in AIWhen it comes to AI, numbers often tell the story—and sometimes, those numbers don’t quite add up. Take OpenAI’s o3 model, for instance. The
comentario (0)
0/200
El lanzamiento de GPT-4.1 de OpenAI sin informe de seguridad: por qué esto importa
El lunes, OpenAI presentó GPT-4.1, su último modelo de IA, que presume de un rendimiento mejorado, especialmente en pruebas de programación. Pero, a diferencia de lanzamientos anteriores, este vino con una omisión notable: sin informe de seguridad.
Normalmente, OpenAI publica una "tarjeta del sistema" que detalla evaluaciones de seguridad internas y de terceros, revelando riesgos potenciales como comportamiento engañoso o capacidades persuasivas no deseadas. Estos informes se consideran un esfuerzo de buena fe para fomentar la transparencia en el desarrollo de la IA.
Sin embargo, hasta el martes, OpenAI confirmó que no publicará uno para GPT-4.1. Según la portavoz Shaokyi Amdo, el modelo no se considera un sistema de IA "frontera", lo que significa que no empuja los límites lo suficiente como para justificar un desglose completo de seguridad.
¿Una tendencia hacia menos transparencia?
Este movimiento llega en medio de crecientes preocupaciones de que los principales laboratorios de IA están reduciendo las divulgaciones de seguridad. Durante el último año:
- Google ha retrasado la publicación de informes de seguridad.
- Anthropic y otros han publicado evaluaciones menos detalladas.
- La propia OpenAI ha enfrentado críticas por informes inconsistentes, incluyendo:
- Publicar un informe de seguridad de diciembre de 2023 con resultados de pruebas que no coincidían con el modelo de producción.
- Lanzar DeepSeek-V3 semanas antes de publicar su tarjeta del sistema.
Steven Adler, exinvestigador de seguridad de OpenAI, dijo a TechCrunch que, aunque estos informes son voluntarios, se han convertido en una herramienta clave de transparencia en la industria de la IA. OpenAI se ha comprometido previamente con gobiernos, incluido antes de la Cumbre de Seguridad de IA del Reino Unido de 2023, a que las tarjetas del sistema son esenciales para la rendición de cuentas.
¿Por qué la resistencia?
Los informes de seguridad a veces revelan verdades incómodas, como modelos que pueden manipular a los usuarios o generar contenido dañino. Pero con una competencia creciente, las empresas de IA podrían estar priorizando la velocidad sobre el escrutinio.
Informes recientes sugieren que OpenAI ha reducido los recursos para pruebas de seguridad, y la semana pasada, 12 ex empleados (incluido Adler) presentaron un escrito de amicus en la demanda de Elon Musk, advirtiendo que una OpenAI impulsada por las ganancias podría comprometer la seguridad.
¿Es GPT-4.1 arriesgado sin un informe?
Aunque GPT-4.1 no es el modelo más avanzado de OpenAI, mejora la eficiencia y reduce la latencia, factores que aún podrían introducir riesgos.
Thomas Woodside, cofundador del Secure AI Project, argumenta que cualquier aumento de rendimiento debería venir con documentación de seguridad. "Cuanto más sofisticado es el modelo, mayor es el riesgo", dijo a TechCrunch.
La mayor lucha por la regulación de la IA
Muchas empresas de IA, incluida OpenAI, han resistido las leyes obligatorias de seguridad. A principios de este año, OpenAI se opuso a la SB 1047 de California, que habría obligado a los desarrolladores de IA a publicar auditorías de seguridad para modelos públicos.
Por ahora, los estándares de transparencia de la industria siguen siendo autoimpuestos y, cada vez más, opcionales.
Evento de TechCrunch: Ahorra más de $200 en tu pase para todas las etapas
🚀 Construye de manera más inteligente. Escala más rápido. Conecta más profundamente.
Únete a visionarios de Precursor Ventures, NEA, Index Ventures, Underscore VC, y más para un día de estrategias, talleres y networking.
📍 Boston, MA | 15 de julio
🔗 REGÍSTRATE AHORA
A medida que la IA evoluciona, el debate sobre seguridad frente a velocidad se intensifica. Sin una rendición de cuentas más estricta, ¿quién decide qué riesgos vale la pena tomar?












