Los últimos modelos de IA de OpenAI tienen una nueva salvaguardia para evitar biorisks
Las nuevas medidas de seguridad de Openai para los modelos AI O3 y O4-Mini
Operai ha introducido un nuevo sistema de monitoreo para sus modelos AI avanzados, O3 y O4-Mini, diseñado específicamente para detectar y prevenir respuestas a indicaciones relacionadas con amenazas biológicas y químicas. Este "monitor de razonamiento centrado en la seguridad" es una respuesta a las capacidades mejoradas de estos modelos, que, según OpenAI, representan un paso adelante significativo de sus predecesores y podrían ser mal utilizados por actores maliciosos.
Los puntos de referencia internos de la compañía indican que O3, en particular, ha mostrado una mayor competencia en responder preguntas sobre la creación de ciertas amenazas biológicas. Para abordar este y otros riesgos potenciales, OpenAi desarrolló este nuevo sistema, que opera junto con O3 y O4-Mini. Está capacitado para reconocer y rechazar las indicaciones que podrían conducir a consejos nocivos sobre riesgos biológicos y químicos.
Pruebas y resultados
Para medir la efectividad de este monitor de seguridad, OpenAi realizó pruebas extensas. Los equipo rojo pasaron aproximadamente 1,000 horas identificando conversaciones "inseguras" relacionadas con el biorrisco generadas por O3 y O4-Mini. En una simulación de la "lógica de bloqueo" del monitor, los modelos se negaron con éxito a responder a los riesgos del 98.7% del tiempo.
Sin embargo, OpenAI admite que su prueba no consideró escenarios en los que los usuarios pudieran intentar diferentes indicaciones después de ser bloqueados. Como resultado, la compañía planea continuar utilizando el monitoreo humano como parte de su estrategia de seguridad.
Evaluación de riesgos y monitoreo continuo
A pesar de sus capacidades avanzadas, O3 y O4-Mini no exceden el umbral de "alto riesgo" de Openai para los biorriscos. Sin embargo, las primeras versiones de estos modelos fueron más expertos en responder preguntas sobre el desarrollo de armas biológicas en comparación con O1 y GPT-4. Operai está monitoreando activamente cómo estos modelos podrían facilitar el desarrollo de amenazas químicas y biológicas, como se describe en su marco de preparación actualizada.

Gráfico de la tarjeta del sistema O3 y O4-Mini (captura de pantalla: OpenAI)
Operai está recurriendo cada vez más a los sistemas automatizados para administrar los riesgos que plantean sus modelos. Por ejemplo, se utiliza un monitor de razonamiento similar para evitar que el generador de imágenes de GPT-4O produzca material de abuso sexual infantil (CSAM).
Preocupaciones y críticas
A pesar de estos esfuerzos, algunos investigadores argumentan que OpenAi puede no estar priorizando la seguridad lo suficiente. Uno de los socios de equipo rojo de OpenAI, METR, señaló que tuvieron un tiempo limitado para probar O3 para obtener un comportamiento engañoso. Además, Operai decidió no publicar un informe de seguridad para su modelo GPT-4.1 recientemente lanzado, lo que plantea más preocupaciones sobre el compromiso de la compañía con la transparencia y la seguridad.
Artículo relacionado
OpenAI升级其Operator Agent的AI模型
OpenAI将Operator智能体推向新高度OpenAI正为其自主AI智能体Operator进行重大升级。此次更新意味着Operator将很快采用基于o3模型的架构——这是OpenAI尖端o系列推理模型的最新成员。此前Operator一直基于定制版GPT-4o运行,但这次迭代将带来显著提升。o3模型的突破性意义在数学与逻辑推理任务中,o3几乎在所有指标上都
OpenAI的o3 AI模型在基准测试中的得分低于最初暗示的水平
为什么基准测试差异在人工智能领域很重要?在人工智能领域,数字往往能讲述故事——有时,这些数字并不能完全匹配。以OpenAI的o3模型为例。最初的声明令人震惊:o3据说能够处理超过25%的著名难题FrontierMath问题。作为对比,竞争对手的成绩停留在个位数。但快进到最近的发展情况,备受尊敬的研究机构Epoch AI对此提出了质疑。他们的研究结果显示,o3
DeepSeek AI挑战Chatgpt并塑造了AI的未来
DeepSeek AI的兴起:AI Landscapeart人工智能中的新篇章一直处于不断变化状态,新参与者每天都在挑战现状。其中,DeepSeek AI已成为著名的竞争者,尤其是在App Store下载中超过Chatgpt之后。这个mi
comentario (5)
0/200
JamesWilliams
24 de abril de 2025 00:00:00 GMT
OpenAI's new safety feature is a game-changer! It's reassuring to know that AI models are being monitored to prevent misuse, especially in sensitive areas like biosecurity. But sometimes it feels a bit too cautious, blocking harmless queries. Still, better safe than sorry, right? Keep up the good work, OpenAI! 😊
0
StephenGreen
24 de abril de 2025 00:00:00 GMT
OpenAIの新しい安全機能は素晴らしいですね!生物学的リスクを防ぐための監視システムがあるのは安心です。ただ、無害な質問までブロックされることがあるのが少し気になります。でも、安全第一ですからね。引き続き頑張ってください、OpenAI!😊
0
LarryMartin
19 de abril de 2025 00:00:00 GMT
OpenAI의 새로운 안전 기능 정말 대단해요! 생물학적 위험을 방지하기 위한 모니터링 시스템이 있다는 게 안심되네요. 다만, 무해한 질문까지 차단되는 경우가 있어서 조금 아쉽습니다. 그래도 안전이 최우선이죠. 계속해서 좋은 일 하세요, OpenAI! 😊
0
CharlesMartinez
21 de abril de 2025 00:00:00 GMT
A nova função de segurança da OpenAI é incrível! É reconfortante saber que os modelos de IA estão sendo monitorados para evitar uso indevido, especialmente em áreas sensíveis como a biosegurança. Mas às vezes parece um pouco excessivamente cauteloso, bloqueando consultas inofensivas. Ainda assim, melhor prevenir do que remediar, certo? Continue o bom trabalho, OpenAI! 😊
0
CharlesJohnson
21 de abril de 2025 00:00:00 GMT
¡La nueva función de seguridad de OpenAI es un cambio de juego! Es tranquilizador saber que los modelos de IA están siendo monitoreados para prevenir el mal uso, especialmente en áreas sensibles como la bioseguridad. Pero a veces parece un poco demasiado cauteloso, bloqueando consultas inofensivas. Aún así, más vale prevenir que lamentar, ¿verdad? ¡Sigue el buen trabajo, OpenAI! 😊
0
Las nuevas medidas de seguridad de Openai para los modelos AI O3 y O4-Mini
Operai ha introducido un nuevo sistema de monitoreo para sus modelos AI avanzados, O3 y O4-Mini, diseñado específicamente para detectar y prevenir respuestas a indicaciones relacionadas con amenazas biológicas y químicas. Este "monitor de razonamiento centrado en la seguridad" es una respuesta a las capacidades mejoradas de estos modelos, que, según OpenAI, representan un paso adelante significativo de sus predecesores y podrían ser mal utilizados por actores maliciosos.
Los puntos de referencia internos de la compañía indican que O3, en particular, ha mostrado una mayor competencia en responder preguntas sobre la creación de ciertas amenazas biológicas. Para abordar este y otros riesgos potenciales, OpenAi desarrolló este nuevo sistema, que opera junto con O3 y O4-Mini. Está capacitado para reconocer y rechazar las indicaciones que podrían conducir a consejos nocivos sobre riesgos biológicos y químicos.
Pruebas y resultados
Para medir la efectividad de este monitor de seguridad, OpenAi realizó pruebas extensas. Los equipo rojo pasaron aproximadamente 1,000 horas identificando conversaciones "inseguras" relacionadas con el biorrisco generadas por O3 y O4-Mini. En una simulación de la "lógica de bloqueo" del monitor, los modelos se negaron con éxito a responder a los riesgos del 98.7% del tiempo.
Sin embargo, OpenAI admite que su prueba no consideró escenarios en los que los usuarios pudieran intentar diferentes indicaciones después de ser bloqueados. Como resultado, la compañía planea continuar utilizando el monitoreo humano como parte de su estrategia de seguridad.
Evaluación de riesgos y monitoreo continuo
A pesar de sus capacidades avanzadas, O3 y O4-Mini no exceden el umbral de "alto riesgo" de Openai para los biorriscos. Sin embargo, las primeras versiones de estos modelos fueron más expertos en responder preguntas sobre el desarrollo de armas biológicas en comparación con O1 y GPT-4. Operai está monitoreando activamente cómo estos modelos podrían facilitar el desarrollo de amenazas químicas y biológicas, como se describe en su marco de preparación actualizada.
Operai está recurriendo cada vez más a los sistemas automatizados para administrar los riesgos que plantean sus modelos. Por ejemplo, se utiliza un monitor de razonamiento similar para evitar que el generador de imágenes de GPT-4O produzca material de abuso sexual infantil (CSAM).
Preocupaciones y críticas
A pesar de estos esfuerzos, algunos investigadores argumentan que OpenAi puede no estar priorizando la seguridad lo suficiente. Uno de los socios de equipo rojo de OpenAI, METR, señaló que tuvieron un tiempo limitado para probar O3 para obtener un comportamiento engañoso. Además, Operai decidió no publicar un informe de seguridad para su modelo GPT-4.1 recientemente lanzado, lo que plantea más preocupaciones sobre el compromiso de la compañía con la transparencia y la seguridad.




OpenAI's new safety feature is a game-changer! It's reassuring to know that AI models are being monitored to prevent misuse, especially in sensitive areas like biosecurity. But sometimes it feels a bit too cautious, blocking harmless queries. Still, better safe than sorry, right? Keep up the good work, OpenAI! 😊




OpenAIの新しい安全機能は素晴らしいですね!生物学的リスクを防ぐための監視システムがあるのは安心です。ただ、無害な質問までブロックされることがあるのが少し気になります。でも、安全第一ですからね。引き続き頑張ってください、OpenAI!😊




OpenAI의 새로운 안전 기능 정말 대단해요! 생물학적 위험을 방지하기 위한 모니터링 시스템이 있다는 게 안심되네요. 다만, 무해한 질문까지 차단되는 경우가 있어서 조금 아쉽습니다. 그래도 안전이 최우선이죠. 계속해서 좋은 일 하세요, OpenAI! 😊




A nova função de segurança da OpenAI é incrível! É reconfortante saber que os modelos de IA estão sendo monitorados para evitar uso indevido, especialmente em áreas sensíveis como a biosegurança. Mas às vezes parece um pouco excessivamente cauteloso, bloqueando consultas inofensivas. Ainda assim, melhor prevenir do que remediar, certo? Continue o bom trabalho, OpenAI! 😊




¡La nueva función de seguridad de OpenAI es un cambio de juego! Es tranquilizador saber que los modelos de IA están siendo monitoreados para prevenir el mal uso, especialmente en áreas sensibles como la bioseguridad. Pero a veces parece un poco demasiado cauteloso, bloqueando consultas inofensivas. Aún así, más vale prevenir que lamentar, ¿verdad? ¡Sigue el buen trabajo, OpenAI! 😊












