Os mais recentes modelos de IA do OpenAI têm uma nova salvaguarda para prevenir biorisks
As novas medidas de segurança do OpenAI para modelos de IA O3 e O4-Mini
A OpenAI introduziu um novo sistema de monitoramento para seus modelos avançados de IA, O3 e O4-mini, projetados especificamente para detectar e impedir respostas a avisos relacionados a ameaças biológicas e químicas. Esse "monitor de raciocínio focado na segurança" é uma resposta às capacidades aprimoradas desses modelos, que, de acordo com o OpenAI, representam um avanço significativo de seus antecessores e podem ser mal utilizados por atores maliciosos.
Os benchmarks internos da Companhia indicam que a O3, em particular, mostrou uma proficiência maior em responder perguntas sobre a criação de certas ameaças biológicas. Para abordar esse e outros riscos em potencial, o OpenAI desenvolveu esse novo sistema, que opera ao lado de O3 e O4-mini. É treinado para reconhecer e rejeitar instruções que podem levar a conselhos prejudiciais sobre riscos biológicos e químicos.
Testes e resultados
Para avaliar a eficácia deste monitor de segurança, o OpenAI realizou testes extensos. Os equipes vermelhas passaram aproximadamente 1.000 horas identificando conversas relacionadas a biorisk "inseguras" geradas por O3 e O4-mini. Em uma simulação da "lógica de bloqueio" do monitor, os modelos se recusaram com sucesso a responder a solicita 98,7% do tempo.
No entanto, o OpenAI admite que seu teste não considerou cenários em que os usuários poderiam tentar instruções diferentes após serem bloqueadas. Como resultado, a empresa planeja continuar usando o monitoramento humano como parte de sua estratégia de segurança.
Avaliação de risco e monitoramento contínuo
Apesar de suas capacidades avançadas, O3 e O4-mini não excedem o limiar de "alto risco" do OpenAI para os bioriscos. No entanto, as versões iniciais desses modelos foram mais hábeis em responder perguntas sobre o desenvolvimento de armas biológicas em comparação com O1 e GPT-4. O OpenAI está monitorando ativamente como esses modelos podem facilitar o desenvolvimento de ameaças químicas e biológicas, conforme descrito em sua estrutura de preparação atualizada.

Gráfico do cartão de sistema O3 e O4-Mini (Captura de tela: OpenAI)
O OpenAI está cada vez mais recorrendo a sistemas automatizados para gerenciar os riscos representados por seus modelos. Por exemplo, um monitor de raciocínio semelhante é usado para impedir que o gerador de imagens do GPT-4O produza material de abuso sexual infantil (CSAM).
Preocupações e críticas
Apesar desses esforços, alguns pesquisadores argumentam que o OpenAI pode não estar priorizando a segurança o suficiente. Um dos parceiros de equipes vermelhas da Openai, Metro, observou que tinha tempo limitado para testar a O3 para comportamento enganoso. Além disso, o OpenAI optou por não liberar um relatório de segurança para o seu modelo GPT-4.1 lançado recentemente, levantando outras preocupações sobre o compromisso da empresa com a transparência e a segurança.
Artigo relacionado
OpenAI升级其Operator Agent的AI模型
OpenAI将Operator智能体推向新高度OpenAI正为其自主AI智能体Operator进行重大升级。此次更新意味着Operator将很快采用基于o3模型的架构——这是OpenAI尖端o系列推理模型的最新成员。此前Operator一直基于定制版GPT-4o运行,但这次迭代将带来显著提升。o3模型的突破性意义在数学与逻辑推理任务中,o3几乎在所有指标上都
OpenAI的o3 AI模型在基准测试中的得分低于最初暗示的水平
为什么基准测试差异在人工智能领域很重要?在人工智能领域,数字往往能讲述故事——有时,这些数字并不能完全匹配。以OpenAI的o3模型为例。最初的声明令人震惊:o3据说能够处理超过25%的著名难题FrontierMath问题。作为对比,竞争对手的成绩停留在个位数。但快进到最近的发展情况,备受尊敬的研究机构Epoch AI对此提出了质疑。他们的研究结果显示,o3
DeepSeek AI挑战Chatgpt并塑造了AI的未来
DeepSeek AI的兴起:AI Landscapeart人工智能中的新篇章一直处于不断变化状态,新参与者每天都在挑战现状。其中,DeepSeek AI已成为著名的竞争者,尤其是在App Store下载中超过Chatgpt之后。这个mi
Comentários (5)
0/200
JamesWilliams
24 de Abril de 2025 à0 00:00:00 GMT
OpenAI's new safety feature is a game-changer! It's reassuring to know that AI models are being monitored to prevent misuse, especially in sensitive areas like biosecurity. But sometimes it feels a bit too cautious, blocking harmless queries. Still, better safe than sorry, right? Keep up the good work, OpenAI! 😊
0
StephenGreen
24 de Abril de 2025 à0 00:00:00 GMT
OpenAIの新しい安全機能は素晴らしいですね!生物学的リスクを防ぐための監視システムがあるのは安心です。ただ、無害な質問までブロックされることがあるのが少し気になります。でも、安全第一ですからね。引き続き頑張ってください、OpenAI!😊
0
LarryMartin
19 de Abril de 2025 à0 00:00:00 GMT
OpenAI의 새로운 안전 기능 정말 대단해요! 생물학적 위험을 방지하기 위한 모니터링 시스템이 있다는 게 안심되네요. 다만, 무해한 질문까지 차단되는 경우가 있어서 조금 아쉽습니다. 그래도 안전이 최우선이죠. 계속해서 좋은 일 하세요, OpenAI! 😊
0
CharlesMartinez
21 de Abril de 2025 à0 00:00:00 GMT
A nova função de segurança da OpenAI é incrível! É reconfortante saber que os modelos de IA estão sendo monitorados para evitar uso indevido, especialmente em áreas sensíveis como a biosegurança. Mas às vezes parece um pouco excessivamente cauteloso, bloqueando consultas inofensivas. Ainda assim, melhor prevenir do que remediar, certo? Continue o bom trabalho, OpenAI! 😊
0
CharlesJohnson
21 de Abril de 2025 à0 00:00:00 GMT
¡La nueva función de seguridad de OpenAI es un cambio de juego! Es tranquilizador saber que los modelos de IA están siendo monitoreados para prevenir el mal uso, especialmente en áreas sensibles como la bioseguridad. Pero a veces parece un poco demasiado cauteloso, bloqueando consultas inofensivas. Aún así, más vale prevenir que lamentar, ¿verdad? ¡Sigue el buen trabajo, OpenAI! 😊
0
As novas medidas de segurança do OpenAI para modelos de IA O3 e O4-Mini
A OpenAI introduziu um novo sistema de monitoramento para seus modelos avançados de IA, O3 e O4-mini, projetados especificamente para detectar e impedir respostas a avisos relacionados a ameaças biológicas e químicas. Esse "monitor de raciocínio focado na segurança" é uma resposta às capacidades aprimoradas desses modelos, que, de acordo com o OpenAI, representam um avanço significativo de seus antecessores e podem ser mal utilizados por atores maliciosos.
Os benchmarks internos da Companhia indicam que a O3, em particular, mostrou uma proficiência maior em responder perguntas sobre a criação de certas ameaças biológicas. Para abordar esse e outros riscos em potencial, o OpenAI desenvolveu esse novo sistema, que opera ao lado de O3 e O4-mini. É treinado para reconhecer e rejeitar instruções que podem levar a conselhos prejudiciais sobre riscos biológicos e químicos.
Testes e resultados
Para avaliar a eficácia deste monitor de segurança, o OpenAI realizou testes extensos. Os equipes vermelhas passaram aproximadamente 1.000 horas identificando conversas relacionadas a biorisk "inseguras" geradas por O3 e O4-mini. Em uma simulação da "lógica de bloqueio" do monitor, os modelos se recusaram com sucesso a responder a solicita 98,7% do tempo.
No entanto, o OpenAI admite que seu teste não considerou cenários em que os usuários poderiam tentar instruções diferentes após serem bloqueadas. Como resultado, a empresa planeja continuar usando o monitoramento humano como parte de sua estratégia de segurança.
Avaliação de risco e monitoramento contínuo
Apesar de suas capacidades avançadas, O3 e O4-mini não excedem o limiar de "alto risco" do OpenAI para os bioriscos. No entanto, as versões iniciais desses modelos foram mais hábeis em responder perguntas sobre o desenvolvimento de armas biológicas em comparação com O1 e GPT-4. O OpenAI está monitorando ativamente como esses modelos podem facilitar o desenvolvimento de ameaças químicas e biológicas, conforme descrito em sua estrutura de preparação atualizada.
O OpenAI está cada vez mais recorrendo a sistemas automatizados para gerenciar os riscos representados por seus modelos. Por exemplo, um monitor de raciocínio semelhante é usado para impedir que o gerador de imagens do GPT-4O produza material de abuso sexual infantil (CSAM).
Preocupações e críticas
Apesar desses esforços, alguns pesquisadores argumentam que o OpenAI pode não estar priorizando a segurança o suficiente. Um dos parceiros de equipes vermelhas da Openai, Metro, observou que tinha tempo limitado para testar a O3 para comportamento enganoso. Além disso, o OpenAI optou por não liberar um relatório de segurança para o seu modelo GPT-4.1 lançado recentemente, levantando outras preocupações sobre o compromisso da empresa com a transparência e a segurança.




OpenAI's new safety feature is a game-changer! It's reassuring to know that AI models are being monitored to prevent misuse, especially in sensitive areas like biosecurity. But sometimes it feels a bit too cautious, blocking harmless queries. Still, better safe than sorry, right? Keep up the good work, OpenAI! 😊




OpenAIの新しい安全機能は素晴らしいですね!生物学的リスクを防ぐための監視システムがあるのは安心です。ただ、無害な質問までブロックされることがあるのが少し気になります。でも、安全第一ですからね。引き続き頑張ってください、OpenAI!😊




OpenAI의 새로운 안전 기능 정말 대단해요! 생물학적 위험을 방지하기 위한 모니터링 시스템이 있다는 게 안심되네요. 다만, 무해한 질문까지 차단되는 경우가 있어서 조금 아쉽습니다. 그래도 안전이 최우선이죠. 계속해서 좋은 일 하세요, OpenAI! 😊




A nova função de segurança da OpenAI é incrível! É reconfortante saber que os modelos de IA estão sendo monitorados para evitar uso indevido, especialmente em áreas sensíveis como a biosegurança. Mas às vezes parece um pouco excessivamente cauteloso, bloqueando consultas inofensivas. Ainda assim, melhor prevenir do que remediar, certo? Continue o bom trabalho, OpenAI! 😊




¡La nueva función de seguridad de OpenAI es un cambio de juego! Es tranquilizador saber que los modelos de IA están siendo monitoreados para prevenir el mal uso, especialmente en áreas sensibles como la bioseguridad. Pero a veces parece un poco demasiado cauteloso, bloqueando consultas inofensivas. Aún así, más vale prevenir que lamentar, ¿verdad? ¡Sigue el buen trabajo, OpenAI! 😊












