Les derniers modèles d'IA d'OpenAI ont une nouvelle sauvegarde pour empêcher les biorisks
Les nouvelles mesures de sécurité d'Openai pour les modèles d'IA O3 et O4-MINI
OpenAI a introduit un nouveau système de surveillance pour ses modèles AI avancés, O3 et O4-MinI, spécialement conçu pour détecter et prévenir les réponses aux invites liées aux menaces biologiques et chimiques. Ce "moniteur de raisonnement axé sur la sécurité" est une réponse aux capacités améliorées de ces modèles, qui, selon OpenAI, représentent une étape significative de leurs prédécesseurs et pourraient être utilisées à mauvais escient par des acteurs malveillants.
Les repères internes de l'entreprise indiquent que l'O3, en particulier, a montré une plus grande compétence dans la réponse aux questions sur la création de certaines menaces biologiques. Pour résoudre ce risque et d'autres risques potentiels, OpenAI a développé ce nouveau système, qui fonctionne aux côtés de O3 et O4-MinI. Il est formé pour reconnaître et rejeter des invites qui pourraient conduire à des conseils nocifs sur les risques biologiques et chimiques.
Tests et résultats
Pour évaluer l'efficacité de ce moniteur de sécurité, OpenAI a effectué des tests approfondis. Red Teamers a passé environ 1 000 heures à identifier les conversations "dangereuses" liées au biorisque générées par O3 et O4-MinI. Dans une simulation de la «logique de blocage» du moniteur, les modèles ont réussi à répondre à des invites à risque 98,7% du temps.
Cependant, Openai admet que leur test n'a pas pris en compte des scénarios où les utilisateurs peuvent tenter différentes invites après avoir été bloquées. En conséquence, l'entreprise prévoit de continuer à utiliser la surveillance humaine dans le cadre de sa stratégie de sécurité.
Évaluation des risques et surveillance continue
Malgré leurs capacités avancées, O3 et O4-Mini ne dépassent pas le seuil de "risque élevé" d'OpenAI pour les biorisques. Pourtant, les premières versions de ces modèles étaient plus aptes à répondre aux questions sur le développement d'armes biologiques par rapport à O1 et GPT-4. OpenAI surveille activement la façon dont ces modèles pourraient faciliter le développement de menaces chimiques et biologiques, comme indiqué dans leur cadre de préparation mis à jour.

Tableau de la carte système d'O3 et O4-Mini (Capture d'écran: OpenAI)
OpenAI se tourne de plus en plus vers des systèmes automatisés pour gérer les risques posés par ses modèles. Par exemple, un moniteur de raisonnement similaire est utilisé pour empêcher le générateur d'images de GPT-4O de produire du matériel d'abus sexuel pour enfants (CSAM).
Préoccupations et critiques
Malgré ces efforts, certains chercheurs soutiennent qu'OpenAI peut ne pas prioriser suffisamment de sécurité. L'un des partenaires en équipe rouge d'Openai, METR, a noté qu'ils avaient un temps limité pour tester l'O3 pour un comportement trompeur. En outre, OpenAI a choisi de ne pas publier de rapport de sécurité pour son modèle GPT-4.1 récemment lancé, ce qui a soulevé de nouvelles préoccupations concernant l'engagement de l'entreprise envers la transparence et la sécurité.
Article connexe
OpenAI升级其Operator Agent的AI模型
OpenAI将Operator智能体推向新高度OpenAI正为其自主AI智能体Operator进行重大升级。此次更新意味着Operator将很快采用基于o3模型的架构——这是OpenAI尖端o系列推理模型的最新成员。此前Operator一直基于定制版GPT-4o运行,但这次迭代将带来显著提升。o3模型的突破性意义在数学与逻辑推理任务中,o3几乎在所有指标上都
OpenAI的o3 AI模型在基准测试中的得分低于最初暗示的水平
为什么基准测试差异在人工智能领域很重要?在人工智能领域,数字往往能讲述故事——有时,这些数字并不能完全匹配。以OpenAI的o3模型为例。最初的声明令人震惊:o3据说能够处理超过25%的著名难题FrontierMath问题。作为对比,竞争对手的成绩停留在个位数。但快进到最近的发展情况,备受尊敬的研究机构Epoch AI对此提出了质疑。他们的研究结果显示,o3
DeepSeek AI挑战Chatgpt并塑造了AI的未来
DeepSeek AI的兴起:AI Landscapeart人工智能中的新篇章一直处于不断变化状态,新参与者每天都在挑战现状。其中,DeepSeek AI已成为著名的竞争者,尤其是在App Store下载中超过Chatgpt之后。这个mi
commentaires (5)
0/200
JamesWilliams
24 avril 2025 00:00:00 UTC
OpenAI's new safety feature is a game-changer! It's reassuring to know that AI models are being monitored to prevent misuse, especially in sensitive areas like biosecurity. But sometimes it feels a bit too cautious, blocking harmless queries. Still, better safe than sorry, right? Keep up the good work, OpenAI! 😊
0
StephenGreen
24 avril 2025 00:00:00 UTC
OpenAIの新しい安全機能は素晴らしいですね!生物学的リスクを防ぐための監視システムがあるのは安心です。ただ、無害な質問までブロックされることがあるのが少し気になります。でも、安全第一ですからね。引き続き頑張ってください、OpenAI!😊
0
LarryMartin
19 avril 2025 00:00:00 UTC
OpenAI의 새로운 안전 기능 정말 대단해요! 생물학적 위험을 방지하기 위한 모니터링 시스템이 있다는 게 안심되네요. 다만, 무해한 질문까지 차단되는 경우가 있어서 조금 아쉽습니다. 그래도 안전이 최우선이죠. 계속해서 좋은 일 하세요, OpenAI! 😊
0
CharlesMartinez
21 avril 2025 00:00:00 UTC
A nova função de segurança da OpenAI é incrível! É reconfortante saber que os modelos de IA estão sendo monitorados para evitar uso indevido, especialmente em áreas sensíveis como a biosegurança. Mas às vezes parece um pouco excessivamente cauteloso, bloqueando consultas inofensivas. Ainda assim, melhor prevenir do que remediar, certo? Continue o bom trabalho, OpenAI! 😊
0
CharlesJohnson
21 avril 2025 00:00:00 UTC
¡La nueva función de seguridad de OpenAI es un cambio de juego! Es tranquilizador saber que los modelos de IA están siendo monitoreados para prevenir el mal uso, especialmente en áreas sensibles como la bioseguridad. Pero a veces parece un poco demasiado cauteloso, bloqueando consultas inofensivas. Aún así, más vale prevenir que lamentar, ¿verdad? ¡Sigue el buen trabajo, OpenAI! 😊
0
Les nouvelles mesures de sécurité d'Openai pour les modèles d'IA O3 et O4-MINI
OpenAI a introduit un nouveau système de surveillance pour ses modèles AI avancés, O3 et O4-MinI, spécialement conçu pour détecter et prévenir les réponses aux invites liées aux menaces biologiques et chimiques. Ce "moniteur de raisonnement axé sur la sécurité" est une réponse aux capacités améliorées de ces modèles, qui, selon OpenAI, représentent une étape significative de leurs prédécesseurs et pourraient être utilisées à mauvais escient par des acteurs malveillants.
Les repères internes de l'entreprise indiquent que l'O3, en particulier, a montré une plus grande compétence dans la réponse aux questions sur la création de certaines menaces biologiques. Pour résoudre ce risque et d'autres risques potentiels, OpenAI a développé ce nouveau système, qui fonctionne aux côtés de O3 et O4-MinI. Il est formé pour reconnaître et rejeter des invites qui pourraient conduire à des conseils nocifs sur les risques biologiques et chimiques.
Tests et résultats
Pour évaluer l'efficacité de ce moniteur de sécurité, OpenAI a effectué des tests approfondis. Red Teamers a passé environ 1 000 heures à identifier les conversations "dangereuses" liées au biorisque générées par O3 et O4-MinI. Dans une simulation de la «logique de blocage» du moniteur, les modèles ont réussi à répondre à des invites à risque 98,7% du temps.
Cependant, Openai admet que leur test n'a pas pris en compte des scénarios où les utilisateurs peuvent tenter différentes invites après avoir été bloquées. En conséquence, l'entreprise prévoit de continuer à utiliser la surveillance humaine dans le cadre de sa stratégie de sécurité.
Évaluation des risques et surveillance continue
Malgré leurs capacités avancées, O3 et O4-Mini ne dépassent pas le seuil de "risque élevé" d'OpenAI pour les biorisques. Pourtant, les premières versions de ces modèles étaient plus aptes à répondre aux questions sur le développement d'armes biologiques par rapport à O1 et GPT-4. OpenAI surveille activement la façon dont ces modèles pourraient faciliter le développement de menaces chimiques et biologiques, comme indiqué dans leur cadre de préparation mis à jour.
OpenAI se tourne de plus en plus vers des systèmes automatisés pour gérer les risques posés par ses modèles. Par exemple, un moniteur de raisonnement similaire est utilisé pour empêcher le générateur d'images de GPT-4O de produire du matériel d'abus sexuel pour enfants (CSAM).
Préoccupations et critiques
Malgré ces efforts, certains chercheurs soutiennent qu'OpenAI peut ne pas prioriser suffisamment de sécurité. L'un des partenaires en équipe rouge d'Openai, METR, a noté qu'ils avaient un temps limité pour tester l'O3 pour un comportement trompeur. En outre, OpenAI a choisi de ne pas publier de rapport de sécurité pour son modèle GPT-4.1 récemment lancé, ce qui a soulevé de nouvelles préoccupations concernant l'engagement de l'entreprise envers la transparence et la sécurité.




OpenAI's new safety feature is a game-changer! It's reassuring to know that AI models are being monitored to prevent misuse, especially in sensitive areas like biosecurity. But sometimes it feels a bit too cautious, blocking harmless queries. Still, better safe than sorry, right? Keep up the good work, OpenAI! 😊




OpenAIの新しい安全機能は素晴らしいですね!生物学的リスクを防ぐための監視システムがあるのは安心です。ただ、無害な質問までブロックされることがあるのが少し気になります。でも、安全第一ですからね。引き続き頑張ってください、OpenAI!😊




OpenAI의 새로운 안전 기능 정말 대단해요! 생물학적 위험을 방지하기 위한 모니터링 시스템이 있다는 게 안심되네요. 다만, 무해한 질문까지 차단되는 경우가 있어서 조금 아쉽습니다. 그래도 안전이 최우선이죠. 계속해서 좋은 일 하세요, OpenAI! 😊




A nova função de segurança da OpenAI é incrível! É reconfortante saber que os modelos de IA estão sendo monitorados para evitar uso indevido, especialmente em áreas sensíveis como a biosegurança. Mas às vezes parece um pouco excessivamente cauteloso, bloqueando consultas inofensivas. Ainda assim, melhor prevenir do que remediar, certo? Continue o bom trabalho, OpenAI! 😊




¡La nueva función de seguridad de OpenAI es un cambio de juego! Es tranquilizador saber que los modelos de IA están siendo monitoreados para prevenir el mal uso, especialmente en áreas sensibles como la bioseguridad. Pero a veces parece un poco demasiado cauteloso, bloqueando consultas inofensivas. Aún así, más vale prevenir que lamentar, ¿verdad? ¡Sigue el buen trabajo, OpenAI! 😊












