Die neuesten KI -Modelle von Openai haben einen neuen Schutz, um Bioritäten zu verhindern
OpenAIs neue Sicherheitsmaßnahmen für KI-Modelle O3 und O4-Mini
OpenAI hat ein neues Überwachungssystem für seine fortschrittlichen KI-Modelle O3 und O4-Mini eingeführt, die speziell für die Erkennung und Verhinderung von Antworten auf Eingabeaufforderungen im Zusammenhang mit biologischen und chemischen Bedrohungen entwickelt wurden. Dieser "sicherheitsorientierte Argumentationsmonitor" ist eine Reaktion auf die verbesserten Fähigkeiten dieser Modelle, die laut OpenAI einen erheblichen Schritt von ihren Vorgängern darstellen und von böswilligen Akteuren missbraucht werden könnten.
Die internen Benchmarks des Unternehmens weisen darauf hin, dass insbesondere O3 eine höhere Fähigkeit bei der Beantwortung von Fragen zur Schaffung bestimmter biologischer Bedrohungen gezeigt hat. Um diese und andere potenzielle Risiken zu beheben, entwickelte Openai dieses neue System, das neben O3 und O4-Mini arbeitet. Es ist ausgebildet, um Aufforderungen zu erkennen und abzulehnen, die zu schädlichen Ratschlägen zu biologischen und chemischen Risiken führen könnten.
Tests und Ergebnisse
Um die Wirksamkeit dieses Sicherheitsmonitors zu messen, führte OpenAI umfangreiche Tests durch. Rote Teamer verbrachten ungefähr 1.000 Stunden damit, "unsichere" Biorisk-bezogene Gespräche zu identifizieren, die von O3 und O4-Mini erzeugt wurden. In einer Simulation der "Blockierungslogik" des Monitors lehnten die Modelle erfolgreich ab, auf riskante Aufforderungen zu 98,7% der Fälle zu reagieren.
OpenAI gibt jedoch zu, dass ihr Test keine Szenarien in Betracht gezogen hat, in denen Benutzer nach dem Blockieren unterschiedliche Eingabeaufforderungen versuchen könnten. Infolgedessen plant das Unternehmen, die menschliche Überwachung im Rahmen seiner Sicherheitsstrategie weiterhin zu verwenden.
Risikobewertung und laufende Überwachung
Trotz ihrer fortschrittlichen Fähigkeiten überschreiten O3 und O4-Mini Openais "hohe Risiko" -Schschwelle für Bioritäten. Frühe Versionen dieser Modelle waren jedoch besser darin, Fragen zur Entwicklung biologischer Waffen im Vergleich zu O1 und GPT-4 zu beantworten. Openai überwacht aktiv, wie diese Modelle die Entwicklung chemischer und biologischer Bedrohungen erleichtern können, wie in ihrem aktualisierten Rahmen für die Vorbereitung dargestellt.

Diagramm aus der Systemkarte von O3 und O4-Mini (Screenshot: OpenAI)
OpenAI wendet sich zunehmend automatisierten Systemen zu, um die von seinen Modellen ausgestatteten Risiken zu verwalten. Beispielsweise wird ein ähnlicher Argumentationsmonitor verwendet, um zu verhindern, dass der Bildgenerator von GPT-4O (CSAM) für sexuelles Missbrauch von Kindern erzeugt wird.
Bedenken und Kritik
Trotz dieser Bemühungen argumentieren einige Forscher, dass OpenAI möglicherweise nicht die Sicherheit ausreicht. Einer der Red-Teaming-Partner von OpenAI, Metr, stellte fest, dass sie nur begrenzte Zeit hatten, um O3 auf Täuschungsverhalten zu testen. Darüber hinaus entschied sich OpenAI, keinen Sicherheitsbericht für sein kürzlich gestartetes GPT-4,1-Modell zu veröffentlichen, wobei weitere Bedenken hinsichtlich des Engagements des Unternehmens für Transparenz und Sicherheit ausgerichtet wurden.
Verwandter Artikel
OpenAI升级其Operator Agent的AI模型
OpenAI将Operator智能体推向新高度OpenAI正为其自主AI智能体Operator进行重大升级。此次更新意味着Operator将很快采用基于o3模型的架构——这是OpenAI尖端o系列推理模型的最新成员。此前Operator一直基于定制版GPT-4o运行,但这次迭代将带来显著提升。o3模型的突破性意义在数学与逻辑推理任务中,o3几乎在所有指标上都
OpenAI的o3 AI模型在基准测试中的得分低于最初暗示的水平
为什么基准测试差异在人工智能领域很重要?在人工智能领域,数字往往能讲述故事——有时,这些数字并不能完全匹配。以OpenAI的o3模型为例。最初的声明令人震惊:o3据说能够处理超过25%的著名难题FrontierMath问题。作为对比,竞争对手的成绩停留在个位数。但快进到最近的发展情况,备受尊敬的研究机构Epoch AI对此提出了质疑。他们的研究结果显示,o3
DeepSeek AI挑战Chatgpt并塑造了AI的未来
DeepSeek AI的兴起:AI Landscapeart人工智能中的新篇章一直处于不断变化状态,新参与者每天都在挑战现状。其中,DeepSeek AI已成为著名的竞争者,尤其是在App Store下载中超过Chatgpt之后。这个mi
Kommentare (5)
0/200
JamesWilliams
24. April 2025 00:00:00 GMT
OpenAI's new safety feature is a game-changer! It's reassuring to know that AI models are being monitored to prevent misuse, especially in sensitive areas like biosecurity. But sometimes it feels a bit too cautious, blocking harmless queries. Still, better safe than sorry, right? Keep up the good work, OpenAI! 😊
0
StephenGreen
24. April 2025 00:00:00 GMT
OpenAIの新しい安全機能は素晴らしいですね!生物学的リスクを防ぐための監視システムがあるのは安心です。ただ、無害な質問までブロックされることがあるのが少し気になります。でも、安全第一ですからね。引き続き頑張ってください、OpenAI!😊
0
LarryMartin
19. April 2025 00:00:00 GMT
OpenAI의 새로운 안전 기능 정말 대단해요! 생물학적 위험을 방지하기 위한 모니터링 시스템이 있다는 게 안심되네요. 다만, 무해한 질문까지 차단되는 경우가 있어서 조금 아쉽습니다. 그래도 안전이 최우선이죠. 계속해서 좋은 일 하세요, OpenAI! 😊
0
CharlesMartinez
21. April 2025 00:00:00 GMT
A nova função de segurança da OpenAI é incrível! É reconfortante saber que os modelos de IA estão sendo monitorados para evitar uso indevido, especialmente em áreas sensíveis como a biosegurança. Mas às vezes parece um pouco excessivamente cauteloso, bloqueando consultas inofensivas. Ainda assim, melhor prevenir do que remediar, certo? Continue o bom trabalho, OpenAI! 😊
0
CharlesJohnson
21. April 2025 00:00:00 GMT
¡La nueva función de seguridad de OpenAI es un cambio de juego! Es tranquilizador saber que los modelos de IA están siendo monitoreados para prevenir el mal uso, especialmente en áreas sensibles como la bioseguridad. Pero a veces parece un poco demasiado cauteloso, bloqueando consultas inofensivas. Aún así, más vale prevenir que lamentar, ¿verdad? ¡Sigue el buen trabajo, OpenAI! 😊
0
OpenAIs neue Sicherheitsmaßnahmen für KI-Modelle O3 und O4-Mini
OpenAI hat ein neues Überwachungssystem für seine fortschrittlichen KI-Modelle O3 und O4-Mini eingeführt, die speziell für die Erkennung und Verhinderung von Antworten auf Eingabeaufforderungen im Zusammenhang mit biologischen und chemischen Bedrohungen entwickelt wurden. Dieser "sicherheitsorientierte Argumentationsmonitor" ist eine Reaktion auf die verbesserten Fähigkeiten dieser Modelle, die laut OpenAI einen erheblichen Schritt von ihren Vorgängern darstellen und von böswilligen Akteuren missbraucht werden könnten.
Die internen Benchmarks des Unternehmens weisen darauf hin, dass insbesondere O3 eine höhere Fähigkeit bei der Beantwortung von Fragen zur Schaffung bestimmter biologischer Bedrohungen gezeigt hat. Um diese und andere potenzielle Risiken zu beheben, entwickelte Openai dieses neue System, das neben O3 und O4-Mini arbeitet. Es ist ausgebildet, um Aufforderungen zu erkennen und abzulehnen, die zu schädlichen Ratschlägen zu biologischen und chemischen Risiken führen könnten.
Tests und Ergebnisse
Um die Wirksamkeit dieses Sicherheitsmonitors zu messen, führte OpenAI umfangreiche Tests durch. Rote Teamer verbrachten ungefähr 1.000 Stunden damit, "unsichere" Biorisk-bezogene Gespräche zu identifizieren, die von O3 und O4-Mini erzeugt wurden. In einer Simulation der "Blockierungslogik" des Monitors lehnten die Modelle erfolgreich ab, auf riskante Aufforderungen zu 98,7% der Fälle zu reagieren.
OpenAI gibt jedoch zu, dass ihr Test keine Szenarien in Betracht gezogen hat, in denen Benutzer nach dem Blockieren unterschiedliche Eingabeaufforderungen versuchen könnten. Infolgedessen plant das Unternehmen, die menschliche Überwachung im Rahmen seiner Sicherheitsstrategie weiterhin zu verwenden.
Risikobewertung und laufende Überwachung
Trotz ihrer fortschrittlichen Fähigkeiten überschreiten O3 und O4-Mini Openais "hohe Risiko" -Schschwelle für Bioritäten. Frühe Versionen dieser Modelle waren jedoch besser darin, Fragen zur Entwicklung biologischer Waffen im Vergleich zu O1 und GPT-4 zu beantworten. Openai überwacht aktiv, wie diese Modelle die Entwicklung chemischer und biologischer Bedrohungen erleichtern können, wie in ihrem aktualisierten Rahmen für die Vorbereitung dargestellt.
OpenAI wendet sich zunehmend automatisierten Systemen zu, um die von seinen Modellen ausgestatteten Risiken zu verwalten. Beispielsweise wird ein ähnlicher Argumentationsmonitor verwendet, um zu verhindern, dass der Bildgenerator von GPT-4O (CSAM) für sexuelles Missbrauch von Kindern erzeugt wird.
Bedenken und Kritik
Trotz dieser Bemühungen argumentieren einige Forscher, dass OpenAI möglicherweise nicht die Sicherheit ausreicht. Einer der Red-Teaming-Partner von OpenAI, Metr, stellte fest, dass sie nur begrenzte Zeit hatten, um O3 auf Täuschungsverhalten zu testen. Darüber hinaus entschied sich OpenAI, keinen Sicherheitsbericht für sein kürzlich gestartetes GPT-4,1-Modell zu veröffentlichen, wobei weitere Bedenken hinsichtlich des Engagements des Unternehmens für Transparenz und Sicherheit ausgerichtet wurden.




OpenAI's new safety feature is a game-changer! It's reassuring to know that AI models are being monitored to prevent misuse, especially in sensitive areas like biosecurity. But sometimes it feels a bit too cautious, blocking harmless queries. Still, better safe than sorry, right? Keep up the good work, OpenAI! 😊




OpenAIの新しい安全機能は素晴らしいですね!生物学的リスクを防ぐための監視システムがあるのは安心です。ただ、無害な質問までブロックされることがあるのが少し気になります。でも、安全第一ですからね。引き続き頑張ってください、OpenAI!😊




OpenAI의 새로운 안전 기능 정말 대단해요! 생물학적 위험을 방지하기 위한 모니터링 시스템이 있다는 게 안심되네요. 다만, 무해한 질문까지 차단되는 경우가 있어서 조금 아쉽습니다. 그래도 안전이 최우선이죠. 계속해서 좋은 일 하세요, OpenAI! 😊




A nova função de segurança da OpenAI é incrível! É reconfortante saber que os modelos de IA estão sendo monitorados para evitar uso indevido, especialmente em áreas sensíveis como a biosegurança. Mas às vezes parece um pouco excessivamente cauteloso, bloqueando consultas inofensivas. Ainda assim, melhor prevenir do que remediar, certo? Continue o bom trabalho, OpenAI! 😊




¡La nueva función de seguridad de OpenAI es un cambio de juego! Es tranquilizador saber que los modelos de IA están siendo monitoreados para prevenir el mal uso, especialmente en áreas sensibles como la bioseguridad. Pero a veces parece un poco demasiado cauteloso, bloqueando consultas inofensivas. Aún así, más vale prevenir que lamentar, ¿verdad? ¡Sigue el buen trabajo, OpenAI! 😊












