option
Maison
Nouvelles
OpenAI lance GPT-4.1 sans rapport de sécurité

OpenAI lance GPT-4.1 sans rapport de sécurité

3 juillet 2025
0

Le lancement de GPT-4.1 par OpenAI se fait sans rapport de sécurité — Voici pourquoi cela compte

Lundi, OpenAI a dévoilé GPT-4.1, son dernier modèle d'IA, vantant des performances améliorées, notamment dans les benchmarks de programmation. Mais contrairement aux versions précédentes, celle-ci s'accompagne d'une omission notable : aucun rapport de sécurité.

Habituellement, OpenAI publie une "carte système" détaillant les évaluations de sécurité internes et tierces, révélant les risques potentiels comme un comportement trompeur ou des capacités de persuasion non intentionnelles. Ces rapports sont considérés comme un effort de bonne foi pour favoriser la transparence dans le développement de l'IA.

Cependant, mardi, OpenAI a confirmé qu'il ne publiera pas de rapport pour GPT-4.1. Selon le porte-parole Shaokyi Amdo, le modèle n'est pas considéré comme un système d'IA "frontalier" — c'est-à-dire qu'il ne repousse pas suffisamment les limites pour justifier un rapport de sécurité complet.

Une tendance vers moins de transparence ?

Ce mouvement intervient alors que les préoccupations croissent concernant le fait que les grands laboratoires d'IA réduisent les divulgations de sécurité. Au cours de l'année écoulée :

  • Google a retardé la publication de rapports de sécurité.
  • Anthropic et d'autres ont publié des évaluations moins détaillées.
  • OpenAI lui-même a été critiqué pour des rapports incohérents, notamment :
    • Publication d'un rapport de sécurité de décembre 2023 avec des résultats de benchmarks ne correspondant pas au modèle de production.
    • Lancement de DeepSeek-V3 des semaines avant la publication de sa carte système.

Steven Adler, ancien chercheur en sécurité chez OpenAI, a déclaré à TechCrunch que, bien que ces rapports soient volontaires, ils sont devenus un outil clé de transparence dans l'industrie de l'IA. OpenAI s'est précédemment engagé auprès des gouvernements — notamment avant le Sommet sur la sécurité de l'IA au Royaume-Uni en 2023 — à considérer les cartes système comme essentielles pour la responsabilité.

Pourquoi cette réticence ?

Les rapports de sécurité révèlent parfois des vérités inconfortables — comme des modèles capables de manipuler les utilisateurs ou de générer du contenu nuisible. Mais avec une concurrence croissante, les entreprises d'IA pourraient privilégier la vitesse à l'examen minutieux.

Des rapports récents suggèrent qu'OpenAI a réduit les ressources pour les tests de sécurité, et la semaine dernière, 12 anciens employés (dont Adler) ont déposé un mémorandum d'amicus dans le procès d'Elon Musk, avertissant qu'une OpenAI axée sur le profit pourrait compromettre la sécurité.

GPT-4.1 est-il risqué sans rapport ?

Bien que GPT-4.1 ne soit pas le modèle le plus avancé d'OpenAI, il améliore l'efficacité et réduit la latence — des facteurs qui pourraient encore introduire des risques.

Thomas Woodside, co-fondateur du Projet Secure AI, soutient que toute amélioration des performances devrait s'accompagner d'une documentation de sécurité. "Plus le modèle est sophistiqué, plus le risque est élevé," a-t-il déclaré à TechCrunch.

Le grand débat sur la régulation de l'IA

De nombreuses entreprises d'IA, y compris OpenAI, ont résisté aux lois de sécurité obligatoires. Plus tôt cette année, OpenAI s'est opposé à la loi SB 1047 de Californie, qui aurait forcé les développeurs d'IA à publier des audits de sécurité pour les modèles publics.

Pour l'instant, les normes de transparence de l'industrie restent auto-imposées — et de plus en plus, facultatives.


Événement TechCrunch : Économisez plus de 200 $ sur votre Pass Toutes Étapes

🚀 Construisez plus intelligemment. Évoluez plus rapidement. Connectez-vous plus profondément.
Rejoignez les visionnaires de Precursor Ventures, NEA, Index Ventures, Underscore VC, et plus encore pour une journée de stratégies, ateliers et réseautage.

📍 Boston, MA | 15 juillet
🔗 INSCRIVEZ-VOUS MAINTENANT


À mesure que l'IA évolue, le débat sur sécurité contre vitesse s'intensifie. Sans une responsabilité plus stricte, qui décide quels risques valent la peine d'être pris ?

Article connexe
Former OpenAI Employees File Brief Against Company’s For-Profit Shift Former OpenAI Employees File Brief Against Company’s For-Profit Shift Former OpenAI Employees Back Elon Musk in Lawsuit Against OpenAI’s Shift to For-Profit ModelA group of former OpenAI employees has filed an amicus brief in support of Elon Musk’s lawsuit against OpenAI, challenging the company’s planned transition from a nonprofit to a for-profit corporation. The b
OpenAI Enhances AI Model Behind Its Operator Agent OpenAI Enhances AI Model Behind Its Operator Agent OpenAI Takes Operator to the Next LevelOpenAI is giving its autonomous AI agent, Operator, a major upgrade. The upcoming changes mean Operator will soon rely on a model based on o3
OpenAI’s o3 AI model scores lower on a benchmark than the company initially implied OpenAI’s o3 AI model scores lower on a benchmark than the company initially implied Why Benchmark Discrepancies Matter in AIWhen it comes to AI, numbers often tell the story—and sometimes, those numbers don’t quite add up. Take OpenAI’s o3 model, for instance. The
commentaires (0)
0/200
Retour en haut
OR