option
Maison
Nouvelles
OpenAI lance GPT-4.1 sans rapport de sécurité

OpenAI lance GPT-4.1 sans rapport de sécurité

3 juillet 2025
13

Le lancement de GPT-4.1 par OpenAI se fait sans rapport de sécurité — Voici pourquoi cela compte

Lundi, OpenAI a dévoilé GPT-4.1, son dernier modèle d'IA, vantant des performances améliorées, notamment dans les benchmarks de programmation. Mais contrairement aux versions précédentes, celle-ci s'accompagne d'une omission notable : aucun rapport de sécurité.

Habituellement, OpenAI publie une "carte système" détaillant les évaluations de sécurité internes et tierces, révélant les risques potentiels comme un comportement trompeur ou des capacités de persuasion non intentionnelles. Ces rapports sont considérés comme un effort de bonne foi pour favoriser la transparence dans le développement de l'IA.

Cependant, mardi, OpenAI a confirmé qu'il ne publiera pas de rapport pour GPT-4.1. Selon le porte-parole Shaokyi Amdo, le modèle n'est pas considéré comme un système d'IA "frontalier" — c'est-à-dire qu'il ne repousse pas suffisamment les limites pour justifier un rapport de sécurité complet.

Une tendance vers moins de transparence ?

Ce mouvement intervient alors que les préoccupations croissent concernant le fait que les grands laboratoires d'IA réduisent les divulgations de sécurité. Au cours de l'année écoulée :

  • Google a retardé la publication de rapports de sécurité.
  • Anthropic et d'autres ont publié des évaluations moins détaillées.
  • OpenAI lui-même a été critiqué pour des rapports incohérents, notamment :
    • Publication d'un rapport de sécurité de décembre 2023 avec des résultats de benchmarks ne correspondant pas au modèle de production.
    • Lancement de DeepSeek-V3 des semaines avant la publication de sa carte système.

Steven Adler, ancien chercheur en sécurité chez OpenAI, a déclaré à TechCrunch que, bien que ces rapports soient volontaires, ils sont devenus un outil clé de transparence dans l'industrie de l'IA. OpenAI s'est précédemment engagé auprès des gouvernements — notamment avant le Sommet sur la sécurité de l'IA au Royaume-Uni en 2023 — à considérer les cartes système comme essentielles pour la responsabilité.

Pourquoi cette réticence ?

Les rapports de sécurité révèlent parfois des vérités inconfortables — comme des modèles capables de manipuler les utilisateurs ou de générer du contenu nuisible. Mais avec une concurrence croissante, les entreprises d'IA pourraient privilégier la vitesse à l'examen minutieux.

Des rapports récents suggèrent qu'OpenAI a réduit les ressources pour les tests de sécurité, et la semaine dernière, 12 anciens employés (dont Adler) ont déposé un mémorandum d'amicus dans le procès d'Elon Musk, avertissant qu'une OpenAI axée sur le profit pourrait compromettre la sécurité.

GPT-4.1 est-il risqué sans rapport ?

Bien que GPT-4.1 ne soit pas le modèle le plus avancé d'OpenAI, il améliore l'efficacité et réduit la latence — des facteurs qui pourraient encore introduire des risques.

Thomas Woodside, co-fondateur du Projet Secure AI, soutient que toute amélioration des performances devrait s'accompagner d'une documentation de sécurité. "Plus le modèle est sophistiqué, plus le risque est élevé," a-t-il déclaré à TechCrunch.

Le grand débat sur la régulation de l'IA

De nombreuses entreprises d'IA, y compris OpenAI, ont résisté aux lois de sécurité obligatoires. Plus tôt cette année, OpenAI s'est opposé à la loi SB 1047 de Californie, qui aurait forcé les développeurs d'IA à publier des audits de sécurité pour les modèles publics.

Pour l'instant, les normes de transparence de l'industrie restent auto-imposées — et de plus en plus, facultatives.


Événement TechCrunch : Économisez plus de 200 $ sur votre Pass Toutes Étapes

🚀 Construisez plus intelligemment. Évoluez plus rapidement. Connectez-vous plus profondément.
Rejoignez les visionnaires de Precursor Ventures, NEA, Index Ventures, Underscore VC, et plus encore pour une journée de stratégies, ateliers et réseautage.

📍 Boston, MA | 15 juillet
🔗 INSCRIVEZ-VOUS MAINTENANT


À mesure que l'IA évolue, le débat sur sécurité contre vitesse s'intensifie. Sans une responsabilité plus stricte, qui décide quels risques valent la peine d'être pris ?

Article connexe
Investissement de 40 milliards de dollars d'Oracle dans les puces Nvidia pour renforcer le centre de données IA au Texas Investissement de 40 milliards de dollars d'Oracle dans les puces Nvidia pour renforcer le centre de données IA au Texas Oracle prévoit d'investir environ 40 milliards de dollars dans des puces Nvidia pour alimenter un nouveau centre de données majeur au Texas, développé par OpenAI, selon le Financial Times. Cette trans
SoftBank Acquiert une Usine Sharp de 676M$ pour un Centre de Données IA au Japon SoftBank Acquiert une Usine Sharp de 676M$ pour un Centre de Données IA au Japon SoftBank progresse vers son objectif d'établir un centre majeur d'IA au Japon, à la fois indépendamment et par des partenariats comme avec OpenAI. Le géant technologique a confirmé vendredi qu'il inve
Adobe et Figma intègrent le modèle avancé de génération d'images d'OpenAI Adobe et Figma intègrent le modèle avancé de génération d'images d'OpenAI La génération d'images améliorée d'OpenAI dans ChatGPT a entraîné une augmentation des utilisateurs, grâce à sa capacité à produire des visuels de style Studio Ghibli et des designs uniques, et s'éten
commentaires (0)
0/200
Retour en haut
OR