option
Maison Nouvelles L'accès aux modèles d'IA futurs dans l'API d'OpenAI pourrait nécessiter une identification vérifiée

L'accès aux modèles d'IA futurs dans l'API d'OpenAI pourrait nécessiter une identification vérifiée

date de sortie date de sortie 3 juin 2025
vues vues 5

L

OpenAI lance un programme d'organisation vérifiée pour un accès avancé à l'IA

La semaine dernière, OpenAI a annoncé une mise à jour majeure de ses politiques pour les développeurs, introduisant un nouveau processus de vérification appelé « Organisation Vérifiée ». Cette initiative vise à renforcer la sécurité et à garantir l’utilisation responsable des modèles et outils d’IA les plus avancés de l’entreprise. Bien que ce programme représente un pas vers une accessibilité accrue, il reflète également un changement dans la manière dont OpenAI prévoit de gérer les risques potentiels associés aux technologies d’IA de plus en plus puissantes. Selon la page de support d’OpenAI, le programme Organisation Vérifiée est conçu pour « déverrouiller l’accès aux modèles et capacités les plus avancés sur la plateforme OpenAI ». Les développeurs souhaitant utiliser ces fonctionnalités de pointe doivent passer par ce processus de vérification, qui implique de soumettre une pièce d'identité délivrée par le gouvernement provenant d’un pays pris en charge par l’API d’OpenAI. Il est important de noter qu’une seule pièce d’identité peut vérifier une organisation unique dans un délai de 90 jours, et non toutes les organisations seront qualifiées pour la vérification.

Pourquoi ce changement ?

Dans son annonce, OpenAI a souligné son engagement à concilier accessibilité et sécurité. « Chez OpenAI, nous prenons notre responsabilité très au sérieux pour garantir que l’IA soit à la fois largement accessible et utilisée en toute sécurité », peut-on lire dans le communiqué. Cependant, la société a reconnu que少数 développeurs ont mal utilisé l’API d’OpenAI de manière contraire à leurs politiques d’utilisation. En mettant en place ce processus de vérification, OpenAI espère réduire les abus tout en maintenant les modèles avancés disponibles aux utilisateurs légitimes.

Qu’implique la vérification ?

Le processus de vérification lui-même est simple et ne prend que quelques minutes. Les développeurs doivent fournir une pièce d’identité valide délivrée par le gouvernement et passer par un processus de soumission simple. Une fois vérifié, les organisations obtiennent accès aux fonctionnalités premium et aux dernières versions de modèles. Cependant, OpenAI a clairement indiqué que tout le monde ne passera pas le processus de sélection – certaines entités peuvent ne pas remplir les critères d’éligibilité en raison de comportements passés ou d'autres facteurs.

Implications potentielles

Ce mouvement reflète les préoccupations croissantes concernant le déploiement éthique et sécurisé des systèmes d'IA. Alors que les modèles d'IA deviennent plus sophistiqués, ils posent également des risques plus importants, tels que faciliter des activités malveillantes ou voler des propriétés intellectuelles. Par exemple, OpenAI a précédemment divulgué des efforts pour combattre les abus de ses outils, y compris des enquêtes sur des violations présumées impliquant des groupes liés à la Corée du Nord. De plus, Bloomberg a rapporté plus tôt cette année qu’OpenAI enquêtait sur des violations présumées liées à une fuite de données dans un laboratoire chinois d’IA, soulignant ainsi la nécessité de contrôles plus stricts. L'introduction du programme Organisation Vérifiée s'aligne sur des tendances plus larges dans l'industrie vers une surveillance accrue du développement et de la distribution de l'IA. Elle souligne également la position proactive d'OpenAI pour répondre aux défis émergents dans le domaine. Simultanément, la décision de restreindre l'accès soulève des questions sur l’inclusivité et la possibilité que les petites ou nouvelles organisations rencontrent des obstacles à leur entrée.

Un pas vers l’avenir

Malgré ces considérations, OpenAI a présenté le programme Organisation Vérifiée comme une étape nécessaire. Dans un tweet accompagnant l'annonce, l'entreprise a suggéré que ce programme préparera les utilisateurs pour « le prochain modèle excitant ». Que cet initiative renforce ou crée des conséquences imprévues reste à voir. Une chose est certaine : le paysage de la gouvernance de l'IA continue d'évoluer rapidement.

Article connexe
OpenAI Enhances AI Model Behind Its Operator Agent OpenAI Enhances AI Model Behind Its Operator Agent OpenAI Takes Operator to the Next LevelOpenAI is giving its autonomous AI agent, Operator, a major upgrade. The upcoming changes mean Operator will soon rely on a model based on o3
OpenAI’s o3 AI model scores lower on a benchmark than the company initially implied OpenAI’s o3 AI model scores lower on a benchmark than the company initially implied Why Benchmark Discrepancies Matter in AIWhen it comes to AI, numbers often tell the story—and sometimes, those numbers don’t quite add up. Take OpenAI’s o3 model, for instance. The
Ziff Davis, Owner of IGN and CNET, Files Lawsuit Against OpenAI Ziff Davis, Owner of IGN and CNET, Files Lawsuit Against OpenAI Ziff Davis Files Copyright Infringement Lawsuit Against OpenAIIn a move that’s sent ripples through the tech and publishing worlds, Ziff Davis—a massive conglomerate behind brands
commentaires (0)
0/200
Retour en haut
OR