option
Maison
Nouvelles
Cosai lancé: les membres fondateurs s'unissent pour une IA sécurisée

Cosai lancé: les membres fondateurs s'unissent pour une IA sécurisée

10 avril 2025
124

Cosai lancé: les membres fondateurs s'unissent pour une IA sécurisée

La croissance rapide de l'IA exige un cadre de sécurité robuste et des normes capables de suivre le rythme. C'est pourquoi nous avons introduit le Secure AI Framework (SAIF) l'année dernière, en sachant que ce n'était que le début. Pour qu'un cadre industriel fonctionne, il faut du travail d'équipe et un lieu de collaboration. C'est là où nous en sommes aujourd'hui.

Au Forum de sécurité d'Aspen, nous sommes ravis d'annoncer le lancement de la Coalition for Secure AI (CoSAI) avec nos amis de l'industrie. Nous avons travaillé dur au cours de l'année écoulée pour réunir cette coalition, dans le but de relever les défis de sécurité uniques que l'IA apporte, à la fois maintenant et à l'avenir.

Les membres fondateurs de CoSAI incluent de grands noms comme Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal et Wiz. Nous nous installons sous l'égide d'OASIS Open, le groupe international de normes et de logiciels open-source.

Présentation des premiers groupes de travail de CoSAI

Alors que tout le monde, des développeurs individuels aux grandes entreprises, travaille à adopter des normes de sécurité communes et des meilleures pratiques, CoSAI soutiendra cet effort collectif en matière de sécurité de l'IA. Aujourd'hui, nous commençons avec les trois premiers domaines sur lesquels la coalition se concentrera, en travaillant main dans la main avec l'industrie et le milieu académique :

  1. Sécurité de la chaîne d'approvisionnement logicielle pour les systèmes d'IA : Google s'efforce d'étendre la provenance SLSA aux modèles d'IA, aidant à déterminer si un logiciel d'IA est sécurisé en retraçant sa création et sa gestion à travers la chaîne d'approvisionnement. Ce groupe de travail vise à renforcer la sécurité de l'IA en fournissant des conseils sur la vérification de la provenance, la gestion des risques liés aux modèles tiers, et l'évaluation de la provenance complète des applications d'IA, en s'appuyant sur les principes de sécurité SSDF et SLSA existants pour l'IA et les logiciels traditionnels.
  2. Préparer les défenseurs à un paysage de cybersécurité en évolution : Gérer la gouvernance quotidienne de l'IA peut être un véritable casse-tête pour les professionnels de la sécurité. Ce groupe de travail créera un cadre pour les défenseurs afin de les aider à identifier où investir et quelles techniques d'atténuation utiliser pour faire face aux impacts de sécurité de l'IA. Le cadre évoluera avec l'essor des avancées en cybersécurité offensive dans les modèles d'IA.
  3. Gouvernance de la sécurité de l'IA : Gouverner la sécurité de l'IA nécessite de nouvelles ressources et une compréhension de ce qui rend la sécurité de l'IA unique. CoSAI développera une liste de risques et de contrôles, une liste de vérification et un tableau de bord pour aider les praticiens à évaluer leur préparation, gérer, surveiller et rendre compte de la sécurité de leurs produits d'IA.

De plus, CoSAI collaborera avec des groupes comme Frontier Model Forum, Partnership on AI, Open Source Security Foundation et ML Commons pour promouvoir une IA responsable.

Et après

À mesure que l'IA continue de progresser, nous nous engageons pleinement à faire en sorte que nos stratégies de gestion des risques suivent le rythme. Nous avons constaté un grand soutien de l'industrie au cours de l'année écoulée pour rendre l'IA sûre et sécurisée. Mieux encore, nous observons une action concrète de la part des développeurs, des experts et des entreprises de toutes tailles pour aider les organisations à utiliser l'IA en toute sécurité.

Les développeurs d'IA ont besoin — et les utilisateurs finaux méritent — un cadre de sécurité à la hauteur du défi et qui saisit de manière responsable les opportunités à venir. CoSAI est la prochaine grande étape dans ce parcours, et nous aurons bientôt d'autres mises à jour. Pour découvrir comment vous pouvez soutenir CoSAI, consultez coalitionforsecureai.org. En attendant, rendez-vous sur notre page Secure AI Framework pour en savoir plus sur le travail de Google en matière de sécurité de l'IA.

Article connexe
"Dot AI Companion Appounces Closure, Discontinues Personalized Service" (L'application Dot AI Companion annonce sa fermeture et interrompt son service personnalisé) Dot, une application d'IA conçue pour servir d'ami personnel et de confident, va cesser ses activités, selon une annonce faite vendredi par ses développeurs. New Computer, la startup à l'origine de Do
Anthropic résout une affaire de piratage de livres générés par l'IA Anthropic résout une affaire de piratage de livres générés par l'IA Anthropic a trouvé une solution à un important litige en matière de droits d'auteur avec des auteurs américains, en acceptant une proposition de règlement de recours collectif qui évite un procès pote
Figma met à la disposition de tous les utilisateurs un outil de création d'applications basé sur l'IA Figma met à la disposition de tous les utilisateurs un outil de création d'applications basé sur l'IA Figma Make, la plateforme de développement innovante de type prompt-to-app dévoilée au début de l'année, est officiellement sortie de la phase bêta et a été déployée pour tous les utilisateurs. Cet ou
commentaires (33)
0/200
JonathanRamirez
JonathanRamirez 27 août 2025 09:01:30 UTC+02:00

Wow, CoSAI sounds like a game-changer for AI security! It's cool to see big players teaming up for SAIF. Curious how this'll shape AI ethics debates. 🤔

BillyAdams
BillyAdams 14 août 2025 03:00:59 UTC+02:00

This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!

RobertMartinez
RobertMartinez 23 juillet 2025 06:59:47 UTC+02:00

Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️

GaryWilson
GaryWilson 24 avril 2025 12:18:04 UTC+02:00

CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔

AnthonyJohnson
AnthonyJohnson 24 avril 2025 08:42:02 UTC+02:00

El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔

FredLewis
FredLewis 23 avril 2025 18:23:37 UTC+02:00

CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔

Retour en haut
OR