option
Maison
Nouvelles
Cosai lancé: les membres fondateurs s'unissent pour une IA sécurisée

Cosai lancé: les membres fondateurs s'unissent pour une IA sécurisée

10 avril 2025
112

Cosai lancé: les membres fondateurs s'unissent pour une IA sécurisée

La croissance rapide de l'IA exige un cadre de sécurité robuste et des normes capables de suivre le rythme. C'est pourquoi nous avons introduit le Secure AI Framework (SAIF) l'année dernière, en sachant que ce n'était que le début. Pour qu'un cadre industriel fonctionne, il faut du travail d'équipe et un lieu de collaboration. C'est là où nous en sommes aujourd'hui.

Au Forum de sécurité d'Aspen, nous sommes ravis d'annoncer le lancement de la Coalition for Secure AI (CoSAI) avec nos amis de l'industrie. Nous avons travaillé dur au cours de l'année écoulée pour réunir cette coalition, dans le but de relever les défis de sécurité uniques que l'IA apporte, à la fois maintenant et à l'avenir.

Les membres fondateurs de CoSAI incluent de grands noms comme Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal et Wiz. Nous nous installons sous l'égide d'OASIS Open, le groupe international de normes et de logiciels open-source.

Présentation des premiers groupes de travail de CoSAI

Alors que tout le monde, des développeurs individuels aux grandes entreprises, travaille à adopter des normes de sécurité communes et des meilleures pratiques, CoSAI soutiendra cet effort collectif en matière de sécurité de l'IA. Aujourd'hui, nous commençons avec les trois premiers domaines sur lesquels la coalition se concentrera, en travaillant main dans la main avec l'industrie et le milieu académique :

  1. Sécurité de la chaîne d'approvisionnement logicielle pour les systèmes d'IA : Google s'efforce d'étendre la provenance SLSA aux modèles d'IA, aidant à déterminer si un logiciel d'IA est sécurisé en retraçant sa création et sa gestion à travers la chaîne d'approvisionnement. Ce groupe de travail vise à renforcer la sécurité de l'IA en fournissant des conseils sur la vérification de la provenance, la gestion des risques liés aux modèles tiers, et l'évaluation de la provenance complète des applications d'IA, en s'appuyant sur les principes de sécurité SSDF et SLSA existants pour l'IA et les logiciels traditionnels.
  2. Préparer les défenseurs à un paysage de cybersécurité en évolution : Gérer la gouvernance quotidienne de l'IA peut être un véritable casse-tête pour les professionnels de la sécurité. Ce groupe de travail créera un cadre pour les défenseurs afin de les aider à identifier où investir et quelles techniques d'atténuation utiliser pour faire face aux impacts de sécurité de l'IA. Le cadre évoluera avec l'essor des avancées en cybersécurité offensive dans les modèles d'IA.
  3. Gouvernance de la sécurité de l'IA : Gouverner la sécurité de l'IA nécessite de nouvelles ressources et une compréhension de ce qui rend la sécurité de l'IA unique. CoSAI développera une liste de risques et de contrôles, une liste de vérification et un tableau de bord pour aider les praticiens à évaluer leur préparation, gérer, surveiller et rendre compte de la sécurité de leurs produits d'IA.

De plus, CoSAI collaborera avec des groupes comme Frontier Model Forum, Partnership on AI, Open Source Security Foundation et ML Commons pour promouvoir une IA responsable.

Et après

À mesure que l'IA continue de progresser, nous nous engageons pleinement à faire en sorte que nos stratégies de gestion des risques suivent le rythme. Nous avons constaté un grand soutien de l'industrie au cours de l'année écoulée pour rendre l'IA sûre et sécurisée. Mieux encore, nous observons une action concrète de la part des développeurs, des experts et des entreprises de toutes tailles pour aider les organisations à utiliser l'IA en toute sécurité.

Les développeurs d'IA ont besoin — et les utilisateurs finaux méritent — un cadre de sécurité à la hauteur du défi et qui saisit de manière responsable les opportunités à venir. CoSAI est la prochaine grande étape dans ce parcours, et nous aurons bientôt d'autres mises à jour. Pour découvrir comment vous pouvez soutenir CoSAI, consultez coalitionforsecureai.org. En attendant, rendez-vous sur notre page Secure AI Framework pour en savoir plus sur le travail de Google en matière de sécurité de l'IA.

Article connexe
Salesforce Dévoile des Coéquipiers Numériques IA dans Slack pour Rivaliser avec Microsoft Copilot Salesforce Dévoile des Coéquipiers Numériques IA dans Slack pour Rivaliser avec Microsoft Copilot Le nouvel outil, Agentforce dans Slack, permet aux entreprises de créer et de déployer des agents IA spécifiques à des tâches qui recherchent dans les discussions professionnelles, accèdent aux donnée
Investissement de 40 milliards de dollars d'Oracle dans les puces Nvidia pour renforcer le centre de données IA au Texas Investissement de 40 milliards de dollars d'Oracle dans les puces Nvidia pour renforcer le centre de données IA au Texas Oracle prévoit d'investir environ 40 milliards de dollars dans des puces Nvidia pour alimenter un nouveau centre de données majeur au Texas, développé par OpenAI, selon le Financial Times. Cette trans
Application Meta AI pour introduire un niveau premium et des publicités Application Meta AI pour introduire un niveau premium et des publicités L'application d'IA de Meta pourrait bientôt proposer un abonnement payant, à l'image des offres de concurrents comme OpenAI, Google et Microsoft. Lors d'une conférence sur les résultats du premier tri
commentaires (32)
0/200
BillyAdams
BillyAdams 14 août 2025 03:00:59 UTC+02:00

This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!

RobertMartinez
RobertMartinez 23 juillet 2025 06:59:47 UTC+02:00

Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️

GaryWilson
GaryWilson 24 avril 2025 12:18:04 UTC+02:00

CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔

AnthonyJohnson
AnthonyJohnson 24 avril 2025 08:42:02 UTC+02:00

El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔

FredLewis
FredLewis 23 avril 2025 18:23:37 UTC+02:00

CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔

AlbertThomas
AlbertThomas 16 avril 2025 20:24:08 UTC+02:00

CoSAI의 안전한 AI에 대한 초점은 정말 중요하지만, 작은 팀이 구현하기에는 조금 복잡한 것 같아요. 그래도 커뮤니티가 함께 노력하는 모습이 멋져요! 조금 더 간단하게 할 수 있다면 좋겠네요 🤔

Retour en haut
OR