COSAI Lanzado: los miembros fundadores se unen para AI Secure

El rápido crecimiento de la IA exige un marco de seguridad robusto y estándares que puedan seguir el ritmo. Por eso, el año pasado presentamos el Marco de Seguridad para la IA (SAIF), sabiendo que era solo el comienzo. Para que cualquier marco de la industria funcione, se necesita trabajo en equipo y un lugar para colaborar. Ahí es donde estamos hoy.
En el Foro de Seguridad de Aspen, estamos emocionados de anunciar el lanzamiento de la Coalición para una IA Segura (CoSAI) con nuestros amigos de la industria. Hemos estado trabajando arduamente durante el último año para formar esta coalición, con el objetivo de abordar los desafíos de seguridad únicos que la IA presenta, tanto ahora como en el futuro.
Los miembros fundadores de CoSAI incluyen grandes nombres como Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal y Wiz. Estamos estableciendo nuestra base en OASIS Open, el grupo internacional de estándares y código abierto.
Presentamos las primeras líneas de trabajo de CoSAI
A medida que todos, desde desarrolladores individuales hasta grandes empresas, trabajan en la adopción de estándares de seguridad comunes y mejores prácticas, CoSAI respaldará este esfuerzo colectivo en la seguridad de la IA. Hoy, comenzamos con las primeras tres áreas en las que la coalición se enfocará, trabajando de la mano con la industria y la academia:
- Seguridad de la cadena de suministro de software para sistemas de IA: Google ha estado impulsando la extensión de SLSA Provenance a modelos de IA, ayudando a determinar si el software de IA es seguro al rastrear su creación y manejo a través de la cadena de suministro. Esta línea de trabajo busca mejorar la seguridad de la IA al ofrecer orientación sobre la verificación de procedencia, la gestión de riesgos de modelos de terceros y la evaluación de la procedencia completa de las aplicaciones de IA, basándose en los principios de seguridad existentes de SSDF y SLSA para software de IA y tradicional.
- Preparando a los defensores para un panorama de ciberseguridad cambiante: Lidiar con la gobernanza diaria de la IA puede ser un verdadero dolor de cabeza para los responsables de seguridad. Esta línea de trabajo creará un marco para defensores que les ayude a identificar dónde invertir y qué técnicas de mitigación usar para abordar los impactos de seguridad de la IA. El marco evolucionará con el avance de los desarrollos en ciberseguridad ofensiva en modelos de IA.
- Gobernanza de la seguridad de la IA: Gobernar la seguridad de la IA requiere nuevos recursos y una comprensión de lo que hace única a la seguridad de la IA. CoSAI desarrollará una lista de riesgos y controles, una lista de verificación y un cuadro de mando para ayudar a los profesionales a evaluar su preparación, gestionar, monitorear e informar sobre la seguridad de sus productos de IA.
Además, CoSAI se asociará con grupos como Frontier Model Forum, Partnership on AI, Open Source Security Foundation y ML Commons para promover una IA responsable.
¿Qué sigue?
A medida que la IA sigue avanzando, estamos totalmente comprometidos en asegurar que nuestras estrategias de gestión de riesgos mantengan el ritmo. Hemos visto un gran apoyo de la industria durante el último año para hacer que la IA sea segura. Mejor aún, estamos viendo acciones reales de desarrolladores, expertos y empresas de todos los tamaños para ayudar a las organizaciones a usar la IA de manera segura.
Los desarrolladores de IA necesitan, y los usuarios finales merecen, un marco de seguridad que esté a la altura del desafío y aproveche responsablemente las oportunidades futuras. CoSAI es el próximo gran paso en este viaje, y pronto tendremos más actualizaciones. Para saber cómo puedes apoyar a CoSAI, visita coalitionforsecureai.org. Mientras tanto, dirígete a nuestra página del Marco de Seguridad para la IA para obtener más información sobre el trabajo de Google en la seguridad de la IA.
Artículo relacionado
Salesforce Presenta Compañeros Digitales de IA en Slack para Competir con Microsoft Copilot
Salesforce lanzó una nueva estrategia de IA para el lugar de trabajo, presentando “compañeros digitales” especializados integrados en las conversaciones de Slack, según reveló la compañía el lunes.La
Inversión de Oracle de $40 mil millones en chips Nvidia impulsa el centro de datos de IA en Texas
Oracle planea invertir aproximadamente $40 mil millones en chips Nvidia para alimentar un importante centro de datos nuevo en Texas, desarrollado por OpenAI, según informó el Financial Times. Este acu
Aplicación de Meta AI para Introducir un Nivel Premium y Anuncios
La aplicación de IA de Meta pronto podría incluir una suscripción de pago, siguiendo el modelo de competidores como OpenAI, Google y Microsoft. Durante una llamada de resultados del primer trimestre d
comentario (32)
0/200
BillyAdams
14 de agosto de 2025 03:00:59 GMT+02:00
This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!
0
RobertMartinez
23 de julio de 2025 06:59:47 GMT+02:00
Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️
0
GaryWilson
24 de abril de 2025 12:18:04 GMT+02:00
CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔
0
AnthonyJohnson
24 de abril de 2025 08:42:02 GMT+02:00
El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔
0
FredLewis
23 de abril de 2025 18:23:37 GMT+02:00
CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔
0
AlbertThomas
16 de abril de 2025 20:24:08 GMT+02:00
CoSAI의 안전한 AI에 대한 초점은 정말 중요하지만, 작은 팀이 구현하기에는 조금 복잡한 것 같아요. 그래도 커뮤니티가 함께 노력하는 모습이 멋져요! 조금 더 간단하게 할 수 있다면 좋겠네요 🤔
0
El rápido crecimiento de la IA exige un marco de seguridad robusto y estándares que puedan seguir el ritmo. Por eso, el año pasado presentamos el Marco de Seguridad para la IA (SAIF), sabiendo que era solo el comienzo. Para que cualquier marco de la industria funcione, se necesita trabajo en equipo y un lugar para colaborar. Ahí es donde estamos hoy.
En el Foro de Seguridad de Aspen, estamos emocionados de anunciar el lanzamiento de la Coalición para una IA Segura (CoSAI) con nuestros amigos de la industria. Hemos estado trabajando arduamente durante el último año para formar esta coalición, con el objetivo de abordar los desafíos de seguridad únicos que la IA presenta, tanto ahora como en el futuro.
Los miembros fundadores de CoSAI incluyen grandes nombres como Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal y Wiz. Estamos estableciendo nuestra base en OASIS Open, el grupo internacional de estándares y código abierto.
Presentamos las primeras líneas de trabajo de CoSAI
A medida que todos, desde desarrolladores individuales hasta grandes empresas, trabajan en la adopción de estándares de seguridad comunes y mejores prácticas, CoSAI respaldará este esfuerzo colectivo en la seguridad de la IA. Hoy, comenzamos con las primeras tres áreas en las que la coalición se enfocará, trabajando de la mano con la industria y la academia:
- Seguridad de la cadena de suministro de software para sistemas de IA: Google ha estado impulsando la extensión de SLSA Provenance a modelos de IA, ayudando a determinar si el software de IA es seguro al rastrear su creación y manejo a través de la cadena de suministro. Esta línea de trabajo busca mejorar la seguridad de la IA al ofrecer orientación sobre la verificación de procedencia, la gestión de riesgos de modelos de terceros y la evaluación de la procedencia completa de las aplicaciones de IA, basándose en los principios de seguridad existentes de SSDF y SLSA para software de IA y tradicional.
- Preparando a los defensores para un panorama de ciberseguridad cambiante: Lidiar con la gobernanza diaria de la IA puede ser un verdadero dolor de cabeza para los responsables de seguridad. Esta línea de trabajo creará un marco para defensores que les ayude a identificar dónde invertir y qué técnicas de mitigación usar para abordar los impactos de seguridad de la IA. El marco evolucionará con el avance de los desarrollos en ciberseguridad ofensiva en modelos de IA.
- Gobernanza de la seguridad de la IA: Gobernar la seguridad de la IA requiere nuevos recursos y una comprensión de lo que hace única a la seguridad de la IA. CoSAI desarrollará una lista de riesgos y controles, una lista de verificación y un cuadro de mando para ayudar a los profesionales a evaluar su preparación, gestionar, monitorear e informar sobre la seguridad de sus productos de IA.
Además, CoSAI se asociará con grupos como Frontier Model Forum, Partnership on AI, Open Source Security Foundation y ML Commons para promover una IA responsable.
¿Qué sigue?
A medida que la IA sigue avanzando, estamos totalmente comprometidos en asegurar que nuestras estrategias de gestión de riesgos mantengan el ritmo. Hemos visto un gran apoyo de la industria durante el último año para hacer que la IA sea segura. Mejor aún, estamos viendo acciones reales de desarrolladores, expertos y empresas de todos los tamaños para ayudar a las organizaciones a usar la IA de manera segura.
Los desarrolladores de IA necesitan, y los usuarios finales merecen, un marco de seguridad que esté a la altura del desafío y aproveche responsablemente las oportunidades futuras. CoSAI es el próximo gran paso en este viaje, y pronto tendremos más actualizaciones. Para saber cómo puedes apoyar a CoSAI, visita coalitionforsecureai.org. Mientras tanto, dirígete a nuestra página del Marco de Seguridad para la IA para obtener más información sobre el trabajo de Google en la seguridad de la IA.



This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!




Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️




CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔




El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔




CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔




CoSAI의 안전한 AI에 대한 초점은 정말 중요하지만, 작은 팀이 구현하기에는 조금 복잡한 것 같아요. 그래도 커뮤니티가 함께 노력하는 모습이 멋져요! 조금 더 간단하게 할 수 있다면 좋겠네요 🤔












