COSAI Lanzado: los miembros fundadores se unen para AI Secure

El rápido crecimiento de la IA exige un marco de seguridad robusto y estándares que puedan seguir el ritmo. Por eso, el año pasado presentamos el Marco de Seguridad para la IA (SAIF), sabiendo que era solo el comienzo. Para que cualquier marco de la industria funcione, se necesita trabajo en equipo y un lugar para colaborar. Ahí es donde estamos hoy.
En el Foro de Seguridad de Aspen, estamos emocionados de anunciar el lanzamiento de la Coalición para una IA Segura (CoSAI) con nuestros amigos de la industria. Hemos estado trabajando arduamente durante el último año para formar esta coalición, con el objetivo de abordar los desafíos de seguridad únicos que la IA presenta, tanto ahora como en el futuro.
Los miembros fundadores de CoSAI incluyen grandes nombres como Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal y Wiz. Estamos estableciendo nuestra base en OASIS Open, el grupo internacional de estándares y código abierto.
Presentamos las primeras líneas de trabajo de CoSAI
A medida que todos, desde desarrolladores individuales hasta grandes empresas, trabajan en la adopción de estándares de seguridad comunes y mejores prácticas, CoSAI respaldará este esfuerzo colectivo en la seguridad de la IA. Hoy, comenzamos con las primeras tres áreas en las que la coalición se enfocará, trabajando de la mano con la industria y la academia:
- Seguridad de la cadena de suministro de software para sistemas de IA: Google ha estado impulsando la extensión de SLSA Provenance a modelos de IA, ayudando a determinar si el software de IA es seguro al rastrear su creación y manejo a través de la cadena de suministro. Esta línea de trabajo busca mejorar la seguridad de la IA al ofrecer orientación sobre la verificación de procedencia, la gestión de riesgos de modelos de terceros y la evaluación de la procedencia completa de las aplicaciones de IA, basándose en los principios de seguridad existentes de SSDF y SLSA para software de IA y tradicional.
- Preparando a los defensores para un panorama de ciberseguridad cambiante: Lidiar con la gobernanza diaria de la IA puede ser un verdadero dolor de cabeza para los responsables de seguridad. Esta línea de trabajo creará un marco para defensores que les ayude a identificar dónde invertir y qué técnicas de mitigación usar para abordar los impactos de seguridad de la IA. El marco evolucionará con el avance de los desarrollos en ciberseguridad ofensiva en modelos de IA.
- Gobernanza de la seguridad de la IA: Gobernar la seguridad de la IA requiere nuevos recursos y una comprensión de lo que hace única a la seguridad de la IA. CoSAI desarrollará una lista de riesgos y controles, una lista de verificación y un cuadro de mando para ayudar a los profesionales a evaluar su preparación, gestionar, monitorear e informar sobre la seguridad de sus productos de IA.
Además, CoSAI se asociará con grupos como Frontier Model Forum, Partnership on AI, Open Source Security Foundation y ML Commons para promover una IA responsable.
¿Qué sigue?
A medida que la IA sigue avanzando, estamos totalmente comprometidos en asegurar que nuestras estrategias de gestión de riesgos mantengan el ritmo. Hemos visto un gran apoyo de la industria durante el último año para hacer que la IA sea segura. Mejor aún, estamos viendo acciones reales de desarrolladores, expertos y empresas de todos los tamaños para ayudar a las organizaciones a usar la IA de manera segura.
Los desarrolladores de IA necesitan, y los usuarios finales merecen, un marco de seguridad que esté a la altura del desafío y aproveche responsablemente las oportunidades futuras. CoSAI es el próximo gran paso en este viaje, y pronto tendremos más actualizaciones. Para saber cómo puedes apoyar a CoSAI, visita coalitionforsecureai.org. Mientras tanto, dirígete a nuestra página del Marco de Seguridad para la IA para obtener más información sobre el trabajo de Google en la seguridad de la IA.
Artículo relacionado
"Dot AI Companion App anuncia su cierre y suspende el servicio personalizado"
Dot, una aplicación de inteligencia artificial diseñada para funcionar como amigo personal y confidente, dejará de funcionar, según anunciaron el viernes sus desarrolladores. New Computer, la empresa
Anthropic resuelve un caso de piratería de libros generados por inteligencia artificial
Anthropic ha llegado a una resolución en un importante litigio sobre derechos de autor con autores estadounidenses, aceptando una propuesta de acuerdo de demanda colectiva que evita un juicio potencia
Figma pone a disposición de todos los usuarios su herramienta de creación de aplicaciones basada en inteligencia artificial
Figma Make, la innovadora plataforma de desarrollo "prompt-to-app" presentada a principios de este año, ha salido oficialmente de la fase beta y se ha puesto a disposición de todos los usuarios. Esta
comentario (33)
0/200
JonathanRamirez
27 de agosto de 2025 09:01:30 GMT+02:00
Wow, CoSAI sounds like a game-changer for AI security! It's cool to see big players teaming up for SAIF. Curious how this'll shape AI ethics debates. 🤔
0
BillyAdams
14 de agosto de 2025 03:00:59 GMT+02:00
This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!
0
RobertMartinez
23 de julio de 2025 06:59:47 GMT+02:00
Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️
0
GaryWilson
24 de abril de 2025 12:18:04 GMT+02:00
CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔
0
AnthonyJohnson
24 de abril de 2025 08:42:02 GMT+02:00
El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔
0
FredLewis
23 de abril de 2025 18:23:37 GMT+02:00
CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔
0
El rápido crecimiento de la IA exige un marco de seguridad robusto y estándares que puedan seguir el ritmo. Por eso, el año pasado presentamos el Marco de Seguridad para la IA (SAIF), sabiendo que era solo el comienzo. Para que cualquier marco de la industria funcione, se necesita trabajo en equipo y un lugar para colaborar. Ahí es donde estamos hoy.
En el Foro de Seguridad de Aspen, estamos emocionados de anunciar el lanzamiento de la Coalición para una IA Segura (CoSAI) con nuestros amigos de la industria. Hemos estado trabajando arduamente durante el último año para formar esta coalición, con el objetivo de abordar los desafíos de seguridad únicos que la IA presenta, tanto ahora como en el futuro.
Los miembros fundadores de CoSAI incluyen grandes nombres como Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal y Wiz. Estamos estableciendo nuestra base en OASIS Open, el grupo internacional de estándares y código abierto.
Presentamos las primeras líneas de trabajo de CoSAI
A medida que todos, desde desarrolladores individuales hasta grandes empresas, trabajan en la adopción de estándares de seguridad comunes y mejores prácticas, CoSAI respaldará este esfuerzo colectivo en la seguridad de la IA. Hoy, comenzamos con las primeras tres áreas en las que la coalición se enfocará, trabajando de la mano con la industria y la academia:
- Seguridad de la cadena de suministro de software para sistemas de IA: Google ha estado impulsando la extensión de SLSA Provenance a modelos de IA, ayudando a determinar si el software de IA es seguro al rastrear su creación y manejo a través de la cadena de suministro. Esta línea de trabajo busca mejorar la seguridad de la IA al ofrecer orientación sobre la verificación de procedencia, la gestión de riesgos de modelos de terceros y la evaluación de la procedencia completa de las aplicaciones de IA, basándose en los principios de seguridad existentes de SSDF y SLSA para software de IA y tradicional.
- Preparando a los defensores para un panorama de ciberseguridad cambiante: Lidiar con la gobernanza diaria de la IA puede ser un verdadero dolor de cabeza para los responsables de seguridad. Esta línea de trabajo creará un marco para defensores que les ayude a identificar dónde invertir y qué técnicas de mitigación usar para abordar los impactos de seguridad de la IA. El marco evolucionará con el avance de los desarrollos en ciberseguridad ofensiva en modelos de IA.
- Gobernanza de la seguridad de la IA: Gobernar la seguridad de la IA requiere nuevos recursos y una comprensión de lo que hace única a la seguridad de la IA. CoSAI desarrollará una lista de riesgos y controles, una lista de verificación y un cuadro de mando para ayudar a los profesionales a evaluar su preparación, gestionar, monitorear e informar sobre la seguridad de sus productos de IA.
Además, CoSAI se asociará con grupos como Frontier Model Forum, Partnership on AI, Open Source Security Foundation y ML Commons para promover una IA responsable.
¿Qué sigue?
A medida que la IA sigue avanzando, estamos totalmente comprometidos en asegurar que nuestras estrategias de gestión de riesgos mantengan el ritmo. Hemos visto un gran apoyo de la industria durante el último año para hacer que la IA sea segura. Mejor aún, estamos viendo acciones reales de desarrolladores, expertos y empresas de todos los tamaños para ayudar a las organizaciones a usar la IA de manera segura.
Los desarrolladores de IA necesitan, y los usuarios finales merecen, un marco de seguridad que esté a la altura del desafío y aproveche responsablemente las oportunidades futuras. CoSAI es el próximo gran paso en este viaje, y pronto tendremos más actualizaciones. Para saber cómo puedes apoyar a CoSAI, visita coalitionforsecureai.org. Mientras tanto, dirígete a nuestra página del Marco de Seguridad para la IA para obtener más información sobre el trabajo de Google en la seguridad de la IA.



Wow, CoSAI sounds like a game-changer for AI security! It's cool to see big players teaming up for SAIF. Curious how this'll shape AI ethics debates. 🤔




This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!




Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️




CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔




El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔




CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔












