Cosai lançado: membros fundadores se unem para obter a IA segura

O rápido crescimento da AI exige um framework de segurança robusto e padrões que possam acompanhar. Foi por isso que introduzimos o Secure AI Framework (SAIF) no último ano, sabendo que era apenas o começo. Para fazer qualquer framework da indústria funcionar, é necessário trabalho em equipe e um lugar para colaborar. É onde estamos hoje.
No Aspen Security Forum, estamos animados para anunciar o lançamento da Coalition for Secure AI (CoSAI) com nossos amigos da indústria. Trabalhamos arduamente no último ano para reunir essa coalizão, com o objetivo de enfrentar os desafios de segurança únicos que a AI traz, tanto agora quanto no futuro.
Os membros fundadores da CoSAI incluem grandes nomes como Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal e Wiz. Estamos estabelecendo nossa base sob a OASIS Open, o grupo internacional de padrões e código aberto.
Apresentando os Primeiros Fluxos de Trabalho da CoSAI
À medida que todos, desde desenvolvedores individuais até grandes empresas, trabalham na adoção de padrões de segurança comuns e melhores práticas, a CoSAI apoiará esse esforço coletivo em segurança de AI. Hoje, estamos iniciando com as três primeiras áreas nas quais a coalizão se concentrará, trabalhando lado a lado com a indústria e a academia:
- Segurança da Cadeia de Suprimentos de Software para Sistemas de AI: O Google tem pressionado para estender o SLSA Provenance aos modelos de AI, ajudando a determinar se o software de AI é seguro rastreando sua criação e manipulação através da cadeia de suprimentos. Este fluxo de trabalho visa aumentar a segurança da AI, oferecendo orientação sobre verificação de procedência, gerenciamento de riscos de modelos de terceiros e avaliação da procedência completa da aplicação de AI, construindo sobre os princípios de segurança SSDF e SLSA existentes para software de AI e tradicional.
- Preparando defensores para um cenário de cibersegurança em mudança: Lidar com a governança diária de AI pode ser uma verdadeira dor de cabeça para os profissionais de segurança. Este fluxo de trabalho criará um framework para defensores, ajudando-os a identificar onde investir e quais técnicas de mitigação usar para enfrentar os impactos de segurança da AI. O framework evoluirá com o avanço das inovações em cibersegurança ofensiva em modelos de AI.
- Governança de segurança de AI: A governança da segurança de AI requer novos recursos e uma compreensão do que torna a segurança de AI única. A CoSAI desenvolverá uma lista de riscos e controles, uma lista de verificação e um scorecard para ajudar os profissionais a avaliar sua prontidão, gerenciar, monitorar e relatar sobre a segurança de seus produtos de AI.
Além disso, a CoSAI se unirá a grupos como Frontier Model Forum, Partnership on AI, Open Source Security Foundation e ML Commons para avançar na AI responsável.
O que vem a seguir
À medida que a AI continua avançando, estamos totalmente comprometidos em garantir que nossas estratégias de gerenciamento de riscos acompanhem. Vimos grande apoio da indústria no último ano para tornar a AI segura. Melhor ainda, estamos vendo ações concretas de desenvolvedores, especialistas e empresas de todos os tamanhos para ajudar as organizações a usar a AI com segurança.
Os desenvolvedores de AI precisam — e os usuários finais merecem — um framework de segurança que esteja à altura do desafio e aproveite responsavelmente as oportunidades futuras. A CoSAI é o próximo grande passo nessa jornada, e teremos mais atualizações em breve. Para descobrir como você pode apoiar a CoSAI, visite coalitionforsecureai.org. Enquanto isso, acesse nossa página do Secure AI Framework para saber mais sobre o trabalho do Google em segurança de AI.
Artigo relacionado
"O aplicativo Dot AI Companion anuncia o encerramento e descontinua o serviço personalizado"
Dot, um aplicativo de acompanhamento de IA projetado para funcionar como amigo pessoal e confidente, encerrará suas operações, de acordo com um anúncio feito na sexta-feira por seus desenvolvedores. A
Anthropic resolve caso legal sobre pirataria de livros gerados por IA
A Anthropic chegou a uma resolução em uma importante disputa de direitos autorais com autores norte-americanos, concordando com uma proposta de acordo de ação coletiva que evita um julgamento potencia
Figma lança ferramenta de criação de aplicativos com IA para todos os usuários
Figma Make, a inovadora plataforma de desenvolvimento prompt-to-app revelada no início deste ano, saiu oficialmente da versão beta e foi lançada para todos os usuários. Essa ferramenta inovadora se ju
Comentários (33)
0/200
JonathanRamirez
27 de Agosto de 2025 à30 08:01:30 WEST
Wow, CoSAI sounds like a game-changer for AI security! It's cool to see big players teaming up for SAIF. Curious how this'll shape AI ethics debates. 🤔
0
BillyAdams
14 de Agosto de 2025 à59 02:00:59 WEST
This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!
0
RobertMartinez
23 de Julho de 2025 à47 05:59:47 WEST
Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️
0
GaryWilson
24 de Abril de 2025 à4 11:18:04 WEST
CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔
0
AnthonyJohnson
24 de Abril de 2025 à2 07:42:02 WEST
El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔
0
FredLewis
23 de Abril de 2025 à37 17:23:37 WEST
CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔
0
O rápido crescimento da AI exige um framework de segurança robusto e padrões que possam acompanhar. Foi por isso que introduzimos o Secure AI Framework (SAIF) no último ano, sabendo que era apenas o começo. Para fazer qualquer framework da indústria funcionar, é necessário trabalho em equipe e um lugar para colaborar. É onde estamos hoje.
No Aspen Security Forum, estamos animados para anunciar o lançamento da Coalition for Secure AI (CoSAI) com nossos amigos da indústria. Trabalhamos arduamente no último ano para reunir essa coalizão, com o objetivo de enfrentar os desafios de segurança únicos que a AI traz, tanto agora quanto no futuro.
Os membros fundadores da CoSAI incluem grandes nomes como Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal e Wiz. Estamos estabelecendo nossa base sob a OASIS Open, o grupo internacional de padrões e código aberto.
Apresentando os Primeiros Fluxos de Trabalho da CoSAI
À medida que todos, desde desenvolvedores individuais até grandes empresas, trabalham na adoção de padrões de segurança comuns e melhores práticas, a CoSAI apoiará esse esforço coletivo em segurança de AI. Hoje, estamos iniciando com as três primeiras áreas nas quais a coalizão se concentrará, trabalhando lado a lado com a indústria e a academia:
- Segurança da Cadeia de Suprimentos de Software para Sistemas de AI: O Google tem pressionado para estender o SLSA Provenance aos modelos de AI, ajudando a determinar se o software de AI é seguro rastreando sua criação e manipulação através da cadeia de suprimentos. Este fluxo de trabalho visa aumentar a segurança da AI, oferecendo orientação sobre verificação de procedência, gerenciamento de riscos de modelos de terceiros e avaliação da procedência completa da aplicação de AI, construindo sobre os princípios de segurança SSDF e SLSA existentes para software de AI e tradicional.
- Preparando defensores para um cenário de cibersegurança em mudança: Lidar com a governança diária de AI pode ser uma verdadeira dor de cabeça para os profissionais de segurança. Este fluxo de trabalho criará um framework para defensores, ajudando-os a identificar onde investir e quais técnicas de mitigação usar para enfrentar os impactos de segurança da AI. O framework evoluirá com o avanço das inovações em cibersegurança ofensiva em modelos de AI.
- Governança de segurança de AI: A governança da segurança de AI requer novos recursos e uma compreensão do que torna a segurança de AI única. A CoSAI desenvolverá uma lista de riscos e controles, uma lista de verificação e um scorecard para ajudar os profissionais a avaliar sua prontidão, gerenciar, monitorar e relatar sobre a segurança de seus produtos de AI.
Além disso, a CoSAI se unirá a grupos como Frontier Model Forum, Partnership on AI, Open Source Security Foundation e ML Commons para avançar na AI responsável.
O que vem a seguir
À medida que a AI continua avançando, estamos totalmente comprometidos em garantir que nossas estratégias de gerenciamento de riscos acompanhem. Vimos grande apoio da indústria no último ano para tornar a AI segura. Melhor ainda, estamos vendo ações concretas de desenvolvedores, especialistas e empresas de todos os tamanhos para ajudar as organizações a usar a AI com segurança.
Os desenvolvedores de AI precisam — e os usuários finais merecem — um framework de segurança que esteja à altura do desafio e aproveite responsavelmente as oportunidades futuras. A CoSAI é o próximo grande passo nessa jornada, e teremos mais atualizações em breve. Para descobrir como você pode apoiar a CoSAI, visite coalitionforsecureai.org. Enquanto isso, acesse nossa página do Secure AI Framework para saber mais sobre o trabalho do Google em segurança de AI.



Wow, CoSAI sounds like a game-changer for AI security! It's cool to see big players teaming up for SAIF. Curious how this'll shape AI ethics debates. 🤔




This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!




Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️




CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔




El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔




CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔












