Cosai lançado: membros fundadores se unem para obter a IA segura

O rápido crescimento da AI exige um framework de segurança robusto e padrões que possam acompanhar. Foi por isso que introduzimos o Secure AI Framework (SAIF) no último ano, sabendo que era apenas o começo. Para fazer qualquer framework da indústria funcionar, é necessário trabalho em equipe e um lugar para colaborar. É onde estamos hoje.
No Aspen Security Forum, estamos animados para anunciar o lançamento da Coalition for Secure AI (CoSAI) com nossos amigos da indústria. Trabalhamos arduamente no último ano para reunir essa coalizão, com o objetivo de enfrentar os desafios de segurança únicos que a AI traz, tanto agora quanto no futuro.
Os membros fundadores da CoSAI incluem grandes nomes como Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal e Wiz. Estamos estabelecendo nossa base sob a OASIS Open, o grupo internacional de padrões e código aberto.
Apresentando os Primeiros Fluxos de Trabalho da CoSAI
À medida que todos, desde desenvolvedores individuais até grandes empresas, trabalham na adoção de padrões de segurança comuns e melhores práticas, a CoSAI apoiará esse esforço coletivo em segurança de AI. Hoje, estamos iniciando com as três primeiras áreas nas quais a coalizão se concentrará, trabalhando lado a lado com a indústria e a academia:
- Segurança da Cadeia de Suprimentos de Software para Sistemas de AI: O Google tem pressionado para estender o SLSA Provenance aos modelos de AI, ajudando a determinar se o software de AI é seguro rastreando sua criação e manipulação através da cadeia de suprimentos. Este fluxo de trabalho visa aumentar a segurança da AI, oferecendo orientação sobre verificação de procedência, gerenciamento de riscos de modelos de terceiros e avaliação da procedência completa da aplicação de AI, construindo sobre os princípios de segurança SSDF e SLSA existentes para software de AI e tradicional.
- Preparando defensores para um cenário de cibersegurança em mudança: Lidar com a governança diária de AI pode ser uma verdadeira dor de cabeça para os profissionais de segurança. Este fluxo de trabalho criará um framework para defensores, ajudando-os a identificar onde investir e quais técnicas de mitigação usar para enfrentar os impactos de segurança da AI. O framework evoluirá com o avanço das inovações em cibersegurança ofensiva em modelos de AI.
- Governança de segurança de AI: A governança da segurança de AI requer novos recursos e uma compreensão do que torna a segurança de AI única. A CoSAI desenvolverá uma lista de riscos e controles, uma lista de verificação e um scorecard para ajudar os profissionais a avaliar sua prontidão, gerenciar, monitorar e relatar sobre a segurança de seus produtos de AI.
Além disso, a CoSAI se unirá a grupos como Frontier Model Forum, Partnership on AI, Open Source Security Foundation e ML Commons para avançar na AI responsável.
O que vem a seguir
À medida que a AI continua avançando, estamos totalmente comprometidos em garantir que nossas estratégias de gerenciamento de riscos acompanhem. Vimos grande apoio da indústria no último ano para tornar a AI segura. Melhor ainda, estamos vendo ações concretas de desenvolvedores, especialistas e empresas de todos os tamanhos para ajudar as organizações a usar a AI com segurança.
Os desenvolvedores de AI precisam — e os usuários finais merecem — um framework de segurança que esteja à altura do desafio e aproveite responsavelmente as oportunidades futuras. A CoSAI é o próximo grande passo nessa jornada, e teremos mais atualizações em breve. Para descobrir como você pode apoiar a CoSAI, visite coalitionforsecureai.org. Enquanto isso, acesse nossa página do Secure AI Framework para saber mais sobre o trabalho do Google em segurança de AI.
Artigo relacionado
Salesforce Apresenta Companheiros Digitais de IA no Slack para Rivalizar com o Microsoft Copilot
A Salesforce lançou uma nova estratégia de IA para o local de trabalho, introduzindo “companheiros digitais” especializados integrados às conversas do Slack, revelou a empresa na segunda-feira.A nova
Investimento de US$ 40 bilhões da Oracle em chips Nvidia impulsiona centro de dados de IA no Texas
A Oracle planeja investir aproximadamente US$ 40 bilhões em chips Nvidia para alimentar um grande novo centro de dados no Texas, desenvolvido pela OpenAI, conforme relatado pelo Financial Times. Este
Aplicativo Meta AI Introduzirá Nível Premium e Anúncios
O aplicativo de IA da Meta pode em breve apresentar uma assinatura paga, seguindo o exemplo de concorrentes como OpenAI, Google e Microsoft. Durante uma teleconferência de resultados do primeiro trime
Comentários (32)
0/200
BillyAdams
14 de Agosto de 2025 à59 02:00:59 WEST
This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!
0
RobertMartinez
23 de Julho de 2025 à47 05:59:47 WEST
Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️
0
GaryWilson
24 de Abril de 2025 à4 11:18:04 WEST
CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔
0
AnthonyJohnson
24 de Abril de 2025 à2 07:42:02 WEST
El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔
0
FredLewis
23 de Abril de 2025 à37 17:23:37 WEST
CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔
0
AlbertThomas
16 de Abril de 2025 à8 19:24:08 WEST
CoSAI의 안전한 AI에 대한 초점은 정말 중요하지만, 작은 팀이 구현하기에는 조금 복잡한 것 같아요. 그래도 커뮤니티가 함께 노력하는 모습이 멋져요! 조금 더 간단하게 할 수 있다면 좋겠네요 🤔
0
O rápido crescimento da AI exige um framework de segurança robusto e padrões que possam acompanhar. Foi por isso que introduzimos o Secure AI Framework (SAIF) no último ano, sabendo que era apenas o começo. Para fazer qualquer framework da indústria funcionar, é necessário trabalho em equipe e um lugar para colaborar. É onde estamos hoje.
No Aspen Security Forum, estamos animados para anunciar o lançamento da Coalition for Secure AI (CoSAI) com nossos amigos da indústria. Trabalhamos arduamente no último ano para reunir essa coalizão, com o objetivo de enfrentar os desafios de segurança únicos que a AI traz, tanto agora quanto no futuro.
Os membros fundadores da CoSAI incluem grandes nomes como Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal e Wiz. Estamos estabelecendo nossa base sob a OASIS Open, o grupo internacional de padrões e código aberto.
Apresentando os Primeiros Fluxos de Trabalho da CoSAI
À medida que todos, desde desenvolvedores individuais até grandes empresas, trabalham na adoção de padrões de segurança comuns e melhores práticas, a CoSAI apoiará esse esforço coletivo em segurança de AI. Hoje, estamos iniciando com as três primeiras áreas nas quais a coalizão se concentrará, trabalhando lado a lado com a indústria e a academia:
- Segurança da Cadeia de Suprimentos de Software para Sistemas de AI: O Google tem pressionado para estender o SLSA Provenance aos modelos de AI, ajudando a determinar se o software de AI é seguro rastreando sua criação e manipulação através da cadeia de suprimentos. Este fluxo de trabalho visa aumentar a segurança da AI, oferecendo orientação sobre verificação de procedência, gerenciamento de riscos de modelos de terceiros e avaliação da procedência completa da aplicação de AI, construindo sobre os princípios de segurança SSDF e SLSA existentes para software de AI e tradicional.
- Preparando defensores para um cenário de cibersegurança em mudança: Lidar com a governança diária de AI pode ser uma verdadeira dor de cabeça para os profissionais de segurança. Este fluxo de trabalho criará um framework para defensores, ajudando-os a identificar onde investir e quais técnicas de mitigação usar para enfrentar os impactos de segurança da AI. O framework evoluirá com o avanço das inovações em cibersegurança ofensiva em modelos de AI.
- Governança de segurança de AI: A governança da segurança de AI requer novos recursos e uma compreensão do que torna a segurança de AI única. A CoSAI desenvolverá uma lista de riscos e controles, uma lista de verificação e um scorecard para ajudar os profissionais a avaliar sua prontidão, gerenciar, monitorar e relatar sobre a segurança de seus produtos de AI.
Além disso, a CoSAI se unirá a grupos como Frontier Model Forum, Partnership on AI, Open Source Security Foundation e ML Commons para avançar na AI responsável.
O que vem a seguir
À medida que a AI continua avançando, estamos totalmente comprometidos em garantir que nossas estratégias de gerenciamento de riscos acompanhem. Vimos grande apoio da indústria no último ano para tornar a AI segura. Melhor ainda, estamos vendo ações concretas de desenvolvedores, especialistas e empresas de todos os tamanhos para ajudar as organizações a usar a AI com segurança.
Os desenvolvedores de AI precisam — e os usuários finais merecem — um framework de segurança que esteja à altura do desafio e aproveite responsavelmente as oportunidades futuras. A CoSAI é o próximo grande passo nessa jornada, e teremos mais atualizações em breve. Para descobrir como você pode apoiar a CoSAI, visite coalitionforsecureai.org. Enquanto isso, acesse nossa página do Secure AI Framework para saber mais sobre o trabalho do Google em segurança de AI.



This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!




Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️




CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔




El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔




CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔




CoSAI의 안전한 AI에 대한 초점은 정말 중요하지만, 작은 팀이 구현하기에는 조금 복잡한 것 같아요. 그래도 커뮤니티가 함께 노력하는 모습이 멋져요! 조금 더 간단하게 할 수 있다면 좋겠네요 🤔












