Cosai启动:创始成员团结起来

AI的快速发展需要一个能够跟上步伐的强大安全框架和标准。这就是为什么我们去年推出了安全AI框架(SAIF),并知道这只是一个开始。要使任何行业框架发挥作用,需要团队合作和一个协作的平台。这就是我们现在的处境。
在阿斯彭安全论坛上,我们兴奋地宣布与我们的行业伙伴共同推出安全AI联盟(CoSAI)。过去一年,我们一直在努力组建这个联盟,旨在应对AI带来的独特安全挑战,无论是现在还是未来。
CoSAI的创始成员包括Amazon、Anthropic、Chainguard、Cisco、Cohere、GenLab、IBM、Intel、Microsoft、NVIDIA、OpenAI、PayPal和Wiz等知名企业。我们将在国际标准和开源组织OASIS Open下设立基地。
介绍CoSAI的首批工作流
从个体开发者到大公司,每个人都在致力于采用共同的安全标准和最佳实践,CoSAI将支持这一AI安全的集体努力。今天,我们将启动联盟重点关注的首批三个领域,与行业和学术界携手合作:
- AI系统的软件供应链安全: Google一直在推动将SLSA Provenance扩展到AI模型,通过追踪AI软件的创建和供应链处理来判断其是否安全。该工作流旨在通过提供检查来源、管理第三方模型风险以及评估完整AI应用来源的指导意见来增强AI安全,基于现有的SSDF和SLSA安全原则,适用于AI和传统软件。
- 为不断变化的网络安全环境准备防御者: 处理日常AI治理对安全人员来说可能是一个真正的难题。该工作流将创建一个防御者框架,帮助他们确定投资重点和采用哪些缓解技术来应对AI的安全影响。该框架将随着AI模型在进攻性网络安全方面的进步而发展。
- AI安全治理: 治理AI安全需要新资源和对AI安全独特性的理解。CoSAI将制定风险和控制清单、检查表和评分卡,帮助从业者评估他们的准备情况,管理、监控和报告其AI产品的安全性。
此外,CoSAI将与Frontier Model Forum、Partnership on AI、Open Source Security Foundation和ML Commons等组织合作,共同推动负责任的AI发展。
下一步是什么
随着AI不断向前发展,我们全力以赴确保我们的风险管理策略能够跟上步伐。过去一年,我们看到了行业对确保AI安全的大力支持。更令人振奋的是,我们看到开发者、专家和各种规模的公司采取了实际行动,帮助组织安全地使用AI。
AI开发者需要——最终用户也应该得到——一个能够应对挑战并负责任地抓住未来机会的安全框架。CoSAI是这一旅程的下一个重要步骤,我们将很快提供更多更新。要了解如何支持CoSAI,请访问coalitionforsecureai.org。同时,请访问我们的安全AI框架页面,了解更多关于Google在AI安全方面的工作。
相关文章
Salesforce发布Slack AI数字队友对抗Microsoft Copilot
Salesforce推出全新职场AI策略,在Slack对话中引入专业“数字队友”,公司于周一公布。新工具Agentforce in Slack使企业能够创建和部署任务特定AI代理,搜索职场聊天,访问公司数据,并在员工日常使用的消息平台内执行操作。“正如专业员工协作解决问题,我们的客户需要AI代理协同工作,为客户和员工解决问题,”Salesforce Slack首席产品官Rob Seaman在Ven
甲骨文400亿美元英伟达芯片投资助推德克萨斯AI数据中心
据《金融时报》报道,甲骨文计划投资约400亿美元购买英伟达芯片,为OpenAI在德克萨斯州开发的大型新数据中心提供动力。这是迄今为止最大的芯片收购交易之一,凸显了对AI计算资源激增的需求。该设施位于德克萨斯州阿比林,是美国首个“星门”数据中心。由OpenAI和软银支持,这是构建大规模AI基础设施的更广泛计划的一部分。该德克萨斯中心计划于明年完工,将提供1.2吉瓦的计算能力,使其跻身全球最大数据中心
Meta AI应用将引入高级订阅和广告
Meta的AI应用可能很快推出付费订阅服务,效仿OpenAI、Google和Microsoft等竞争对手的做法。在2025年第一季度财报电话会议上,Meta首席执行官马克·扎克伯格概述了高级服务的计划,使用户能够访问增强的计算能力或Meta AI的额外功能。为了与ChatGPT竞争,Meta本周推出了一款独立AI应用,允许用户直接与聊天机器人互动并进行图像生成。该聊天机器人目前拥有近10亿用户,此
评论 (32)
0/200
BillyAdams
2025-08-14 09:00:59
This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!
0
RobertMartinez
2025-07-23 12:59:47
Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️
0
GaryWilson
2025-04-24 18:18:04
CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔
0
AnthonyJohnson
2025-04-24 14:42:02
El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔
0
FredLewis
2025-04-24 00:23:37
CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔
0
AlbertThomas
2025-04-17 02:24:08
CoSAI의 안전한 AI에 대한 초점은 정말 중요하지만, 작은 팀이 구현하기에는 조금 복잡한 것 같아요. 그래도 커뮤니티가 함께 노력하는 모습이 멋져요! 조금 더 간단하게 할 수 있다면 좋겠네요 🤔
0
AI的快速发展需要一个能够跟上步伐的强大安全框架和标准。这就是为什么我们去年推出了安全AI框架(SAIF),并知道这只是一个开始。要使任何行业框架发挥作用,需要团队合作和一个协作的平台。这就是我们现在的处境。
在阿斯彭安全论坛上,我们兴奋地宣布与我们的行业伙伴共同推出安全AI联盟(CoSAI)。过去一年,我们一直在努力组建这个联盟,旨在应对AI带来的独特安全挑战,无论是现在还是未来。
CoSAI的创始成员包括Amazon、Anthropic、Chainguard、Cisco、Cohere、GenLab、IBM、Intel、Microsoft、NVIDIA、OpenAI、PayPal和Wiz等知名企业。我们将在国际标准和开源组织OASIS Open下设立基地。
介绍CoSAI的首批工作流
从个体开发者到大公司,每个人都在致力于采用共同的安全标准和最佳实践,CoSAI将支持这一AI安全的集体努力。今天,我们将启动联盟重点关注的首批三个领域,与行业和学术界携手合作:
- AI系统的软件供应链安全: Google一直在推动将SLSA Provenance扩展到AI模型,通过追踪AI软件的创建和供应链处理来判断其是否安全。该工作流旨在通过提供检查来源、管理第三方模型风险以及评估完整AI应用来源的指导意见来增强AI安全,基于现有的SSDF和SLSA安全原则,适用于AI和传统软件。
- 为不断变化的网络安全环境准备防御者: 处理日常AI治理对安全人员来说可能是一个真正的难题。该工作流将创建一个防御者框架,帮助他们确定投资重点和采用哪些缓解技术来应对AI的安全影响。该框架将随着AI模型在进攻性网络安全方面的进步而发展。
- AI安全治理: 治理AI安全需要新资源和对AI安全独特性的理解。CoSAI将制定风险和控制清单、检查表和评分卡,帮助从业者评估他们的准备情况,管理、监控和报告其AI产品的安全性。
此外,CoSAI将与Frontier Model Forum、Partnership on AI、Open Source Security Foundation和ML Commons等组织合作,共同推动负责任的AI发展。
下一步是什么
随着AI不断向前发展,我们全力以赴确保我们的风险管理策略能够跟上步伐。过去一年,我们看到了行业对确保AI安全的大力支持。更令人振奋的是,我们看到开发者、专家和各种规模的公司采取了实际行动,帮助组织安全地使用AI。
AI开发者需要——最终用户也应该得到——一个能够应对挑战并负责任地抓住未来机会的安全框架。CoSAI是这一旅程的下一个重要步骤,我们将很快提供更多更新。要了解如何支持CoSAI,请访问coalitionforsecureai.org。同时,请访问我们的安全AI框架页面,了解更多关于Google在AI安全方面的工作。



This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!




Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️




CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔




El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔




CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔




CoSAI의 안전한 AI에 대한 초점은 정말 중요하지만, 작은 팀이 구현하기에는 조금 복잡한 것 같아요. 그래도 커뮤니티가 함께 노력하는 모습이 멋져요! 조금 더 간단하게 할 수 있다면 좋겠네요 🤔












