Cosai启动:创始成员团结起来

AI的快速发展需要一个能够跟上步伐的强大安全框架和标准。这就是为什么我们去年推出了安全AI框架(SAIF),并知道这只是一个开始。要使任何行业框架发挥作用,需要团队合作和一个协作的平台。这就是我们现在的处境。
在阿斯彭安全论坛上,我们兴奋地宣布与我们的行业伙伴共同推出安全AI联盟(CoSAI)。过去一年,我们一直在努力组建这个联盟,旨在应对AI带来的独特安全挑战,无论是现在还是未来。
CoSAI的创始成员包括Amazon、Anthropic、Chainguard、Cisco、Cohere、GenLab、IBM、Intel、Microsoft、NVIDIA、OpenAI、PayPal和Wiz等知名企业。我们将在国际标准和开源组织OASIS Open下设立基地。
介绍CoSAI的首批工作流
从个体开发者到大公司,每个人都在致力于采用共同的安全标准和最佳实践,CoSAI将支持这一AI安全的集体努力。今天,我们将启动联盟重点关注的首批三个领域,与行业和学术界携手合作:
- AI系统的软件供应链安全: Google一直在推动将SLSA Provenance扩展到AI模型,通过追踪AI软件的创建和供应链处理来判断其是否安全。该工作流旨在通过提供检查来源、管理第三方模型风险以及评估完整AI应用来源的指导意见来增强AI安全,基于现有的SSDF和SLSA安全原则,适用于AI和传统软件。
- 为不断变化的网络安全环境准备防御者: 处理日常AI治理对安全人员来说可能是一个真正的难题。该工作流将创建一个防御者框架,帮助他们确定投资重点和采用哪些缓解技术来应对AI的安全影响。该框架将随着AI模型在进攻性网络安全方面的进步而发展。
- AI安全治理: 治理AI安全需要新资源和对AI安全独特性的理解。CoSAI将制定风险和控制清单、检查表和评分卡,帮助从业者评估他们的准备情况,管理、监控和报告其AI产品的安全性。
此外,CoSAI将与Frontier Model Forum、Partnership on AI、Open Source Security Foundation和ML Commons等组织合作,共同推动负责任的AI发展。
下一步是什么
随着AI不断向前发展,我们全力以赴确保我们的风险管理策略能够跟上步伐。过去一年,我们看到了行业对确保AI安全的大力支持。更令人振奋的是,我们看到开发者、专家和各种规模的公司采取了实际行动,帮助组织安全地使用AI。
AI开发者需要——最终用户也应该得到——一个能够应对挑战并负责任地抓住未来机会的安全框架。CoSAI是这一旅程的下一个重要步骤,我们将很快提供更多更新。要了解如何支持CoSAI,请访问coalitionforsecureai.org。同时,请访问我们的安全AI框架页面,了解更多关于Google在AI安全方面的工作。
相关文章
"Dot AI伴侣应用程序宣布关闭,停止个性化服务
Dot 是一款人工智能伴侣应用程序,旨在充当个人朋友和知己,根据其开发者周五发布的公告,Dot 将停止运营。Dot背后的初创公司New Computer在其网站上表示,该服务将持续到10月5日,以便用户有时间导出个人数据。今年早些时候,联合创始人山姆-惠特莫尔(Sam Whitmore)和前苹果设计专家杰森-袁(Jason Yuan)合作推出了这款应用程序。Dot 进入了日益受到关注的情感人工智能
Anthropic 解决了人工智能生成盗版图书的法律案件
Anthropic公司与美国作家达成了一项重要的版权纠纷解决方案,同意拟议的集体诉讼和解,避免了可能代价高昂的审判。本周二在法庭文件中提交的这份协议源于对这家人工智能公司使用盗版文学作品训练克劳德模型的指控。尽管此案源于作家安德烈娅-巴茨(Andrea Bartz)、查尔斯-格雷伯(Charles Graeber)和柯克-华莱士-约翰逊(Kirk Wallace Johnson)的指控,但和解细节
Figma 向所有用户发布人工智能驱动的应用程序生成工具
Figma Make 是今年早些时候推出的创新型提示到应用开发平台,现已正式退出测试版,并向所有用户推出。这一开创性的工具加入了人工智能编码助手的行列,如谷歌的 Gemini Code Assist 和微软的 GitHub Copilot,使创作者能够将自然语言描述转化为功能原型和应用程序,而无需传统的编程专业知识。Figma Make 最初在测试阶段只对高级 "全席 "用户开放,现在对所有账户类
评论 (33)
0/200
JonathanRamirez
2025-08-27 15:01:30
Wow, CoSAI sounds like a game-changer for AI security! It's cool to see big players teaming up for SAIF. Curious how this'll shape AI ethics debates. 🤔
0
BillyAdams
2025-08-14 09:00:59
This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!
0
RobertMartinez
2025-07-23 12:59:47
Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️
0
GaryWilson
2025-04-24 18:18:04
CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔
0
AnthonyJohnson
2025-04-24 14:42:02
El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔
0
FredLewis
2025-04-24 00:23:37
CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔
0
AI的快速发展需要一个能够跟上步伐的强大安全框架和标准。这就是为什么我们去年推出了安全AI框架(SAIF),并知道这只是一个开始。要使任何行业框架发挥作用,需要团队合作和一个协作的平台。这就是我们现在的处境。
在阿斯彭安全论坛上,我们兴奋地宣布与我们的行业伙伴共同推出安全AI联盟(CoSAI)。过去一年,我们一直在努力组建这个联盟,旨在应对AI带来的独特安全挑战,无论是现在还是未来。
CoSAI的创始成员包括Amazon、Anthropic、Chainguard、Cisco、Cohere、GenLab、IBM、Intel、Microsoft、NVIDIA、OpenAI、PayPal和Wiz等知名企业。我们将在国际标准和开源组织OASIS Open下设立基地。
介绍CoSAI的首批工作流
从个体开发者到大公司,每个人都在致力于采用共同的安全标准和最佳实践,CoSAI将支持这一AI安全的集体努力。今天,我们将启动联盟重点关注的首批三个领域,与行业和学术界携手合作:
- AI系统的软件供应链安全: Google一直在推动将SLSA Provenance扩展到AI模型,通过追踪AI软件的创建和供应链处理来判断其是否安全。该工作流旨在通过提供检查来源、管理第三方模型风险以及评估完整AI应用来源的指导意见来增强AI安全,基于现有的SSDF和SLSA安全原则,适用于AI和传统软件。
- 为不断变化的网络安全环境准备防御者: 处理日常AI治理对安全人员来说可能是一个真正的难题。该工作流将创建一个防御者框架,帮助他们确定投资重点和采用哪些缓解技术来应对AI的安全影响。该框架将随着AI模型在进攻性网络安全方面的进步而发展。
- AI安全治理: 治理AI安全需要新资源和对AI安全独特性的理解。CoSAI将制定风险和控制清单、检查表和评分卡,帮助从业者评估他们的准备情况,管理、监控和报告其AI产品的安全性。
此外,CoSAI将与Frontier Model Forum、Partnership on AI、Open Source Security Foundation和ML Commons等组织合作,共同推动负责任的AI发展。
下一步是什么
随着AI不断向前发展,我们全力以赴确保我们的风险管理策略能够跟上步伐。过去一年,我们看到了行业对确保AI安全的大力支持。更令人振奋的是,我们看到开发者、专家和各种规模的公司采取了实际行动,帮助组织安全地使用AI。
AI开发者需要——最终用户也应该得到——一个能够应对挑战并负责任地抓住未来机会的安全框架。CoSAI是这一旅程的下一个重要步骤,我们将很快提供更多更新。要了解如何支持CoSAI,请访问coalitionforsecureai.org。同时,请访问我们的安全AI框架页面,了解更多关于Google在AI安全方面的工作。



Wow, CoSAI sounds like a game-changer for AI security! It's cool to see big players teaming up for SAIF. Curious how this'll shape AI ethics debates. 🤔




This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!




Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️




CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔




El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔




CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔












