Cosai啟動:創始成員團結起來

AI的快速發展需要一個強大的安全框架和標準來跟上步伐。這就是為什麼我們去年推出了安全AI框架(SAIF),並知道這只是個開始。要讓任何行業框架運作,你需要團隊合作和一個協作的平台。這就是我們現在的處境。
在Aspen安全論壇上,我們很高興宣布與我們的行業夥伴共同推出安全AI聯盟(CoSAI)。過去一年,我們努力將這個聯盟凝聚在一起,旨在應對AI帶來的獨特安全挑戰,無論是現在還是未來。
CoSAI的創始成員包括Amazon、Anthropic、Chainguard、Cisco、Cohere、GenLab、IBM、Intel、Microsoft、NVIDIA、OpenAI、PayPal和Wiz等知名企業。我們在國際標準和開源組織OASIS Open下設立基地。
介紹CoSAI的首個工作流
從個人開發者到大公司,每個人都致力於採用共同的安全標準和最佳實踐,CoSAI將支持這一集體努力,推動AI安全。今天,我們將啟動聯盟將專注的三個首要領域,與行業和學術界攜手合作:
- AI系統的軟體供應鏈安全: Google一直在推動將SLSA Provenance擴展到AI模型,通過追蹤其創建和供應鏈處理,幫助判斷AI軟體是否安全。此工作流旨在通過提供檢查來源的指導、第三方模型風險管理以及評估完整AI應用來源,來提升AI安全,基於現有的SSDF和SLSA安全原則,適用於AI和傳統軟體。
- 為改變中的網路安全環境準備防禦者: 處理日常AI治理對安全人員來說可能是一個真正的挑戰。此工作流將創建一個防禦者框架,幫助他們識別投資方向和使用哪些緩解技術來應對AI的安全影響。該框架將隨著AI模型在進攻性網路安全方面的進展而成長。
- AI安全治理: AI安全治理需要新資源和對AI安全獨特性的理解。CoSAI將制定風險和控制清單、檢查清單和評分卡,幫助從業人員評估其準備情況,管理、監控和報告其AI產品的安全性。
此外,CoSAI將與Frontier Model Forum、Partnership on AI、Open Source Security Foundation和ML Commons等組織合作,推動負責任的AI發展。
下一步是什麼
隨著AI的不斷進展,我們全力確保我們的風險管理策略跟上步伐。過去一年,我們看到行業對確保AI安全的大力支持。更棒的是,我們看到來自開發者、專家和各規模公司的實際行動,幫助組織安全地使用AI。
AI開發者需要——最終用戶也應該得到——一個能應對挑戰並負責任地抓住未來機會的安全框架。CoSAI是這一旅程的下一步,我們很快會有更多更新。想了解如何支持CoSAI,請訪問coalitionforsecureai.org。與此同時,請前往我們的Secure AI Framework頁面,了解更多關於Google在AI安全方面的工作。
相關文章
Salesforce 揭曉 Slack 中 AI 數位隊友以對抗 Microsoft Copilot
Salesforce 推出全新工作場所 AI 策略,於週一宣布在 Slack 對話中引入專屬的「數位隊友」。全新工具 Agentforce in Slack 讓企業能夠創建並部署針對特定任務的 AI 代理,這些代理可搜尋工作場所聊天記錄、存取公司資料,並在員工日常工作的訊息平台內執行操作。「正如專業員工協作解決問題,我們的客戶需要 AI 代理共同合作,為客戶和員工解決問題,」Salesforce
甲骨文40億美元Nvidia晶片投資推動德州AI數據中心
據《金融時報》報導,甲骨文計劃投資約40億美元於Nvidia晶片,為OpenAI在德州開發的大型新數據中心提供動力。這筆交易是迄今為止最大的晶片收購之一,凸顯了對AI運算資源的激增需求。該設施位於德州阿比林,是美國首個「星門」數據中心。由OpenAI和軟銀支持,屬於建設大規模AI基礎設施的更廣泛計劃的一部分。該德州中心預計明年完工,將提供1.2吉瓦的運算能力,位列全球最大之列。甲骨文計劃採購約40
Meta AI應用程式將推出高級訂閱與廣告
Meta的AI應用程式即將推出付費訂閱服務,類似於OpenAI、Google和Microsoft等競爭對手的產品。在2025年第一季財報電話會議中,Meta首席執行官馬克·祖克柏格概述了高級服務的計劃,讓用戶能夠使用更強大的運算能力或Meta AI的額外功能。為了與ChatGPT競爭,Meta本週推出了一款獨立的AI應用程式,允許用戶直接與聊天機器人互動並進行圖像生成。該聊天機器人目前擁有近10億
評論 (32)
0/200
BillyAdams
2025-08-14 09:00:59
This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!
0
RobertMartinez
2025-07-23 12:59:47
Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️
0
GaryWilson
2025-04-24 18:18:04
CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔
0
AnthonyJohnson
2025-04-24 14:42:02
El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔
0
FredLewis
2025-04-24 00:23:37
CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔
0
AlbertThomas
2025-04-17 02:24:08
CoSAI의 안전한 AI에 대한 초점은 정말 중요하지만, 작은 팀이 구현하기에는 조금 복잡한 것 같아요. 그래도 커뮤니티가 함께 노력하는 모습이 멋져요! 조금 더 간단하게 할 수 있다면 좋겠네요 🤔
0
AI的快速發展需要一個強大的安全框架和標準來跟上步伐。這就是為什麼我們去年推出了安全AI框架(SAIF),並知道這只是個開始。要讓任何行業框架運作,你需要團隊合作和一個協作的平台。這就是我們現在的處境。
在Aspen安全論壇上,我們很高興宣布與我們的行業夥伴共同推出安全AI聯盟(CoSAI)。過去一年,我們努力將這個聯盟凝聚在一起,旨在應對AI帶來的獨特安全挑戰,無論是現在還是未來。
CoSAI的創始成員包括Amazon、Anthropic、Chainguard、Cisco、Cohere、GenLab、IBM、Intel、Microsoft、NVIDIA、OpenAI、PayPal和Wiz等知名企業。我們在國際標準和開源組織OASIS Open下設立基地。
介紹CoSAI的首個工作流
從個人開發者到大公司,每個人都致力於採用共同的安全標準和最佳實踐,CoSAI將支持這一集體努力,推動AI安全。今天,我們將啟動聯盟將專注的三個首要領域,與行業和學術界攜手合作:
- AI系統的軟體供應鏈安全: Google一直在推動將SLSA Provenance擴展到AI模型,通過追蹤其創建和供應鏈處理,幫助判斷AI軟體是否安全。此工作流旨在通過提供檢查來源的指導、第三方模型風險管理以及評估完整AI應用來源,來提升AI安全,基於現有的SSDF和SLSA安全原則,適用於AI和傳統軟體。
- 為改變中的網路安全環境準備防禦者: 處理日常AI治理對安全人員來說可能是一個真正的挑戰。此工作流將創建一個防禦者框架,幫助他們識別投資方向和使用哪些緩解技術來應對AI的安全影響。該框架將隨著AI模型在進攻性網路安全方面的進展而成長。
- AI安全治理: AI安全治理需要新資源和對AI安全獨特性的理解。CoSAI將制定風險和控制清單、檢查清單和評分卡,幫助從業人員評估其準備情況,管理、監控和報告其AI產品的安全性。
此外,CoSAI將與Frontier Model Forum、Partnership on AI、Open Source Security Foundation和ML Commons等組織合作,推動負責任的AI發展。
下一步是什麼
隨著AI的不斷進展,我們全力確保我們的風險管理策略跟上步伐。過去一年,我們看到行業對確保AI安全的大力支持。更棒的是,我們看到來自開發者、專家和各規模公司的實際行動,幫助組織安全地使用AI。
AI開發者需要——最終用戶也應該得到——一個能應對挑戰並負責任地抓住未來機會的安全框架。CoSAI是這一旅程的下一步,我們很快會有更多更新。想了解如何支持CoSAI,請訪問coalitionforsecureai.org。與此同時,請前往我們的Secure AI Framework頁面,了解更多關於Google在AI安全方面的工作。



This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!




Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️




CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔




El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔




CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔




CoSAI의 안전한 AI에 대한 초점은 정말 중요하지만, 작은 팀이 구현하기에는 조금 복잡한 것 같아요. 그래도 커뮤니티가 함께 노력하는 모습이 멋져요! 조금 더 간단하게 할 수 있다면 좋겠네요 🤔












