Cosai啟動:創始成員團結起來

AI的快速發展需要一個強大的安全框架和標準來跟上步伐。這就是為什麼我們去年推出了安全AI框架(SAIF),並知道這只是個開始。要讓任何行業框架運作,你需要團隊合作和一個協作的平台。這就是我們現在的處境。
在Aspen安全論壇上,我們很高興宣布與我們的行業夥伴共同推出安全AI聯盟(CoSAI)。過去一年,我們努力將這個聯盟凝聚在一起,旨在應對AI帶來的獨特安全挑戰,無論是現在還是未來。
CoSAI的創始成員包括Amazon、Anthropic、Chainguard、Cisco、Cohere、GenLab、IBM、Intel、Microsoft、NVIDIA、OpenAI、PayPal和Wiz等知名企業。我們在國際標準和開源組織OASIS Open下設立基地。
介紹CoSAI的首個工作流
從個人開發者到大公司,每個人都致力於採用共同的安全標準和最佳實踐,CoSAI將支持這一集體努力,推動AI安全。今天,我們將啟動聯盟將專注的三個首要領域,與行業和學術界攜手合作:
- AI系統的軟體供應鏈安全: Google一直在推動將SLSA Provenance擴展到AI模型,通過追蹤其創建和供應鏈處理,幫助判斷AI軟體是否安全。此工作流旨在通過提供檢查來源的指導、第三方模型風險管理以及評估完整AI應用來源,來提升AI安全,基於現有的SSDF和SLSA安全原則,適用於AI和傳統軟體。
- 為改變中的網路安全環境準備防禦者: 處理日常AI治理對安全人員來說可能是一個真正的挑戰。此工作流將創建一個防禦者框架,幫助他們識別投資方向和使用哪些緩解技術來應對AI的安全影響。該框架將隨著AI模型在進攻性網路安全方面的進展而成長。
- AI安全治理: AI安全治理需要新資源和對AI安全獨特性的理解。CoSAI將制定風險和控制清單、檢查清單和評分卡,幫助從業人員評估其準備情況,管理、監控和報告其AI產品的安全性。
此外,CoSAI將與Frontier Model Forum、Partnership on AI、Open Source Security Foundation和ML Commons等組織合作,推動負責任的AI發展。
下一步是什麼
隨著AI的不斷進展,我們全力確保我們的風險管理策略跟上步伐。過去一年,我們看到行業對確保AI安全的大力支持。更棒的是,我們看到來自開發者、專家和各規模公司的實際行動,幫助組織安全地使用AI。
AI開發者需要——最終用戶也應該得到——一個能應對挑戰並負責任地抓住未來機會的安全框架。CoSAI是這一旅程的下一步,我們很快會有更多更新。想了解如何支持CoSAI,請訪問coalitionforsecureai.org。與此同時,請前往我們的Secure AI Framework頁面,了解更多關於Google在AI安全方面的工作。
相關文章
「Dot AI 伴侶應用程式宣布關閉,停止個人化服務」
根據 Dot 開發商於週五發佈的公告,Dot 將停止營運。Dot 背後的新創公司 New Computer 在其網站上表示,這項服務將持續提供至 10 月 5 日,讓使用者有時間匯出個人資料。此應用程式於今年初由共同創辦人 Sam Whitmore 與前 Apple 設計專家 Jason Yuan 合作推出。Dot 進入日益受到關注的情感 AI 伴侶領域,將自己定位為可適應的數位朋友,可根據使用者
Anthropic 解決 AI 產生盜版書籍的法律案件
Anthropic 已與美國作家就一宗重大版權糾紛達成和解,同意擬議的集體訴訟和解方案,以避免可能耗費巨資的審判。該協議於本週二在法庭文件中提交,源於該人工智能公司使用盜版文學作品訓練其 Claude 模型的指控。雖然此案源於作家 Andrea Bartz、Charles Graeber 和 Kirk Wallace Johnson 的訴訟,但和解細節仍然保密。他們於 2023 年提出訴訟,指控
Figma 向所有用戶發佈 AI 驅動的應用程式生成工具
Figma Make 是今年初推出的創新提示應用程式開發平台,目前已正式退出測試版,並向所有使用者推出。這個突破性的工具加入了 Google 的 Gemini Code Assist 和 Microsoft 的 GitHub Copilot 等人工智能編碼助手的行列,讓創作者無需傳統的編程專業知識,即可將自然語言描述轉換為功能原型和應用程式。Figma Make 在測試階段原本只有高級「Full
評論 (33)
0/200
JonathanRamirez
2025-08-27 15:01:30
Wow, CoSAI sounds like a game-changer for AI security! It's cool to see big players teaming up for SAIF. Curious how this'll shape AI ethics debates. 🤔
0
BillyAdams
2025-08-14 09:00:59
This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!
0
RobertMartinez
2025-07-23 12:59:47
Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️
0
GaryWilson
2025-04-24 18:18:04
CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔
0
AnthonyJohnson
2025-04-24 14:42:02
El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔
0
FredLewis
2025-04-24 00:23:37
CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔
0
AI的快速發展需要一個強大的安全框架和標準來跟上步伐。這就是為什麼我們去年推出了安全AI框架(SAIF),並知道這只是個開始。要讓任何行業框架運作,你需要團隊合作和一個協作的平台。這就是我們現在的處境。
在Aspen安全論壇上,我們很高興宣布與我們的行業夥伴共同推出安全AI聯盟(CoSAI)。過去一年,我們努力將這個聯盟凝聚在一起,旨在應對AI帶來的獨特安全挑戰,無論是現在還是未來。
CoSAI的創始成員包括Amazon、Anthropic、Chainguard、Cisco、Cohere、GenLab、IBM、Intel、Microsoft、NVIDIA、OpenAI、PayPal和Wiz等知名企業。我們在國際標準和開源組織OASIS Open下設立基地。
介紹CoSAI的首個工作流
從個人開發者到大公司,每個人都致力於採用共同的安全標準和最佳實踐,CoSAI將支持這一集體努力,推動AI安全。今天,我們將啟動聯盟將專注的三個首要領域,與行業和學術界攜手合作:
- AI系統的軟體供應鏈安全: Google一直在推動將SLSA Provenance擴展到AI模型,通過追蹤其創建和供應鏈處理,幫助判斷AI軟體是否安全。此工作流旨在通過提供檢查來源的指導、第三方模型風險管理以及評估完整AI應用來源,來提升AI安全,基於現有的SSDF和SLSA安全原則,適用於AI和傳統軟體。
- 為改變中的網路安全環境準備防禦者: 處理日常AI治理對安全人員來說可能是一個真正的挑戰。此工作流將創建一個防禦者框架,幫助他們識別投資方向和使用哪些緩解技術來應對AI的安全影響。該框架將隨著AI模型在進攻性網路安全方面的進展而成長。
- AI安全治理: AI安全治理需要新資源和對AI安全獨特性的理解。CoSAI將制定風險和控制清單、檢查清單和評分卡,幫助從業人員評估其準備情況,管理、監控和報告其AI產品的安全性。
此外,CoSAI將與Frontier Model Forum、Partnership on AI、Open Source Security Foundation和ML Commons等組織合作,推動負責任的AI發展。
下一步是什麼
隨著AI的不斷進展,我們全力確保我們的風險管理策略跟上步伐。過去一年,我們看到行業對確保AI安全的大力支持。更棒的是,我們看到來自開發者、專家和各規模公司的實際行動,幫助組織安全地使用AI。
AI開發者需要——最終用戶也應該得到——一個能應對挑戰並負責任地抓住未來機會的安全框架。CoSAI是這一旅程的下一步,我們很快會有更多更新。想了解如何支持CoSAI,請訪問coalitionforsecureai.org。與此同時,請前往我們的Secure AI Framework頁面,了解更多關於Google在AI安全方面的工作。



Wow, CoSAI sounds like a game-changer for AI security! It's cool to see big players teaming up for SAIF. Curious how this'll shape AI ethics debates. 🤔




This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!




Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️




CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔




El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔




CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔












