Cosai запущен: участники -основатели объединяются для Secure AI

Быстрый рост AI требует надежной структуры безопасности и стандартов, которые могут соответствовать этому темпу. Поэтому в прошлом году мы представили Secure AI Framework (SAIF), понимая, что это только начало. Чтобы любая отраслевая структура работала, необходима командная работа и место для сотрудничества. Именно здесь мы находимся сегодня.
На форуме по безопасности в Аспене мы рады объявить о запуске Коалиции за безопасный AI (CoSAI) вместе с нашими отраслевыми партнерами. В течение последнего года мы упорно работали над созданием этой коалиции, стремясь решить уникальные вызовы безопасности, которые приносит AI, как сейчас, так и в будущем.
Среди основателей CoSAI — такие крупные имена, как Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal и Wiz. Мы организуемся под эгидой OASIS Open, международной группы по стандартам и открытым исходным кодам.
Представляем первые направления работы CoSAI
Поскольку все — от отдельных разработчиков до крупных компаний — работают над внедрением общих стандартов безопасности и лучших практик, CoSAI поддержит эти коллективные усилия в области безопасности AI. Сегодня мы начинаем с первых трех направлений, на которых сосредоточится коалиция, работая рука об руку с индустрией и академическим сообществом:
- Безопасность цепочки поставок программного обеспечения для систем AI: Google продвигает расширение SLSA Provenance на модели AI, помогая определить, является ли программное обеспечение AI безопасным, отслеживая его создание и обработку в цепочке поставок. Это направление работы направлено на повышение безопасности AI, предоставляя рекомендации по проверке происхождения, управлению рисками от сторонних моделей и оценке полного происхождения приложений AI, опираясь на существующие принципы безопасности SSDF и SLSA как для AI, так и для традиционного программного обеспечения.
- Подготовка защитников к меняющемуся ландшафту кибербезопасности: Ежедневное управление AI может быть настоящей головной болью для специалистов по безопасности. Это направление создаст рамочную структуру для защитников, чтобы помочь им определить, куда инвестировать и какие методы смягчения использовать для решения вопросов безопасности, связанных с AI. Эта структура будет развиваться вместе с ростом достижений в области наступательной кибербезопасности в моделях AI.
- Управление безопасностью AI: Управление безопасностью AI требует новых ресурсов и понимания того, что делает безопасность AI уникальной. CoSAI разработает список рисков и мер контроля, контрольный список и оценочную таблицу, чтобы помочь специалистам оценить их готовность, управлять, отслеживать и сообщать о безопасности своих продуктов AI.
Кроме того, CoSAI будет сотрудничать с группами, такими как Frontier Model Forum, Partnership on AI, Open Source Security Foundation и ML Commons, чтобы продвигать ответственный подход к AI.
Что дальше
По мере того как AI продолжает развиваться, мы полностью сосредоточены на том, чтобы наши стратегии управления рисками не отставали. В течение последнего года мы видели большую поддержку со стороны индустрии в обеспечении безопасности AI. Более того, мы наблюдаем реальные действия со стороны разработчиков, экспертов и компаний всех размеров, чтобы помочь организациям безопасно использовать AI.
Разработчикам AI нужен — а конечные пользователи заслуживают — рамочную структуру безопасности, которая справляется с вызовами и ответственно использует предстоящие возможности. CoSAI — это следующий большой шаг в этом путешествии, и скоро у нас будут новые обновления. Чтобы узнать, как вы можете поддержать CoSAI, посетите coalitionforsecureai.org. А пока зайдите на нашу страницу Secure AI Framework, чтобы узнать больше о работе Google в области безопасности AI.
Связанная статья
"Dot AI Companion объявляет о закрытии и прекращает предоставление персонализированных услуг"
Dot, приложение-компаньон с искусственным интеллектом, предназначенное для работы в качестве личного друга и доверенного лица, прекращает свою работу, как сообщили в пятницу его разработчики. New Comp
Anthropic разрешила судебное дело о пиратстве книг, созданных искусственным интеллектом
Компания Anthropic достигла разрешения значительного спора с американскими авторами по поводу авторских прав, согласившись на предложенное урегулирование коллективного иска, которое позволит избежать
Figma выпустила инструмент для создания приложений на основе искусственного интеллекта для всех пользователей
Figma Make, инновационная платформа для разработки приложений с подсказками, представленная ранее в этом году, официально вышла из бета-версии и стала доступна для всех пользователей. Этот революционн
Комментарии (33)
JonathanRamirez
27 августа 2025 г., 10:01:30 GMT+03:00
Wow, CoSAI sounds like a game-changer for AI security! It's cool to see big players teaming up for SAIF. Curious how this'll shape AI ethics debates. 🤔
0
BillyAdams
14 августа 2025 г., 4:00:59 GMT+03:00
This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!
0
RobertMartinez
23 июля 2025 г., 7:59:47 GMT+03:00
Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️
0
GaryWilson
24 апреля 2025 г., 13:18:04 GMT+03:00
CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔
0
AnthonyJohnson
24 апреля 2025 г., 9:42:02 GMT+03:00
El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔
0
FredLewis
23 апреля 2025 г., 19:23:37 GMT+03:00
CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔
0
Быстрый рост AI требует надежной структуры безопасности и стандартов, которые могут соответствовать этому темпу. Поэтому в прошлом году мы представили Secure AI Framework (SAIF), понимая, что это только начало. Чтобы любая отраслевая структура работала, необходима командная работа и место для сотрудничества. Именно здесь мы находимся сегодня.
На форуме по безопасности в Аспене мы рады объявить о запуске Коалиции за безопасный AI (CoSAI) вместе с нашими отраслевыми партнерами. В течение последнего года мы упорно работали над созданием этой коалиции, стремясь решить уникальные вызовы безопасности, которые приносит AI, как сейчас, так и в будущем.
Среди основателей CoSAI — такие крупные имена, как Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal и Wiz. Мы организуемся под эгидой OASIS Open, международной группы по стандартам и открытым исходным кодам.
Представляем первые направления работы CoSAI
Поскольку все — от отдельных разработчиков до крупных компаний — работают над внедрением общих стандартов безопасности и лучших практик, CoSAI поддержит эти коллективные усилия в области безопасности AI. Сегодня мы начинаем с первых трех направлений, на которых сосредоточится коалиция, работая рука об руку с индустрией и академическим сообществом:
- Безопасность цепочки поставок программного обеспечения для систем AI: Google продвигает расширение SLSA Provenance на модели AI, помогая определить, является ли программное обеспечение AI безопасным, отслеживая его создание и обработку в цепочке поставок. Это направление работы направлено на повышение безопасности AI, предоставляя рекомендации по проверке происхождения, управлению рисками от сторонних моделей и оценке полного происхождения приложений AI, опираясь на существующие принципы безопасности SSDF и SLSA как для AI, так и для традиционного программного обеспечения.
- Подготовка защитников к меняющемуся ландшафту кибербезопасности: Ежедневное управление AI может быть настоящей головной болью для специалистов по безопасности. Это направление создаст рамочную структуру для защитников, чтобы помочь им определить, куда инвестировать и какие методы смягчения использовать для решения вопросов безопасности, связанных с AI. Эта структура будет развиваться вместе с ростом достижений в области наступательной кибербезопасности в моделях AI.
- Управление безопасностью AI: Управление безопасностью AI требует новых ресурсов и понимания того, что делает безопасность AI уникальной. CoSAI разработает список рисков и мер контроля, контрольный список и оценочную таблицу, чтобы помочь специалистам оценить их готовность, управлять, отслеживать и сообщать о безопасности своих продуктов AI.
Кроме того, CoSAI будет сотрудничать с группами, такими как Frontier Model Forum, Partnership on AI, Open Source Security Foundation и ML Commons, чтобы продвигать ответственный подход к AI.
Что дальше
По мере того как AI продолжает развиваться, мы полностью сосредоточены на том, чтобы наши стратегии управления рисками не отставали. В течение последнего года мы видели большую поддержку со стороны индустрии в обеспечении безопасности AI. Более того, мы наблюдаем реальные действия со стороны разработчиков, экспертов и компаний всех размеров, чтобы помочь организациям безопасно использовать AI.
Разработчикам AI нужен — а конечные пользователи заслуживают — рамочную структуру безопасности, которая справляется с вызовами и ответственно использует предстоящие возможности. CoSAI — это следующий большой шаг в этом путешествии, и скоро у нас будут новые обновления. Чтобы узнать, как вы можете поддержать CoSAI, посетите coalitionforsecureai.org. А пока зайдите на нашу страницу Secure AI Framework, чтобы узнать больше о работе Google в области безопасности AI.



Wow, CoSAI sounds like a game-changer for AI security! It's cool to see big players teaming up for SAIF. Curious how this'll shape AI ethics debates. 🤔




This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!




Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️




CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔




El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔




CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔












