вариант
Дом
Новости
Cosai запущен: участники -основатели объединяются для Secure AI

Cosai запущен: участники -основатели объединяются для Secure AI

10 апреля 2025 г.
112

Cosai запущен: участники -основатели объединяются для Secure AI

Быстрый рост AI требует надежной структуры безопасности и стандартов, которые могут соответствовать этому темпу. Поэтому в прошлом году мы представили Secure AI Framework (SAIF), понимая, что это только начало. Чтобы любая отраслевая структура работала, необходима командная работа и место для сотрудничества. Именно здесь мы находимся сегодня.

На форуме по безопасности в Аспене мы рады объявить о запуске Коалиции за безопасный AI (CoSAI) вместе с нашими отраслевыми партнерами. В течение последнего года мы упорно работали над созданием этой коалиции, стремясь решить уникальные вызовы безопасности, которые приносит AI, как сейчас, так и в будущем.

Среди основателей CoSAI — такие крупные имена, как Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal и Wiz. Мы организуемся под эгидой OASIS Open, международной группы по стандартам и открытым исходным кодам.

Представляем первые направления работы CoSAI

Поскольку все — от отдельных разработчиков до крупных компаний — работают над внедрением общих стандартов безопасности и лучших практик, CoSAI поддержит эти коллективные усилия в области безопасности AI. Сегодня мы начинаем с первых трех направлений, на которых сосредоточится коалиция, работая рука об руку с индустрией и академическим сообществом:

  1. Безопасность цепочки поставок программного обеспечения для систем AI: Google продвигает расширение SLSA Provenance на модели AI, помогая определить, является ли программное обеспечение AI безопасным, отслеживая его создание и обработку в цепочке поставок. Это направление работы направлено на повышение безопасности AI, предоставляя рекомендации по проверке происхождения, управлению рисками от сторонних моделей и оценке полного происхождения приложений AI, опираясь на существующие принципы безопасности SSDF и SLSA как для AI, так и для традиционного программного обеспечения.
  2. Подготовка защитников к меняющемуся ландшафту кибербезопасности: Ежедневное управление AI может быть настоящей головной болью для специалистов по безопасности. Это направление создаст рамочную структуру для защитников, чтобы помочь им определить, куда инвестировать и какие методы смягчения использовать для решения вопросов безопасности, связанных с AI. Эта структура будет развиваться вместе с ростом достижений в области наступательной кибербезопасности в моделях AI.
  3. Управление безопасностью AI: Управление безопасностью AI требует новых ресурсов и понимания того, что делает безопасность AI уникальной. CoSAI разработает список рисков и мер контроля, контрольный список и оценочную таблицу, чтобы помочь специалистам оценить их готовность, управлять, отслеживать и сообщать о безопасности своих продуктов AI.

Кроме того, CoSAI будет сотрудничать с группами, такими как Frontier Model Forum, Partnership on AI, Open Source Security Foundation и ML Commons, чтобы продвигать ответственный подход к AI.

Что дальше

По мере того как AI продолжает развиваться, мы полностью сосредоточены на том, чтобы наши стратегии управления рисками не отставали. В течение последнего года мы видели большую поддержку со стороны индустрии в обеспечении безопасности AI. Более того, мы наблюдаем реальные действия со стороны разработчиков, экспертов и компаний всех размеров, чтобы помочь организациям безопасно использовать AI.

Разработчикам AI нужен — а конечные пользователи заслуживают — рамочную структуру безопасности, которая справляется с вызовами и ответственно использует предстоящие возможности. CoSAI — это следующий большой шаг в этом путешествии, и скоро у нас будут новые обновления. Чтобы узнать, как вы можете поддержать CoSAI, посетите coalitionforsecureai.org. А пока зайдите на нашу страницу Secure AI Framework, чтобы узнать больше о работе Google в области безопасности AI.

Связанная статья
Salesforce представляет цифровых помощников с ИИ в Slack для конкуренции с Microsoft Copilot Salesforce представляет цифровых помощников с ИИ в Slack для конкуренции с Microsoft Copilot Salesforce запустила новую стратегию ИИ для рабочего места, представив специализированных «цифровых помощников», интегрированных в беседы Slack, сообщила компания в понедельник.Новый инструмент, Agent
Инвестиция Oracle в $40 млрд на чипы Nvidia для AI-датцентра в Техасе Инвестиция Oracle в $40 млрд на чипы Nvidia для AI-датцентра в Техасе Oracle планирует инвестировать около $40 млрд в чипы Nvidia для нового крупного дата-центра в Техасе, разработанного OpenAI, как сообщает Financial Times. Эта сделка, одна из крупнейших по закупке чип
Приложение Meta AI представит премиум-уровень и рекламу Приложение Meta AI представит премиум-уровень и рекламу Приложение Meta AI вскоре может предложить платную подписку, аналогичную предложениям конкурентов, таких как OpenAI, Google и Microsoft. Во время отчета о доходах за первый квартал 2025 года генеральн
Комментарии (32)
BillyAdams
BillyAdams 14 августа 2025 г., 4:00:59 GMT+03:00

This CoSAI initiative sounds promising! 😊 It's cool to see big players teaming up for AI security, but I wonder how they'll balance innovation with strict standards. Could be a game-changer if done right!

RobertMartinez
RobertMartinez 23 июля 2025 г., 7:59:47 GMT+03:00

Wow, CoSAI sounds like a game-changer! Finally, some serious teamwork to lock down AI security. I’m curious how SAIF will evolve with all these big players collaborating. 🛡️

GaryWilson
GaryWilson 24 апреля 2025 г., 13:18:04 GMT+03:00

CoSAI의 런치는 AI 보안에 큰 진전입니다. 많은 창립 멤버들이 함께하는 것을 보는 것이 좋습니다. 프레임워크는 견고해 보이지만, 아직 어떻게 작동하는지 잘 모르겠어요. 더 명확한 가이드가 있으면 좋겠어요! 🤔

AnthonyJohnson
AnthonyJohnson 24 апреля 2025 г., 9:42:02 GMT+03:00

El lanzamiento de CoSAI es un gran paso adelante para la seguridad en IA. Es genial ver a tantos miembros fundadores unidos. El marco parece sólido, pero aún estoy un poco confundido sobre cómo funciona todo. ¡Guías más claras serían útiles! 🤔

FredLewis
FredLewis 23 апреля 2025 г., 19:23:37 GMT+03:00

CoSAI's launch is a big step forward for AI security. It's great to see so many founding members coming together. The framework seems solid, but I'm still a bit confused about how it all works. More clear guides would be helpful! 🤔

AlbertThomas
AlbertThomas 16 апреля 2025 г., 21:24:08 GMT+03:00

CoSAI의 안전한 AI에 대한 초점은 정말 중요하지만, 작은 팀이 구현하기에는 조금 복잡한 것 같아요. 그래도 커뮤니티가 함께 노력하는 모습이 멋져요! 조금 더 간단하게 할 수 있다면 좋겠네요 🤔

Вернуться к вершине
OR