MSC сотрудничает с рисками и возможностями искусственного интеллекта

На протяжении шести десятилетий Мюнхенская конференция по безопасности является ключевым местом встречи мировых лидеров, бизнеса, экспертов и гражданского общества для открытых дискуссий о укреплении и защите демократий и глобального порядка. В условиях нарастающих геополитических напряжений, важных выборов по всему миру и всё более сложных киберугроз эти обсуждения становятся важнее, чем когда-либо. Появление AI в наступательных и оборонительных ролях добавляет совершенно новый уровень к этим разговорам.
На этой неделе Группа анализа угроз Google (TAG), вместе с командами Mandiant и Trust & Safety, опубликовала новый отчёт. Он раскрывает, как поддерживаемые Ираном группы используют информационную войну для влияния на общественное мнение в конфликте между Израилем и ХАМАС. Отчёт также обновляет информацию о кибераспектах войны России в Украине. Отдельно TAG отметила нарастающее использование коммерческого шпионского ПО правительствами и другими злоумышленниками, направленное против журналистов, правозащитников, диссидентов и оппозиционных политиков. И не будем забывать о продолжающихся сообщениях о том, как злоумышленники эксплуатируют старые уязвимости систем для компрометации безопасности правительств и частных компаний.
В условиях этих нарастающих угроз у нас есть уникальная возможность использовать AI для укрепления киберзащиты демократий по всему миру, предоставляя бизнесу, правительствам и организациям новые оборонительные инструменты, которые раньше были доступны только крупнейшим игрокам. На этой неделе в Мюнхене мы обсуждаем, как использовать новые инвестиции, обязательства и партнёрства для решения рисков, связанных с AI, и реализации его потенциала. Ведь демократии не могут процветать в мире, где нападающие могут использовать AI для инноваций, а защитники — нет.
Использование AI для укрепления киберзащиты
Годами киберугрозы были головной болью для специалистов по безопасности, правительств, бизнеса и гражданского общества. AI имеет потенциал изменить баланс, давая защитникам реальное преимущество над нападающими. Но, как и любая технология, AI может быть обоюдоострым мечом, если его не разрабатывать и не использовать безопасно.
Поэтому сегодня мы запустили Инициативу киберзащиты с использованием AI. Она направлена на раскрытие потенциала безопасности AI с помощью предложенной политики и технологической повестки, чтобы обеспечить, укрепить и продвинуть наше коллективное цифровое будущее. Инициатива киберзащиты с использованием AI основывается на нашем Secure AI Framework (SAIF), который помогает организациям создавать инструменты и продукты AI, безопасные с самого начала.
В рамках этой инициативы мы запускаем новую когорту стартапов "AI для кибербезопасности", чтобы усилить трансатлантическую сцену кибербезопасности. Мы также увеличиваем наше обязательство на $15 миллионов для обучения кибербезопасности в Европе, добавляя ещё $2 миллиона для поддержки исследований в области кибербезопасности и открывая исходный код Magika, нашей системы идентификации типов файлов на основе Google AI. Кроме того, мы продолжаем инвестировать в наши безопасные, готовые к AI глобальные центры данных. К концу 2024 года мы инвестируем более $5 миллиардов в европейские центры данных, помогая обеспечить безопасный и надёжный доступ к ряду цифровых сервисов, включая генеративные возможности платформы Vertex AI.
Защита демократических выборов
В этом году выборы проходят по всей Европе, в Соединённых Штатах, Индии и многих других странах. У нас есть опыт поддержки целостности демократических выборов, и мы только что объявили о нашей кампании по пребанкингу в ЕС перед парламентскими выборами. Эта кампания, которая учит людей распознавать распространённые манипулятивные приёмы до того, как они их увидят, через короткие видеообъявления в социальных сетях, стартует этой весной во Франции, Германии, Италии, Бельгии и Польше. Мы также полностью привержены продолжению наших усилий по предотвращению злоупотреблений на наших платформах, предоставлению избирателям высококачественной информации и разъяснению о контенте, созданном с помощью AI, чтобы помочь людям делать осознанный выбор.
Существуют обоснованные опасения по поводу злоупотребления AI для создания дипфейков и введения избирателей в заблуждение. Но AI также предоставляет уникальную возможность предотвращать злоупотребления в массовом масштабе. Команды Google Trust & Safety решают эту проблему напрямую, используя AI для усиления наших усилий по борьбе со злоупотреблениями, более эффективного применения наших политик и быстрого адаптирования к новым ситуациям или утверждениям.
Мы также сотрудничаем с другими в индустрии, делясь исследованиями и работая вместе для противодействия угрозам и злоупотреблениям, включая риск обманного контента, созданного AI. На прошлой неделе мы присоединились к Коалиции за подлинность и происхождение контента (C2PA), которая работает над созданием учетной записи контента, чтобы пролить свет на то, как создаётся и редактируется контент, сгенерированный AI, со временем. Это опирается на наши кросс-индустриальные коллаборации вокруг ответственного AI с Frontier Model Forum, Partnership on AI и другими инициативами.
Объединение для защиты международного порядка, основанного на правилах
Мюнхенская конференция по безопасности выдержала испытание временем как место для решения вызовов демократии. На протяжении 60 лет демократии сталкивались с этими вызовами и преодолевали их, справляясь с крупными изменениями — такими, как те, что принес AI — вместе. Теперь у нас есть шанс снова объединиться — правительствам, бизнесу, академикам и гражданскому обществу — чтобы создать новые партнёрства, использовать потенциал AI во благо и укрепить мировой порядок, основанный на правилах.
Связанная статья
Meta Усиливает Безопасность ИИ с Помощью Продвинутых Инструментов Llama
Meta выпустила новые инструменты безопасности Llama для укрепления разработки ИИ и защиты от новых угроз.Эти усовершенствованные инструменты безопасности модели ИИ Llama сочетаются с новыми ресурсами
NotebookLM представляет курируемые тетради от ведущих изданий и экспертов
Google совершенствует свой инструмент для исследований и заметок на базе ИИ, NotebookLM, чтобы сделать его всеобъемлющим центром знаний. В понедельник компания представила курируемую коллекцию тетраде
Alibaba представляет Wan2.1-VACE: Открытое решение для видео с ИИ
Alibaba представила Wan2.1-VACE, модель ИИ с открытым исходным кодом, которая призвана трансформировать процессы создания и редактирования видео.VACE является ключевым компонентом семейства видео моде
Комментарии (55)
WalterGonzález
24 апреля 2025 г., 3:13:17 GMT+03:00
MSC's collaboration on AI risks and opportunities is timely and crucial. It's great to see such initiatives amidst global tensions. However, the discussions could be more actionable. Still, a vital conversation to have! 🌍
0
JamesTaylor
22 апреля 2025 г., 8:06:28 GMT+03:00
Sự hợp tác của MSC về rủi ro và cơ hội của AI rất kịp thời và quan trọng. Rất thích thấy những sáng kiến như thế này giữa các căng thẳng toàn cầu. Tuy nhiên, các cuộc thảo luận có thể thực tế hơn. Dù sao cũng là cuộc trò chuyện quan trọng cần có! 🌍
0
RichardThomas
21 апреля 2025 г., 14:09:25 GMT+03:00
A colaboração da MSC sobre riscos e oportunidades da IA é oportuna e crucial. É ótimo ver essas iniciativas em meio às tensões globais. No entanto, as discussões poderiam ser mais práticas. Ainda assim, uma conversa vital para se ter! 🌍
0
KevinHarris
20 апреля 2025 г., 19:22:17 GMT+03:00
Сотрудничество MSC по рискам и возможностям ИИ своевременно и важно. Приятно видеть такие инициативы на фоне глобальных напряжений. Однако обсуждения могли бы быть более практичными. Тем не менее, важный разговор, который нужно вести! 🌍
0
WilliamLewis
19 апреля 2025 г., 21:25:15 GMT+03:00
MSC Collaborates on AI Risks and Opportunities is a must-attend for anyone interested in global security. The discussions are always insightful and it's great to see such a diverse group tackling these issues. Only wish it was more accessible to the public! 🤔
0
KennethKing
19 апреля 2025 г., 7:28:42 GMT+03:00
O foco da MSC nos riscos e oportunidades da IA é super importante, especialmente com todas as tensões globais e eleições. É ótimo ver uma conferência de alto nível enfrentando essas questões diretamente. Continuem o bom trabalho! 👏
0
На протяжении шести десятилетий Мюнхенская конференция по безопасности является ключевым местом встречи мировых лидеров, бизнеса, экспертов и гражданского общества для открытых дискуссий о укреплении и защите демократий и глобального порядка. В условиях нарастающих геополитических напряжений, важных выборов по всему миру и всё более сложных киберугроз эти обсуждения становятся важнее, чем когда-либо. Появление AI в наступательных и оборонительных ролях добавляет совершенно новый уровень к этим разговорам.
На этой неделе Группа анализа угроз Google (TAG), вместе с командами Mandiant и Trust & Safety, опубликовала новый отчёт. Он раскрывает, как поддерживаемые Ираном группы используют информационную войну для влияния на общественное мнение в конфликте между Израилем и ХАМАС. Отчёт также обновляет информацию о кибераспектах войны России в Украине. Отдельно TAG отметила нарастающее использование коммерческого шпионского ПО правительствами и другими злоумышленниками, направленное против журналистов, правозащитников, диссидентов и оппозиционных политиков. И не будем забывать о продолжающихся сообщениях о том, как злоумышленники эксплуатируют старые уязвимости систем для компрометации безопасности правительств и частных компаний.
В условиях этих нарастающих угроз у нас есть уникальная возможность использовать AI для укрепления киберзащиты демократий по всему миру, предоставляя бизнесу, правительствам и организациям новые оборонительные инструменты, которые раньше были доступны только крупнейшим игрокам. На этой неделе в Мюнхене мы обсуждаем, как использовать новые инвестиции, обязательства и партнёрства для решения рисков, связанных с AI, и реализации его потенциала. Ведь демократии не могут процветать в мире, где нападающие могут использовать AI для инноваций, а защитники — нет.
Использование AI для укрепления киберзащиты
Годами киберугрозы были головной болью для специалистов по безопасности, правительств, бизнеса и гражданского общества. AI имеет потенциал изменить баланс, давая защитникам реальное преимущество над нападающими. Но, как и любая технология, AI может быть обоюдоострым мечом, если его не разрабатывать и не использовать безопасно.
Поэтому сегодня мы запустили Инициативу киберзащиты с использованием AI. Она направлена на раскрытие потенциала безопасности AI с помощью предложенной политики и технологической повестки, чтобы обеспечить, укрепить и продвинуть наше коллективное цифровое будущее. Инициатива киберзащиты с использованием AI основывается на нашем Secure AI Framework (SAIF), который помогает организациям создавать инструменты и продукты AI, безопасные с самого начала.
В рамках этой инициативы мы запускаем новую когорту стартапов "AI для кибербезопасности", чтобы усилить трансатлантическую сцену кибербезопасности. Мы также увеличиваем наше обязательство на $15 миллионов для обучения кибербезопасности в Европе, добавляя ещё $2 миллиона для поддержки исследований в области кибербезопасности и открывая исходный код Magika, нашей системы идентификации типов файлов на основе Google AI. Кроме того, мы продолжаем инвестировать в наши безопасные, готовые к AI глобальные центры данных. К концу 2024 года мы инвестируем более $5 миллиардов в европейские центры данных, помогая обеспечить безопасный и надёжный доступ к ряду цифровых сервисов, включая генеративные возможности платформы Vertex AI.
Защита демократических выборов
В этом году выборы проходят по всей Европе, в Соединённых Штатах, Индии и многих других странах. У нас есть опыт поддержки целостности демократических выборов, и мы только что объявили о нашей кампании по пребанкингу в ЕС перед парламентскими выборами. Эта кампания, которая учит людей распознавать распространённые манипулятивные приёмы до того, как они их увидят, через короткие видеообъявления в социальных сетях, стартует этой весной во Франции, Германии, Италии, Бельгии и Польше. Мы также полностью привержены продолжению наших усилий по предотвращению злоупотреблений на наших платформах, предоставлению избирателям высококачественной информации и разъяснению о контенте, созданном с помощью AI, чтобы помочь людям делать осознанный выбор.
Существуют обоснованные опасения по поводу злоупотребления AI для создания дипфейков и введения избирателей в заблуждение. Но AI также предоставляет уникальную возможность предотвращать злоупотребления в массовом масштабе. Команды Google Trust & Safety решают эту проблему напрямую, используя AI для усиления наших усилий по борьбе со злоупотреблениями, более эффективного применения наших политик и быстрого адаптирования к новым ситуациям или утверждениям.
Мы также сотрудничаем с другими в индустрии, делясь исследованиями и работая вместе для противодействия угрозам и злоупотреблениям, включая риск обманного контента, созданного AI. На прошлой неделе мы присоединились к Коалиции за подлинность и происхождение контента (C2PA), которая работает над созданием учетной записи контента, чтобы пролить свет на то, как создаётся и редактируется контент, сгенерированный AI, со временем. Это опирается на наши кросс-индустриальные коллаборации вокруг ответственного AI с Frontier Model Forum, Partnership on AI и другими инициативами.
Объединение для защиты международного порядка, основанного на правилах
Мюнхенская конференция по безопасности выдержала испытание временем как место для решения вызовов демократии. На протяжении 60 лет демократии сталкивались с этими вызовами и преодолевали их, справляясь с крупными изменениями — такими, как те, что принес AI — вместе. Теперь у нас есть шанс снова объединиться — правительствам, бизнесу, академикам и гражданскому обществу — чтобы создать новые партнёрства, использовать потенциал AI во благо и укрепить мировой порядок, основанный на правилах.


MSC's collaboration on AI risks and opportunities is timely and crucial. It's great to see such initiatives amidst global tensions. However, the discussions could be more actionable. Still, a vital conversation to have! 🌍




Sự hợp tác của MSC về rủi ro và cơ hội của AI rất kịp thời và quan trọng. Rất thích thấy những sáng kiến như thế này giữa các căng thẳng toàn cầu. Tuy nhiên, các cuộc thảo luận có thể thực tế hơn. Dù sao cũng là cuộc trò chuyện quan trọng cần có! 🌍




A colaboração da MSC sobre riscos e oportunidades da IA é oportuna e crucial. É ótimo ver essas iniciativas em meio às tensões globais. No entanto, as discussões poderiam ser mais práticas. Ainda assim, uma conversa vital para se ter! 🌍




Сотрудничество MSC по рискам и возможностям ИИ своевременно и важно. Приятно видеть такие инициативы на фоне глобальных напряжений. Однако обсуждения могли бы быть более практичными. Тем не менее, важный разговор, который нужно вести! 🌍




MSC Collaborates on AI Risks and Opportunities is a must-attend for anyone interested in global security. The discussions are always insightful and it's great to see such a diverse group tackling these issues. Only wish it was more accessible to the public! 🤔




O foco da MSC nos riscos e oportunidades da IA é super importante, especialmente com todas as tensões globais e eleições. É ótimo ver uma conferência de alto nível enfrentando essas questões diretamente. Continuem o bom trabalho! 👏












