вариант
Дом
Новости
Google Assusts Ответственный отчет об искусственном интеллекте, бросает обязательства по борьбе с оружием

Google Assusts Ответственный отчет об искусственном интеллекте, бросает обязательства по борьбе с оружием

17 апреля 2025 г.
103

Google Assusts Ответственный отчет об искусственном интеллекте, бросает обязательства по борьбе с оружием

Последний отчет Google о прогрессе в области ответственного ИИ, опубликованный во вторник, предоставляет подробный обзор усилий компании по управлению рисками ИИ и содействию ответственным инновациям. В отчете подчеркивается приверженность Google принципам "управления, картирования, измерения и управления рисками ИИ" и предоставляются обновления о том, как эти принципы реализуются на практике в компании. Однако в отчете отсутствует упоминание об использовании ИИ в оружии и системах наблюдения, тема, которая заметно отсутствует с тех пор, как Google удалил соответствующее обещание со своего сайта.

Отчет демонстрирует приверженность Google безопасности, с более чем 300 научными статьями по безопасности, опубликованными в 2024 году, инвестициями в размере 120 миллионов долларов в образование и обучение в области ИИ, а также "зрелым" рейтингом готовности для своего Cloud AI по рамке управления рисками Национального института стандартов и технологий (NIST). В нем подробно рассматриваются усилия по тестированию на безопасность и контент, особенно в проектах, таких как Gemini, AlphaFold и Gemma, и подчеркиваются стратегии компании по предотвращению генерации или распространения вредоносного контента. Кроме того, Google выделяет свой инструмент для водяных знаков контента с открытым исходным кодом, SynthID, предназначенный для отслеживания дезинформации, созданной ИИ.

Google также обновил свою рамку безопасности Frontier, представив новые рекомендации по безопасности, процедуры смягчения последствий неправильного использования и рассмотрев "риск обманного выравнивания", который связан с потенциалом автономных систем подрывать человеческий контроль. Эта проблема была замечена в моделях, таких как o1 от OpenAI и Claude 3 Opus, где системы ИИ демонстрировали тенденции к обману своих создателей для сохранения автономии.

Несмотря на эти всесторонние меры по обеспечению безопасности, отчет остается сосредоточенным на безопасности конечных пользователей, конфиденциальности данных и потребительском ИИ, с лишь краткими упоминаниями более широких проблем, таких как неправильное использование, кибератаки и разработка искусственного общего интеллекта (AGI). Этот подход, ориентированный на потребителя, контрастирует с недавним удалением обещания Google не использовать ИИ для оружия или наблюдения, изменение, которое, по сообщению Bloomberg, было видно на сайте компании до прошлой недели.

Это несоответствие вызывает серьезные вопросы о том, что составляет ответственный ИИ. Обновленные принципы ИИ Google подчеркивают "смелые инновации, совместный прогресс и ответственное развитие и внедрение", соответствуя "целям пользователей, социальной ответственности и широко принятым принципам международного права и прав человека". Однако расплывчатость этих принципов может позволить пересмотреть случаи использования оружия, не противореча собственным рекомендациям.

В сопроводительном посте в блоге Google говорится: "Мы продолжим сосредотачиваться на исследованиях и приложениях ИИ, которые соответствуют нашей миссии, нашему научному фокусу и нашим областям экспертизы, всегда тщательно оценивая, значительно ли перевешивают потенциальные риски выгоды." Этот сдвиг отражает более широкую тенденцию среди технологических гигантов, как видно из недавних партнерств OpenAI с национальными лабораториями США и оборонным подрядчиком Anduril, а также предложения Microsoft использовать DALL-E для Министерства обороны.

Принципы ИИ Google и удаленное обещание

Удаление раздела под названием "приложения, которые мы не будем разрабатывать" с сайта Google, который ранее включал обязательство не использовать ИИ для оружия или наблюдения, знаменует значительное изменение в позиции компании. Этот удаленный раздел, как показано на скриншоте ниже, явно указывал на намерение Google избегать таких приложений.

Более широкий контекст использования ИИ в военных приложениях

Эволюционирующие взгляды технологических гигантов на военные применения ИИ являются частью более широкой мозаики. Недавние шаги OpenAI в инфраструктуру национальной безопасности и партнерства с оборонными подрядчиками, наряду с взаимодействием Microsoft с Министерством обороны, иллюстрируют растущее признание ИИ в военных контекстах. Этот сдвиг побуждает к переоценке того, что на самом деле означает ответственный ИИ в условиях таких приложений.

Связанная статья
Путешествие Вейдера: От трагедии к искуплению в «Звёздных войнах» Путешествие Вейдера: От трагедии к искуплению в «Звёздных войнах» Дарт Вейдер, символ ужаса и тирании, остаётся одним из самых культовых антагонистов кинематографа. Однако за маской скрывается история трагедии, потерь и окончательного искупления. Эта статья исследуе
Бывший инженер OpenAI делится впечатлениями о культуре компании и быстром росте Бывший инженер OpenAI делится впечатлениями о культуре компании и быстром росте Три недели назад Келвин Френч-Оуэн, инженер, работавший над ключевым продуктом OpenAI, покинул компанию.Недавно он опубликовал увлекательный пост в блоге, описывающий его год в OpenAI, включая интенси
AI-управляемый перевод улучшает глобальную деловую коммуникацию AI-управляемый перевод улучшает глобальную деловую коммуникацию В современном взаимосвязанном мире беспрепятственное межъязыковое общение жизненно важно для успеха. DeepL лидирует, используя передовой искусственный интеллект для упрощения многоязычных взаимодейств
Комментарии (26)
ScarlettWhite
ScarlettWhite 31 июля 2025 г., 14:35:39 GMT+03:00

Google's AI report sounds promising, but dropping the anti-weapons stance raises eyebrows. Are they prioritizing profits over ethics now? 🤔 Still, their risk management approach seems thorough—hope it’s not just PR spin!

NicholasLewis
NicholasLewis 26 апреля 2025 г., 4:08:00 GMT+03:00

O relatório de IA Responsável do Google parece bom no papel, mas abandonar o compromisso contra armas? Isso é um pouco decepcionante. É importante continuar a empurrar pela IA ética, mas isso parece um passo para trás. Vamos, Google, você pode fazer melhor! 🤨

ThomasYoung
ThomasYoung 24 апреля 2025 г., 7:40:26 GMT+03:00

O relatório de IA do Google é interessante, mas abandonar o compromisso contra armas? Isso é um pouco decepcionante. Aprecio a transparência na gestão dos riscos de IA, mas vamos, Google, precisamos de mais do que apenas relatórios. Precisamos de ação! 🤔

ChristopherAllen
ChristopherAllen 24 апреля 2025 г., 1:55:05 GMT+03:00

El informe de IA de Google es interesante, pero ¿abandonar el compromiso contra armas? Eso es un poco decepcionante. Aprecio la transparencia en la gestión de riesgos de IA, pero vamos, Google, necesitamos más que solo informes. ¡Necesitamos acción! 🤔

TimothyMitchell
TimothyMitchell 23 апреля 2025 г., 13:53:48 GMT+03:00

GoogleのResponsible AIレポートは素晴らしいけど、反兵器コミットメントをやめたのは残念だね。それでも、AIリスクの管理に注力しているのは評価できるよ。これからも責任あるイノベーションを推進してほしいな!🚀

JackMartinez
JackMartinez 22 апреля 2025 г., 2:11:46 GMT+03:00

El informe de IA Responsable de Google suena bien sobre el papel, pero ¿abandonar el compromiso contra las armas? Eso es un poco decepcionante. Es importante seguir empujando por una IA ética, pero esto se siente como un paso atrás. Vamos, Google, ¡puedes hacerlo mejor! 🤨

Вернуться к вершине
OR