вариант
Дом
Новости
«Отчет об ответственности AI 2024

«Отчет об ответственности AI 2024

10 апреля 2025 г.
142

«Отчет об ответственности AI 2024

Два года назад мы поделились нашим видением продвижения ИИ для блага общества и стимулирования инноваций. Всего несколько недель назад мы представили обновление 2024 года, демонстрирующее достигнутый нами прогресс. От передовых моделей, которые повышают креативность, до прорывов в биологии, медицинских исследованиях и нейронауке, основанных на ИИ, мы создаем волну изменений.

Но смелость в использовании ИИ означает ответственность с самого начала. Поэтому наш подход к ИИ всегда был направлен на понимание и учет его широкого воздействия на людей. Еще в 2018 году мы были одними из первых, кто сформулировал принципы ИИ, и с 2019 года мы публикуем ежегодный отчет о прозрачности. Мы постоянно корректируем наши политики, практики и рамки, чтобы соответствовать времени.

Отчет о прогрессе в области ответственного ИИ за 2024 год

Наш шестой ежегодный отчет о прогрессе в области ответственного ИИ подробно рассматривает, как мы управляем рисками ИИ на протяжении всего процесса разработки. Он демонстрирует прогресс, достигнутый нами за последний год в создании структур управления для запуска наших ИИ-продуктов.

Мы вкладываем больше ресурсов, чем когда-либо, в исследования и продукты ИИ, которые помогают людям и обществу, а также в безопасность ИИ и изучение потенциальных рисков.

В прошлогоднем отчете было отмечено более 300 научных статей от наших команд по вопросам ответственности и безопасности, обновления наших политик ИИ, а также уроки, извлеченные из тестирования на уязвимости и оценки по стандартам безопасности, конфиденциальности и защиты. Мы также добились прогресса в снижении рисков при запуске различных ИИ-продуктов, улучшив настройку безопасности и фильтры, контроль безопасности и конфиденциальности, используя технологию происхождения в наших продуктах и способствуя повышению ИИ-грамотности. В течение 2024 года мы также поддерживали более широкое ИИ-сообщество с помощью финансирования, инструментов и разработки стандартов, как указано в отчете.

Обновление рамки безопасности frontier-моделей

По мере развития ИИ новые возможности могут приносить новые риски. Поэтому в прошлом году мы представили первую версию нашей рамки безопасности frontier-моделей — набор протоколов, помогающих нам контролировать потенциальные риски от мощных frontier-моделей ИИ. Мы работали с экспертами из индустрии, академических кругов и правительства, чтобы лучше понять эти риски, как их тестировать и как их смягчать.

Мы также применили эту рамку в наших процессах безопасности и управления Google DeepMind для оценки frontier-моделей, таких как Gemini 2.0. Сегодня мы публикуем обновленную рамку безопасности frontier-моделей, которая включает:

  • Рекомендации по усилению безопасности: определение областей, где необходимо усилить меры для предотвращения утечек данных.
  • Процедура смягчения при развертывании: сосредоточение на предотвращении злоупотребления критическими возможностями системы.
  • Риск обманного выравнивания: решение проблемы риска, связанного с намеренным подрывом автономной системой человеческого контроля.

Подробнее об этом можно узнать в блоге Google DeepMind.

Обновление принципов ИИ

С момента публикации наших принципов ИИ в 2018 году технологии ИИ развиваются с невероятной скоростью. Теперь миллиарды людей используют ИИ в повседневной жизни. Это стало ключевой технологией, платформой, которую бесчисленные организации и частные лица используют для создания приложений. ИИ превратился из нишевой лабораторной темы в нечто столь же распространенное, как мобильные телефоны и интернет, с множеством полезных применений для общества и людей по всему миру, поддерживаемых процветающей экосистемой разработчиков ИИ.

Наличие общих базовых принципов имеет ключевое значение для этой эволюции. Это касается не только компаний и академических институтов, работающих в области ИИ; мы наблюдаем прогресс в принципах ИИ на глобальном уровне. G7, Международная организация по стандартизации и различные демократические страны опубликовали рамки для руководства безопасной разработкой и использованием ИИ. Все больше организаций и правительств используют эти общие стандарты, чтобы определить, как создавать, регулировать и развертывать эту развивающуюся технологию — например, наш отчет о прогрессе в области ответственного ИИ теперь следует рамке управления рисками NIST США. Наш опыт и исследования на протяжении многих лет, а также разведданные об угрозах, экспертиза и лучшие практики, которыми мы поделились с другими компаниями в области ИИ, дали нам более глубокое понимание потенциала и рисков ИИ.

Идет глобальная гонка за лидерство в области ИИ в условиях все более сложного геополитического ландшафта. Мы считаем, что демократии должны лидировать в разработке ИИ, руководствуясь основными ценностями, такими как свобода, равенство и уважение прав человека. И мы думаем, что компании, правительства и организации, разделяющие эти ценности, должны объединиться для создания ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность.

С учетом этого мы обновляем наши принципы ИИ, сосредоточив внимание на трех основных положениях:

  • Смелые инновации: Мы разрабатываем ИИ, чтобы помогать, расширять возможности и вдохновлять людей практически во всех областях, способствовать экономическому прогрессу, улучшать жизнь, обеспечивать научные прорывы и решать крупнейшие вызовы человечества.
  • Ответственная разработка и развертывание: Мы понимаем, что ИИ, как новая трансформационная технология, приносит новые сложности и риски. Поэтому мы стремимся ответственно развивать ИИ на протяжении всего цикла разработки и развертывания — от проектирования до тестирования, развертывания и итераций — обучаясь по мере развития ИИ и его применений.
  • Совместный прогресс: Мы учимся у других и создаем технологии, которые позволяют другим использовать ИИ позитивно.

Полный текст наших принципов ИИ можно посмотреть на AI.google.

Руководствуясь нашими принципами ИИ, мы продолжим сосредотачиваться на исследованиях и приложениях ИИ, которые соответствуют нашей миссии, нашему научному фокусу и нашим областям экспертизы, а также международно признанным принципам международного права и прав человека — всегда тщательно оценивая, существенно ли перевешивают преимущества потенциальные риски. Мы также будем учитывать, требуют ли наши проекты специализированных исследований и разработок или могут опираться на общедоступные технологии общего назначения. Эти оценки имеют решающее значение, поскольку ИИ все чаще разрабатывается множеством организаций и правительств для использования в таких областях, как здравоохранение, наука, робототехника, кибербезопасность, транспорт, национальная безопасность, энергетика, климат и многое другое.

Конечно, в дополнение к принципам у нас продолжают действовать конкретные политики продуктов и четкие условия использования, включающие запреты, такие как незаконное использование наших сервисов.

Возможности впереди

Мы знаем, как быстро развивается базовая технология — и дебаты вокруг продвижения, развертывания и использования ИИ — и мы будем продолжать адаптировать и совершенствовать наш подход по мере того, как все мы учимся со временем.

По мере того как AGI становится все более отчетливой, общественные последствия становятся невероятно глубокими. Это не только о создании мощного ИИ; это о создании самой трансформационной технологии в истории человечества, использовании ее для решения крупнейших вызовов человечества и обеспечении наличия правильных мер безопасности и управления ради блага мира. Мы будем продолжать делиться нашим прогрессом и выводами об этом путешествии и ожидаем, что наше мышление будет развиваться по мере приближения к AGI.

Двигаясь вперед, мы считаем, что улучшения, которые мы внесли за последний год в наши процессы управления, наша новая рамка безопасности frontier-моделей и наши принципы ИИ хорошо позиционируют нас для следующего этапа трансформации ИИ. Возможность ИИ помогать и улучшать жизнь людей по всему миру — это то, что в конечном итоге движет нами в этой работе, и мы будем продолжать следовать нашему смелому, ответственному и совместному подходу к ИИ.

Связанная статья
Salesforce представляет цифровых помощников с ИИ в Slack для конкуренции с Microsoft Copilot Salesforce представляет цифровых помощников с ИИ в Slack для конкуренции с Microsoft Copilot Salesforce запустила новую стратегию ИИ для рабочего места, представив специализированных «цифровых помощников», интегрированных в беседы Slack, сообщила компания в понедельник.Новый инструмент, Agent
Инвестиция Oracle в $40 млрд на чипы Nvidia для AI-датцентра в Техасе Инвестиция Oracle в $40 млрд на чипы Nvidia для AI-датцентра в Техасе Oracle планирует инвестировать около $40 млрд в чипы Nvidia для нового крупного дата-центра в Техасе, разработанного OpenAI, как сообщает Financial Times. Эта сделка, одна из крупнейших по закупке чип
Приложение Meta AI представит премиум-уровень и рекламу Приложение Meta AI представит премиум-уровень и рекламу Приложение Meta AI вскоре может предложить платную подписку, аналогичную предложениям конкурентов, таких как OpenAI, Google и Microsoft. Во время отчета о доходах за первый квартал 2025 года генеральн
Комментарии (34)
LawrencePerez
LawrencePerez 16 августа 2025 г., 22:01:01 GMT+03:00

This report sounds like a big step forward! I'm amazed at how AI is transforming biology and health research. Can't wait to see what new doors this opens! 😎

RoyMitchell
RoyMitchell 7 августа 2025 г., 16:00:59 GMT+03:00

Wow, the 2024 AI Responsibility Report sounds like a big leap! I'm amazed at how AI's pushing boundaries in health and creativity. But, like, are we sure it’s all safe? 🤔 Excited to see where this goes!

JustinMitchell
JustinMitchell 28 июля 2025 г., 4:20:02 GMT+03:00

Wow, the 2024 AI Responsibility Report sounds like a big leap forward! I'm amazed at how AI is diving into biology and health research. Makes me wonder what crazy breakthroughs we'll see next. 🤯 Any chance we'll get AI doctors soon?

ScottWalker
ScottWalker 28 июля 2025 г., 4:19:05 GMT+03:00

This report sounds like a big step forward! I'm amazed at how AI is transforming biology and health research. Can't wait to see what new breakthroughs come next. 😎

LawrenceJones
LawrenceJones 19 апреля 2025 г., 2:05:22 GMT+03:00

¡El Informe de Responsabilidad de IA de 2024 es impresionante! Es increíble ver cómo la IA está empujando los límites en salud y biología. Pero, desearía que hubiera más sobre cómo están abordando los problemas éticos. Aún así, es un paso sólido hacia adelante. Sigan con el buen trabajo, y tal vez la próxima vez profundicen más en la ética? 🌟

JoseDavis
JoseDavis 18 апреля 2025 г., 14:11:49 GMT+03:00

Le Rapport de Responsabilité de l'IA 2024 est à lire absolument ! C'est incroyable de voir comment l'IA repousse les limites dans tant de domaines. Les percées dans la recherche en santé sont époustouflantes ! Mais, j'aurais aimé qu'il y ait plus de considérations éthiques. Néanmoins, c'est un bon aperçu de l'avenir de l'IA. Ça vaut vraiment le coup d'œil ! 🤓

Вернуться к вершине
OR