«Отчет об ответственности AI 2024

Два года назад мы поделились нашим видением продвижения ИИ для блага общества и стимулирования инноваций. Всего несколько недель назад мы представили обновление 2024 года, демонстрирующее достигнутый нами прогресс. От передовых моделей, которые повышают креативность, до прорывов в биологии, медицинских исследованиях и нейронауке, основанных на ИИ, мы создаем волну изменений.
Но смелость в использовании ИИ означает ответственность с самого начала. Поэтому наш подход к ИИ всегда был направлен на понимание и учет его широкого воздействия на людей. Еще в 2018 году мы были одними из первых, кто сформулировал принципы ИИ, и с 2019 года мы публикуем ежегодный отчет о прозрачности. Мы постоянно корректируем наши политики, практики и рамки, чтобы соответствовать времени.
Отчет о прогрессе в области ответственного ИИ за 2024 год
Наш шестой ежегодный отчет о прогрессе в области ответственного ИИ подробно рассматривает, как мы управляем рисками ИИ на протяжении всего процесса разработки. Он демонстрирует прогресс, достигнутый нами за последний год в создании структур управления для запуска наших ИИ-продуктов.
Мы вкладываем больше ресурсов, чем когда-либо, в исследования и продукты ИИ, которые помогают людям и обществу, а также в безопасность ИИ и изучение потенциальных рисков.
В прошлогоднем отчете было отмечено более 300 научных статей от наших команд по вопросам ответственности и безопасности, обновления наших политик ИИ, а также уроки, извлеченные из тестирования на уязвимости и оценки по стандартам безопасности, конфиденциальности и защиты. Мы также добились прогресса в снижении рисков при запуске различных ИИ-продуктов, улучшив настройку безопасности и фильтры, контроль безопасности и конфиденциальности, используя технологию происхождения в наших продуктах и способствуя повышению ИИ-грамотности. В течение 2024 года мы также поддерживали более широкое ИИ-сообщество с помощью финансирования, инструментов и разработки стандартов, как указано в отчете.
Обновление рамки безопасности frontier-моделей
По мере развития ИИ новые возможности могут приносить новые риски. Поэтому в прошлом году мы представили первую версию нашей рамки безопасности frontier-моделей — набор протоколов, помогающих нам контролировать потенциальные риски от мощных frontier-моделей ИИ. Мы работали с экспертами из индустрии, академических кругов и правительства, чтобы лучше понять эти риски, как их тестировать и как их смягчать.
Мы также применили эту рамку в наших процессах безопасности и управления Google DeepMind для оценки frontier-моделей, таких как Gemini 2.0. Сегодня мы публикуем обновленную рамку безопасности frontier-моделей, которая включает:
- Рекомендации по усилению безопасности: определение областей, где необходимо усилить меры для предотвращения утечек данных.
- Процедура смягчения при развертывании: сосредоточение на предотвращении злоупотребления критическими возможностями системы.
- Риск обманного выравнивания: решение проблемы риска, связанного с намеренным подрывом автономной системой человеческого контроля.
Подробнее об этом можно узнать в блоге Google DeepMind.
Обновление принципов ИИ
С момента публикации наших принципов ИИ в 2018 году технологии ИИ развиваются с невероятной скоростью. Теперь миллиарды людей используют ИИ в повседневной жизни. Это стало ключевой технологией, платформой, которую бесчисленные организации и частные лица используют для создания приложений. ИИ превратился из нишевой лабораторной темы в нечто столь же распространенное, как мобильные телефоны и интернет, с множеством полезных применений для общества и людей по всему миру, поддерживаемых процветающей экосистемой разработчиков ИИ.
Наличие общих базовых принципов имеет ключевое значение для этой эволюции. Это касается не только компаний и академических институтов, работающих в области ИИ; мы наблюдаем прогресс в принципах ИИ на глобальном уровне. G7, Международная организация по стандартизации и различные демократические страны опубликовали рамки для руководства безопасной разработкой и использованием ИИ. Все больше организаций и правительств используют эти общие стандарты, чтобы определить, как создавать, регулировать и развертывать эту развивающуюся технологию — например, наш отчет о прогрессе в области ответственного ИИ теперь следует рамке управления рисками NIST США. Наш опыт и исследования на протяжении многих лет, а также разведданные об угрозах, экспертиза и лучшие практики, которыми мы поделились с другими компаниями в области ИИ, дали нам более глубокое понимание потенциала и рисков ИИ.
Идет глобальная гонка за лидерство в области ИИ в условиях все более сложного геополитического ландшафта. Мы считаем, что демократии должны лидировать в разработке ИИ, руководствуясь основными ценностями, такими как свобода, равенство и уважение прав человека. И мы думаем, что компании, правительства и организации, разделяющие эти ценности, должны объединиться для создания ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность.
С учетом этого мы обновляем наши принципы ИИ, сосредоточив внимание на трех основных положениях:
- Смелые инновации: Мы разрабатываем ИИ, чтобы помогать, расширять возможности и вдохновлять людей практически во всех областях, способствовать экономическому прогрессу, улучшать жизнь, обеспечивать научные прорывы и решать крупнейшие вызовы человечества.
- Ответственная разработка и развертывание: Мы понимаем, что ИИ, как новая трансформационная технология, приносит новые сложности и риски. Поэтому мы стремимся ответственно развивать ИИ на протяжении всего цикла разработки и развертывания — от проектирования до тестирования, развертывания и итераций — обучаясь по мере развития ИИ и его применений.
- Совместный прогресс: Мы учимся у других и создаем технологии, которые позволяют другим использовать ИИ позитивно.
Полный текст наших принципов ИИ можно посмотреть на AI.google.
Руководствуясь нашими принципами ИИ, мы продолжим сосредотачиваться на исследованиях и приложениях ИИ, которые соответствуют нашей миссии, нашему научному фокусу и нашим областям экспертизы, а также международно признанным принципам международного права и прав человека — всегда тщательно оценивая, существенно ли перевешивают преимущества потенциальные риски. Мы также будем учитывать, требуют ли наши проекты специализированных исследований и разработок или могут опираться на общедоступные технологии общего назначения. Эти оценки имеют решающее значение, поскольку ИИ все чаще разрабатывается множеством организаций и правительств для использования в таких областях, как здравоохранение, наука, робототехника, кибербезопасность, транспорт, национальная безопасность, энергетика, климат и многое другое.
Конечно, в дополнение к принципам у нас продолжают действовать конкретные политики продуктов и четкие условия использования, включающие запреты, такие как незаконное использование наших сервисов.
Возможности впереди
Мы знаем, как быстро развивается базовая технология — и дебаты вокруг продвижения, развертывания и использования ИИ — и мы будем продолжать адаптировать и совершенствовать наш подход по мере того, как все мы учимся со временем.
По мере того как AGI становится все более отчетливой, общественные последствия становятся невероятно глубокими. Это не только о создании мощного ИИ; это о создании самой трансформационной технологии в истории человечества, использовании ее для решения крупнейших вызовов человечества и обеспечении наличия правильных мер безопасности и управления ради блага мира. Мы будем продолжать делиться нашим прогрессом и выводами об этом путешествии и ожидаем, что наше мышление будет развиваться по мере приближения к AGI.
Двигаясь вперед, мы считаем, что улучшения, которые мы внесли за последний год в наши процессы управления, наша новая рамка безопасности frontier-моделей и наши принципы ИИ хорошо позиционируют нас для следующего этапа трансформации ИИ. Возможность ИИ помогать и улучшать жизнь людей по всему миру — это то, что в конечном итоге движет нами в этой работе, и мы будем продолжать следовать нашему смелому, ответственному и совместному подходу к ИИ.
Связанная статья
Salesforce представляет цифровых помощников с ИИ в Slack для конкуренции с Microsoft Copilot
Salesforce запустила новую стратегию ИИ для рабочего места, представив специализированных «цифровых помощников», интегрированных в беседы Slack, сообщила компания в понедельник.Новый инструмент, Agent
Инвестиция Oracle в $40 млрд на чипы Nvidia для AI-датцентра в Техасе
Oracle планирует инвестировать около $40 млрд в чипы Nvidia для нового крупного дата-центра в Техасе, разработанного OpenAI, как сообщает Financial Times. Эта сделка, одна из крупнейших по закупке чип
Приложение Meta AI представит премиум-уровень и рекламу
Приложение Meta AI вскоре может предложить платную подписку, аналогичную предложениям конкурентов, таких как OpenAI, Google и Microsoft. Во время отчета о доходах за первый квартал 2025 года генеральн
Комментарии (34)
LawrencePerez
16 августа 2025 г., 22:01:01 GMT+03:00
This report sounds like a big step forward! I'm amazed at how AI is transforming biology and health research. Can't wait to see what new doors this opens! 😎
0
RoyMitchell
7 августа 2025 г., 16:00:59 GMT+03:00
Wow, the 2024 AI Responsibility Report sounds like a big leap! I'm amazed at how AI's pushing boundaries in health and creativity. But, like, are we sure it’s all safe? 🤔 Excited to see where this goes!
0
JustinMitchell
28 июля 2025 г., 4:20:02 GMT+03:00
Wow, the 2024 AI Responsibility Report sounds like a big leap forward! I'm amazed at how AI is diving into biology and health research. Makes me wonder what crazy breakthroughs we'll see next. 🤯 Any chance we'll get AI doctors soon?
0
ScottWalker
28 июля 2025 г., 4:19:05 GMT+03:00
This report sounds like a big step forward! I'm amazed at how AI is transforming biology and health research. Can't wait to see what new breakthroughs come next. 😎
0
LawrenceJones
19 апреля 2025 г., 2:05:22 GMT+03:00
¡El Informe de Responsabilidad de IA de 2024 es impresionante! Es increíble ver cómo la IA está empujando los límites en salud y biología. Pero, desearía que hubiera más sobre cómo están abordando los problemas éticos. Aún así, es un paso sólido hacia adelante. Sigan con el buen trabajo, y tal vez la próxima vez profundicen más en la ética? 🌟
0
JoseDavis
18 апреля 2025 г., 14:11:49 GMT+03:00
Le Rapport de Responsabilité de l'IA 2024 est à lire absolument ! C'est incroyable de voir comment l'IA repousse les limites dans tant de domaines. Les percées dans la recherche en santé sont époustouflantes ! Mais, j'aurais aimé qu'il y ait plus de considérations éthiques. Néanmoins, c'est un bon aperçu de l'avenir de l'IA. Ça vaut vraiment le coup d'œil ! 🤓
0
Два года назад мы поделились нашим видением продвижения ИИ для блага общества и стимулирования инноваций. Всего несколько недель назад мы представили обновление 2024 года, демонстрирующее достигнутый нами прогресс. От передовых моделей, которые повышают креативность, до прорывов в биологии, медицинских исследованиях и нейронауке, основанных на ИИ, мы создаем волну изменений.
Но смелость в использовании ИИ означает ответственность с самого начала. Поэтому наш подход к ИИ всегда был направлен на понимание и учет его широкого воздействия на людей. Еще в 2018 году мы были одними из первых, кто сформулировал принципы ИИ, и с 2019 года мы публикуем ежегодный отчет о прозрачности. Мы постоянно корректируем наши политики, практики и рамки, чтобы соответствовать времени.
Отчет о прогрессе в области ответственного ИИ за 2024 год
Наш шестой ежегодный отчет о прогрессе в области ответственного ИИ подробно рассматривает, как мы управляем рисками ИИ на протяжении всего процесса разработки. Он демонстрирует прогресс, достигнутый нами за последний год в создании структур управления для запуска наших ИИ-продуктов.
Мы вкладываем больше ресурсов, чем когда-либо, в исследования и продукты ИИ, которые помогают людям и обществу, а также в безопасность ИИ и изучение потенциальных рисков.
В прошлогоднем отчете было отмечено более 300 научных статей от наших команд по вопросам ответственности и безопасности, обновления наших политик ИИ, а также уроки, извлеченные из тестирования на уязвимости и оценки по стандартам безопасности, конфиденциальности и защиты. Мы также добились прогресса в снижении рисков при запуске различных ИИ-продуктов, улучшив настройку безопасности и фильтры, контроль безопасности и конфиденциальности, используя технологию происхождения в наших продуктах и способствуя повышению ИИ-грамотности. В течение 2024 года мы также поддерживали более широкое ИИ-сообщество с помощью финансирования, инструментов и разработки стандартов, как указано в отчете.
Обновление рамки безопасности frontier-моделей
По мере развития ИИ новые возможности могут приносить новые риски. Поэтому в прошлом году мы представили первую версию нашей рамки безопасности frontier-моделей — набор протоколов, помогающих нам контролировать потенциальные риски от мощных frontier-моделей ИИ. Мы работали с экспертами из индустрии, академических кругов и правительства, чтобы лучше понять эти риски, как их тестировать и как их смягчать.
Мы также применили эту рамку в наших процессах безопасности и управления Google DeepMind для оценки frontier-моделей, таких как Gemini 2.0. Сегодня мы публикуем обновленную рамку безопасности frontier-моделей, которая включает:
- Рекомендации по усилению безопасности: определение областей, где необходимо усилить меры для предотвращения утечек данных.
- Процедура смягчения при развертывании: сосредоточение на предотвращении злоупотребления критическими возможностями системы.
- Риск обманного выравнивания: решение проблемы риска, связанного с намеренным подрывом автономной системой человеческого контроля.
Подробнее об этом можно узнать в блоге Google DeepMind.
Обновление принципов ИИ
С момента публикации наших принципов ИИ в 2018 году технологии ИИ развиваются с невероятной скоростью. Теперь миллиарды людей используют ИИ в повседневной жизни. Это стало ключевой технологией, платформой, которую бесчисленные организации и частные лица используют для создания приложений. ИИ превратился из нишевой лабораторной темы в нечто столь же распространенное, как мобильные телефоны и интернет, с множеством полезных применений для общества и людей по всему миру, поддерживаемых процветающей экосистемой разработчиков ИИ.
Наличие общих базовых принципов имеет ключевое значение для этой эволюции. Это касается не только компаний и академических институтов, работающих в области ИИ; мы наблюдаем прогресс в принципах ИИ на глобальном уровне. G7, Международная организация по стандартизации и различные демократические страны опубликовали рамки для руководства безопасной разработкой и использованием ИИ. Все больше организаций и правительств используют эти общие стандарты, чтобы определить, как создавать, регулировать и развертывать эту развивающуюся технологию — например, наш отчет о прогрессе в области ответственного ИИ теперь следует рамке управления рисками NIST США. Наш опыт и исследования на протяжении многих лет, а также разведданные об угрозах, экспертиза и лучшие практики, которыми мы поделились с другими компаниями в области ИИ, дали нам более глубокое понимание потенциала и рисков ИИ.
Идет глобальная гонка за лидерство в области ИИ в условиях все более сложного геополитического ландшафта. Мы считаем, что демократии должны лидировать в разработке ИИ, руководствуясь основными ценностями, такими как свобода, равенство и уважение прав человека. И мы думаем, что компании, правительства и организации, разделяющие эти ценности, должны объединиться для создания ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность.
С учетом этого мы обновляем наши принципы ИИ, сосредоточив внимание на трех основных положениях:
- Смелые инновации: Мы разрабатываем ИИ, чтобы помогать, расширять возможности и вдохновлять людей практически во всех областях, способствовать экономическому прогрессу, улучшать жизнь, обеспечивать научные прорывы и решать крупнейшие вызовы человечества.
- Ответственная разработка и развертывание: Мы понимаем, что ИИ, как новая трансформационная технология, приносит новые сложности и риски. Поэтому мы стремимся ответственно развивать ИИ на протяжении всего цикла разработки и развертывания — от проектирования до тестирования, развертывания и итераций — обучаясь по мере развития ИИ и его применений.
- Совместный прогресс: Мы учимся у других и создаем технологии, которые позволяют другим использовать ИИ позитивно.
Полный текст наших принципов ИИ можно посмотреть на AI.google.
Руководствуясь нашими принципами ИИ, мы продолжим сосредотачиваться на исследованиях и приложениях ИИ, которые соответствуют нашей миссии, нашему научному фокусу и нашим областям экспертизы, а также международно признанным принципам международного права и прав человека — всегда тщательно оценивая, существенно ли перевешивают преимущества потенциальные риски. Мы также будем учитывать, требуют ли наши проекты специализированных исследований и разработок или могут опираться на общедоступные технологии общего назначения. Эти оценки имеют решающее значение, поскольку ИИ все чаще разрабатывается множеством организаций и правительств для использования в таких областях, как здравоохранение, наука, робототехника, кибербезопасность, транспорт, национальная безопасность, энергетика, климат и многое другое.
Конечно, в дополнение к принципам у нас продолжают действовать конкретные политики продуктов и четкие условия использования, включающие запреты, такие как незаконное использование наших сервисов.
Возможности впереди
Мы знаем, как быстро развивается базовая технология — и дебаты вокруг продвижения, развертывания и использования ИИ — и мы будем продолжать адаптировать и совершенствовать наш подход по мере того, как все мы учимся со временем.
По мере того как AGI становится все более отчетливой, общественные последствия становятся невероятно глубокими. Это не только о создании мощного ИИ; это о создании самой трансформационной технологии в истории человечества, использовании ее для решения крупнейших вызовов человечества и обеспечении наличия правильных мер безопасности и управления ради блага мира. Мы будем продолжать делиться нашим прогрессом и выводами об этом путешествии и ожидаем, что наше мышление будет развиваться по мере приближения к AGI.
Двигаясь вперед, мы считаем, что улучшения, которые мы внесли за последний год в наши процессы управления, наша новая рамка безопасности frontier-моделей и наши принципы ИИ хорошо позиционируют нас для следующего этапа трансформации ИИ. Возможность ИИ помогать и улучшать жизнь людей по всему миру — это то, что в конечном итоге движет нами в этой работе, и мы будем продолжать следовать нашему смелому, ответственному и совместному подходу к ИИ.



This report sounds like a big step forward! I'm amazed at how AI is transforming biology and health research. Can't wait to see what new doors this opens! 😎




Wow, the 2024 AI Responsibility Report sounds like a big leap! I'm amazed at how AI's pushing boundaries in health and creativity. But, like, are we sure it’s all safe? 🤔 Excited to see where this goes!




Wow, the 2024 AI Responsibility Report sounds like a big leap forward! I'm amazed at how AI is diving into biology and health research. Makes me wonder what crazy breakthroughs we'll see next. 🤯 Any chance we'll get AI doctors soon?




This report sounds like a big step forward! I'm amazed at how AI is transforming biology and health research. Can't wait to see what new breakthroughs come next. 😎




¡El Informe de Responsabilidad de IA de 2024 es impresionante! Es increíble ver cómo la IA está empujando los límites en salud y biología. Pero, desearía que hubiera más sobre cómo están abordando los problemas éticos. Aún así, es un paso sólido hacia adelante. Sigan con el buen trabajo, y tal vez la próxima vez profundicen más en la ética? 🌟




Le Rapport de Responsabilité de l'IA 2024 est à lire absolument ! C'est incroyable de voir comment l'IA repousse les limites dans tant de domaines. Les percées dans la recherche en santé sont époustouflantes ! Mais, j'aurais aimé qu'il y ait plus de considérations éthiques. Néanmoins, c'est un bon aperçu de l'avenir de l'IA. Ça vaut vraiment le coup d'œil ! 🤓












