Дезинформация с Двигательными Эй, выявленная как высший глобальный риск

По мере приближения периода, когда множество стран готовятся к выборам в ближайшие два года, угроза дезинформации и мисинформации, усиленная искусственным интеллектом (AI), становится наиболее значительным глобальным риском. Эта озабоченность подчеркивается в докладе о глобальных рисках Всемирного экономического форума (WEF) за 2024 год, который отмечает, что переплетение фальсифицированной информации с общественными беспорядками будет на первом плане, особенно в крупных экономиках, проводящих выборы.
На фоне нарастающих опасений по поводу стоимости жизни риски, связанные с мисинформацией, подпитываемой AI, в этом году затмевают другие проблемы. Согласно WEF, мисинформация и дезинформация возглавят список глобальных рисков, за которыми следуют экстремальные погодные явления и общественная поляризация. В докладе также перечислены кибернетическая небезопасность и межгосударственные вооруженные конфликты среди пяти главных рисков.
Региональные различия в восприятии рисков
В то время как мисинформация и дезинформация считаются главным риском в Индии, в США они занимают шестое место, а в Европейском союзе — восьмое. WEF указывает, что стремительное развитие возможностей манипулирования информацией, обусловленное легким доступом к сложным технологиям и снижением доверия к информации и институтам, усугубляет ситуацию.
Влияние синтетического контента
В ближайшие пару лет ожидается, что различные акторы будут использовать всплеск синтетического контента, что еще больше усилит общественные разногласия, идеологическое насилие и политические репрессии. С почти тремя миллиардами людей, которые будут голосовать в таких странах, как Индия, Индонезия, США и Великобритания, широкое распространение мисинформации может поставить под угрозу легитимность вновь избранных правительств.
Легкость доступа к удобным инструментам AI уже привела к буму фальсифицированной информации и «синтетического» контента, такого как продвинутое клонирование голоса и фальшивые веб-сайты. WEF предупреждает, что этот синтетический контент будет манипулировать людьми, наносить ущерб экономикам и раскалывать общества множеством способов в течение следующих двух лет, потенциально будучи использованным для различных целей, от климатического активизма до эскалации конфликтов.
Новые угрозы и регуляторные меры
Новые виды преступлений, такие как несогласованная дипфейк-порнография и манипуляции на фондовом рынке, также находятся на подъеме. WEF предостерегает, что эти проблемы могут привести к насильственным протестам, преступлениям на почве ненависти, гражданским конфликтам и терроризму.
В ответ некоторые страны уже внедряют новые правила, направленные как на хостов, так и на создателей онлайн- и нелегального контента. Зарождающееся регулирование генеративного AI, такое как требование Китая маркировать водяными знаками контент, созданный AI, может помочь в идентификации ложной информации, включая непреднамеренную мисинформацию от контента, созданного AI. Однако WEF отмечает, что темпы регулирования вряд ли успеют за стремительным развитием технологий.
Недавние технологические достижения увеличили объем, охват и эффективность фальсифицированной информации, что затрудняет ее отслеживание, атрибуцию и контроль. Социальные медиа-платформы, которым поручено поддерживать целостность, могут быть перегружены множеством пересекающихся кампаний. Более того, дезинформация становится все более персонализированной и целевой, часто распространяемой через менее прозрачные платформы обмена сообщениями, такие как WhatsApp или WeChat.
Проблемы с различением контента, созданного AI
WEF также подчеркивает нарастающую сложность в различении контента, созданного AI, и контента, созданного человеком, даже для сложных систем обнаружения и технически подкованных людей. Однако некоторые страны предпринимают шаги для решения этой проблемы.
Инициатива Сингапура по борьбе с дипфейками
Сингапур объявил об инвестициях в размере 20 миллионов сингапурских долларов ($15.04 млн) в исследовательскую программу по доверию и безопасности в Интернете, которая включает создание центра для разработки инструментов по борьбе с вредоносным онлайн-контентом. Эта инициатива, возглавляемая Министерством связи и информации (MCI), рассчитана до 2028 года.
Центр передовых технологий в области онлайн-безопасности, запуск которого запланирован на первую половину 2024 года, стремится объединить исследователей и организации для создания надежной экосистемы для более безопасного Интернета. Центр сосредоточится на разработке и настройке инструментов для обнаружения вредоносного контента, такого как дипфейки и ложные утверждения, а также будет работать над выявлением общественных уязвимостей и разработкой мер для снижения восприимчивости к вредоносному контенту.
MCI уже привлекло более 100 профессионалов из академических кругов, государственного и частного секторов, из которых 30 участников непосредственно вовлечены в работу центра. Разработанные инструменты будут тестироваться и предлагаться для внедрения, чтобы повысить цифровое доверие с помощью таких технологий, как водяные знаки и аутентификация контента.
Более широкие последствия мисинформации
WEF предупреждает, что, если не принять меры, мисинформация может привести к двум противоположным сценариям. С одной стороны, некоторые правительства и платформы могут отдавать приоритет свободе слова и гражданским свободам, что потенциально не позволит эффективно обуздать фальсифицированную информацию, что приведет к спорному определению «правды» в обществах. Это может быть использовано государственными и негосударственными акторами для углубления общественных расколов, подрыва доверия к политическим институтам и угрозы национальной сплоченности.
С другой стороны, в ответ на распространение мисинформации некоторые страны могут прибегнуть к усилению контроля над информацией, рискуя внутренней пропагандой и цензурой. По мере того как концепция правды подрывается, правительства могут получить больше власти для контроля информации на основе их определения «правды», что потенциально приведет к более широкому подавлению информационных потоков и дальнейшему ограничению свобод доступа к Интернету, прессе и информации.
Связанная статья
Создание раскрасок с использованием ИИ: Полное руководство
Создание раскрасок — это увлекательное занятие, сочетающее художественное выражение с успокаивающим опытом для пользователей. Однако процесс может быть трудоемким. К счастью, инструменты ИИ упрощают с
Qodo сотрудничает с Google Cloud для предоставления бесплатных инструментов AI для проверки кода разработчикам
Qodo, израильский стартап в области AI-кодирования, ориентированный на качество кода, начал сотрудничество с Google Cloud для повышения целостности программного обеспечения, созданного AI.По мере рост
DeepMind's AI Secures Gold at 2025 Math Olympiad
ИИ DeepMind достиг потрясающего прорыва в математическом мышлении, завоевав золотую медаль на Международной математической олимпиаде (IMO) 2025 года, всего через год после получения серебра в 2024 год
Комментарии (7)
KeithGonzález
21 августа 2025 г., 12:01:16 GMT+03:00
AI misinformation as a top global risk is scary stuff! 😱 With elections coming up, I wonder how we can trust what we read online anymore. Governments and tech companies need to step up and tackle this mess before it spirals out of control.
0
MatthewBaker
19 августа 2025 г., 14:01:06 GMT+03:00
AI misinformation as a top risk? Scary stuff! With elections coming, I’m worried how AI could mess with truth. 🥶 Hope we get better tools to fight this!
0
WillieJackson
20 апреля 2025 г., 22:21:01 GMT+03:00
Con las elecciones acercándose, el riesgo de desinformación potenciado por IA es una amenaza real. Esta herramienta es un despertador, pero también un poco abrumadora. Necesitamos más herramientas así para mantenernos informados y seguros. ¡Mantente alerta, gente! 😨
0
ThomasYoung
20 апреля 2025 г., 9:44:05 GMT+03:00
Com as eleições se aproximando, o risco de desinformação impulsionada por IA é assustadoramente real. Esta ferramenta é um alerta, mas também me deixa um pouco sobrecarregado. Precisamos de mais ferramentas assim para nos manter informados e seguros. Fiquem atentos, pessoal! 😬
0
KevinMartinez
20 апреля 2025 г., 1:50:18 GMT+03:00
This tool is a wake-up call! With elections coming up, the AI-driven misinformation risk is scary real. It's eye-opening but also kinda overwhelming. We need more tools like this to keep us informed and safe. Stay vigilant, folks! 😅
0
HenryJackson
18 апреля 2025 г., 12:08:31 GMT+03:00
選挙が近づく中、AIによる誤情報のリスクが現実的な脅威として迫ってきます。このツールは目を開かせる存在ですが、同時に圧倒されます。もっとこうしたツールが必要ですね。みなさん、警戒を怠らないでくださいね!😓
0
По мере приближения периода, когда множество стран готовятся к выборам в ближайшие два года, угроза дезинформации и мисинформации, усиленная искусственным интеллектом (AI), становится наиболее значительным глобальным риском. Эта озабоченность подчеркивается в докладе о глобальных рисках Всемирного экономического форума (WEF) за 2024 год, который отмечает, что переплетение фальсифицированной информации с общественными беспорядками будет на первом плане, особенно в крупных экономиках, проводящих выборы.
На фоне нарастающих опасений по поводу стоимости жизни риски, связанные с мисинформацией, подпитываемой AI, в этом году затмевают другие проблемы. Согласно WEF, мисинформация и дезинформация возглавят список глобальных рисков, за которыми следуют экстремальные погодные явления и общественная поляризация. В докладе также перечислены кибернетическая небезопасность и межгосударственные вооруженные конфликты среди пяти главных рисков.
Региональные различия в восприятии рисков
В то время как мисинформация и дезинформация считаются главным риском в Индии, в США они занимают шестое место, а в Европейском союзе — восьмое. WEF указывает, что стремительное развитие возможностей манипулирования информацией, обусловленное легким доступом к сложным технологиям и снижением доверия к информации и институтам, усугубляет ситуацию.
Влияние синтетического контента
В ближайшие пару лет ожидается, что различные акторы будут использовать всплеск синтетического контента, что еще больше усилит общественные разногласия, идеологическое насилие и политические репрессии. С почти тремя миллиардами людей, которые будут голосовать в таких странах, как Индия, Индонезия, США и Великобритания, широкое распространение мисинформации может поставить под угрозу легитимность вновь избранных правительств.
Легкость доступа к удобным инструментам AI уже привела к буму фальсифицированной информации и «синтетического» контента, такого как продвинутое клонирование голоса и фальшивые веб-сайты. WEF предупреждает, что этот синтетический контент будет манипулировать людьми, наносить ущерб экономикам и раскалывать общества множеством способов в течение следующих двух лет, потенциально будучи использованным для различных целей, от климатического активизма до эскалации конфликтов.
Новые угрозы и регуляторные меры
Новые виды преступлений, такие как несогласованная дипфейк-порнография и манипуляции на фондовом рынке, также находятся на подъеме. WEF предостерегает, что эти проблемы могут привести к насильственным протестам, преступлениям на почве ненависти, гражданским конфликтам и терроризму.
В ответ некоторые страны уже внедряют новые правила, направленные как на хостов, так и на создателей онлайн- и нелегального контента. Зарождающееся регулирование генеративного AI, такое как требование Китая маркировать водяными знаками контент, созданный AI, может помочь в идентификации ложной информации, включая непреднамеренную мисинформацию от контента, созданного AI. Однако WEF отмечает, что темпы регулирования вряд ли успеют за стремительным развитием технологий.
Недавние технологические достижения увеличили объем, охват и эффективность фальсифицированной информации, что затрудняет ее отслеживание, атрибуцию и контроль. Социальные медиа-платформы, которым поручено поддерживать целостность, могут быть перегружены множеством пересекающихся кампаний. Более того, дезинформация становится все более персонализированной и целевой, часто распространяемой через менее прозрачные платформы обмена сообщениями, такие как WhatsApp или WeChat.
Проблемы с различением контента, созданного AI
WEF также подчеркивает нарастающую сложность в различении контента, созданного AI, и контента, созданного человеком, даже для сложных систем обнаружения и технически подкованных людей. Однако некоторые страны предпринимают шаги для решения этой проблемы.
Инициатива Сингапура по борьбе с дипфейками
Сингапур объявил об инвестициях в размере 20 миллионов сингапурских долларов ($15.04 млн) в исследовательскую программу по доверию и безопасности в Интернете, которая включает создание центра для разработки инструментов по борьбе с вредоносным онлайн-контентом. Эта инициатива, возглавляемая Министерством связи и информации (MCI), рассчитана до 2028 года.
Центр передовых технологий в области онлайн-безопасности, запуск которого запланирован на первую половину 2024 года, стремится объединить исследователей и организации для создания надежной экосистемы для более безопасного Интернета. Центр сосредоточится на разработке и настройке инструментов для обнаружения вредоносного контента, такого как дипфейки и ложные утверждения, а также будет работать над выявлением общественных уязвимостей и разработкой мер для снижения восприимчивости к вредоносному контенту.
MCI уже привлекло более 100 профессионалов из академических кругов, государственного и частного секторов, из которых 30 участников непосредственно вовлечены в работу центра. Разработанные инструменты будут тестироваться и предлагаться для внедрения, чтобы повысить цифровое доверие с помощью таких технологий, как водяные знаки и аутентификация контента.
Более широкие последствия мисинформации
WEF предупреждает, что, если не принять меры, мисинформация может привести к двум противоположным сценариям. С одной стороны, некоторые правительства и платформы могут отдавать приоритет свободе слова и гражданским свободам, что потенциально не позволит эффективно обуздать фальсифицированную информацию, что приведет к спорному определению «правды» в обществах. Это может быть использовано государственными и негосударственными акторами для углубления общественных расколов, подрыва доверия к политическим институтам и угрозы национальной сплоченности.
С другой стороны, в ответ на распространение мисинформации некоторые страны могут прибегнуть к усилению контроля над информацией, рискуя внутренней пропагандой и цензурой. По мере того как концепция правды подрывается, правительства могут получить больше власти для контроля информации на основе их определения «правды», что потенциально приведет к более широкому подавлению информационных потоков и дальнейшему ограничению свобод доступа к Интернету, прессе и информации.



AI misinformation as a top global risk is scary stuff! 😱 With elections coming up, I wonder how we can trust what we read online anymore. Governments and tech companies need to step up and tackle this mess before it spirals out of control.




AI misinformation as a top risk? Scary stuff! With elections coming, I’m worried how AI could mess with truth. 🥶 Hope we get better tools to fight this!




Con las elecciones acercándose, el riesgo de desinformación potenciado por IA es una amenaza real. Esta herramienta es un despertador, pero también un poco abrumadora. Necesitamos más herramientas así para mantenernos informados y seguros. ¡Mantente alerta, gente! 😨




Com as eleições se aproximando, o risco de desinformação impulsionada por IA é assustadoramente real. Esta ferramenta é um alerta, mas também me deixa um pouco sobrecarregado. Precisamos de mais ferramentas assim para nos manter informados e seguros. Fiquem atentos, pessoal! 😬




This tool is a wake-up call! With elections coming up, the AI-driven misinformation risk is scary real. It's eye-opening but also kinda overwhelming. We need more tools like this to keep us informed and safe. Stay vigilant, folks! 😅




選挙が近づく中、AIによる誤情報のリスクが現実的な脅威として迫ってきます。このツールは目を開かせる存在ですが、同時に圧倒されます。もっとこうしたツールが必要ですね。みなさん、警戒を怠らないでくださいね!😓












