Option
Heim
Nachricht
KI-betriebene Fehlinformationen als erstes globales Risiko identifiziert

KI-betriebene Fehlinformationen als erstes globales Risiko identifiziert

18. April 2025
96

KI-betriebene Fehlinformationen als erstes globales Risiko identifiziert

Da wir uns einer Phase nähern, in der zahlreiche Länder in den nächsten zwei Jahren Wahlen vorbereiten, zeichnet sich die Bedrohung durch Fehl- und Desinformation, beschleunigt durch künstliche Intelligenz (AI), als das kritischste globale Risiko ab. Diese Sorge wird durch den Global Risks Report 2024 des World Economic Forum (WEF) unterstrichen, der hervorhebt, dass die Verflechtung von gefälschten Informationen mit gesellschaftlichen Unruhen im Vordergrund stehen wird, insbesondere in großen Volkswirtschaften, die Wahlen abhalten.

Angesichts wachsender Ängste vor den Lebenshaltungskosten werden die Risiken, die mit AI-befeuerter Fehlinformation verbunden sind, in diesem Jahr andere Bedenken in den Schatten stellen. Laut dem WEF werden Fehl- und Desinformation die Liste der globalen Risiken anführen, dicht gefolgt von extremen Wetterereignissen und gesellschaftlicher Polarisierung. Der Bericht zählt auch Cyberunsicherheit und zwischenstaatliche bewaffnete Konflikte zu den fünf größten Risiken.

Regionale Unterschiede in der Risikowahrnehmung

Während Fehl- und Desinformation in Indien als das größte Risiko gilt, rangiert es in den USA auf Platz sechs und in der Europäischen Union auf Platz acht. Das WEF weist darauf hin, dass die schnelle Beschleunigung der Fähigkeiten manipulierter Informationen, angetrieben durch einfachen Zugang zu hochentwickelten Technologien und einen Rückgang des Vertrauens in Informationen und Institutionen, die Situation verschärft.

Die Auswirkungen synthetischer Inhalte

In den nächsten Jahren wird erwartet, dass verschiedene Akteure den Anstieg synthetischer Inhalte ausnutzen, was gesellschaftliche Spaltungen, ideologische Gewalt und politische Repression weiter verstärkt. Mit fast drei Milliarden Menschen, die in Ländern wie Indien, Indonesien, den USA und dem Vereinigten Königreich wählen werden, könnte die weitreichende Verbreitung von Fehlinformationen die Legitimität neu gewählter Regierungen gefährden.

Die Leichtigkeit, benutzerfreundliche AI-Tools zu nutzen, hat bereits zu einem Boom bei gefälschten Informationen und "synthetischen" Inhalten geführt, wie fortschrittlichem Stimmklonen und gefälschten Websites. Das WEF warnt, dass diese synthetischen Inhalte in den nächsten zwei Jahren Individuen manipulieren, Volkswirtschaften schädigen und Gesellschaften auf vielfältige Weise spalten werden, möglicherweise für verschiedene Zwecke genutzt, vom Klimaaktivismus bis zur Eskalation von Konflikten.

Aufkommende Bedrohungen und regulatorische Reaktionen

Neue Arten von Verbrechen, wie nicht einvernehmliche Deepfake-Pornografie und Manipulationen am Aktienmarkt, nehmen ebenfalls zu. Das WEF warnt, dass diese Probleme zu gewaltsamen Protesten, Hassverbrechen, zivilen Konflikten und Terrorismus führen könnten.

Als Reaktion darauf setzen einige Länder bereits neue Vorschriften um, die sowohl auf die Anbieter als auch auf die Ersteller von Online- und illegalen Inhalten abzielen. Die noch junge Regulierung generativer AI, wie Chinas Anforderung, AI-generierte Inhalte mit Wasserzeichen zu versehen, könnte helfen, falsche Informationen zu identifizieren, einschließlich unbeabsichtigter Fehlinformationen aus AI-generierten Inhalten. Das WEF stellt jedoch fest, dass das Tempo der Regulierung wahrscheinlich nicht mit der schnellen Entwicklung der Technologie Schritt halten wird.

Jüngste technologische Fortschritte haben das Volumen, die Reichweite und die Wirksamkeit gefälschter Informationen erhöht, was es schwieriger macht, sie zu verfolgen, zuzuordnen und zu kontrollieren. Soziale Medienplattformen, die mit der Aufrechterhaltung der Integrität beauftragt sind, könnten von mehreren überlappenden Kampagnen überfordert sein. Darüber hinaus werden Desinformationen zunehmend personalisiert und gezielt verbreitet, oft über weniger transparente Messaging-Plattformen wie WhatsApp oder WeChat.

Herausforderungen beim Unterscheiden von AI-generierten Inhalten

Das WEF hebt auch die wachsende Schwierigkeit hervor, zwischen AI-generierten und von Menschen erstellten Inhalten zu unterscheiden, selbst für ausgeklügelte Erkennungssysteme und technisch versierte Personen. Einige Länder unternehmen jedoch Schritte, um diese Herausforderung anzugehen.

Singapurs Initiative zur Bekämpfung von Deepfakes

Singapur hat eine Investition von SG$20 Millionen ($15,04 Mio.) in ein Forschungsprogramm für Online-Vertrauen und -Sicherheit angekündigt, das die Einrichtung eines Zentrums zur Entwicklung von Tools zur Bekämpfung schädlicher Online-Inhalte umfasst. Unter der Leitung des Ministeriums für Kommunikation und Information (MCI) soll diese Initiative bis 2028 laufen.

Das Zentrum für fortschrittliche Technologien in der Online-Sicherheit, dessen Start für die erste Hälfte 2024 geplant ist, zielt darauf ab, Forscher und Organisationen zusammenzubringen, um ein robustes Ökosystem für ein sichereres Internet zu schaffen. Das Zentrum wird sich darauf konzentrieren, Tools zu entwickeln und anzupassen, um schädliche Inhalte wie Deepfakes und falsche Behauptungen zu erkennen, und wird auch daran arbeiten, gesellschaftliche Schwachstellen zu identifizieren und Interventionen zu entwickeln, um die Anfälligkeit für schädliche Inhalte zu verringern.

Das MCI hat bereits mit über 100 Fachleuten aus Wissenschaft, öffentlichem und privatem Sektor zusammengearbeitet, wobei 30 Teilnehmer direkt an der Arbeit des Zentrums beteiligt sind. Die entwickelten Tools werden getestet und zur Übernahme vorgeschlagen, mit dem Ziel, digitales Vertrauen durch Technologien wie Wasserzeichen und Inhaltsauthentifizierung zu stärken.

Die weiteren Auswirkungen von Fehlinformationen

Das WEF warnt, dass Fehlinformationen, wenn sie unkontrolliert bleiben, zu zwei gegensätzlichen Szenarien führen könnten. Einerseits könnten einige Regierungen und Plattformen Meinungsfreiheit und bürgerliche Freiheiten priorisieren, was möglicherweise nicht ausreicht, um gefälschte Informationen effektiv einzudämmen, was zu einer umstrittenen Definition von "Wahrheit" in den Gesellschaften führt. Dies könnte von staatlichen und nichtstaatlichen Akteuren ausgenutzt werden, um gesellschaftliche Spaltungen zu vertiefen, das öffentliche Vertrauen in politische Institutionen zu untergraben und die nationale Kohäsion zu bedrohen.

Andererseits könnten einige Länder als Reaktion auf die Verbreitung von Fehlinformationen zu einer verstärkten Kontrolle über Informationen greifen, was das Risiko von inländischer Propaganda und Zensur birgt. Da das Konzept der Wahrheit untergraben wird, könnten Regierungen mehr Macht erlangen, um Informationen basierend auf ihrer Definition von "Wahrheit" zu kontrollieren, was potenziell zu einer umfassenderen Unterdrückung von Informationsflüssen und einer weiteren Einschränkung der Freiheiten im Internet, der Presse und des Zugangs zu Informationen führt.

Verwandter Artikel
KI-gestützte Musikerstellung: Songs und Videos mühelos erstellen KI-gestützte Musikerstellung: Songs und Videos mühelos erstellen Musikerstellung kann komplex sein und erfordert Zeit, Ressourcen und Fachwissen. Künstliche Intelligenz hat diesen Prozess revolutioniert und ihn einfach und zugänglich gemacht. Dieser Leitfaden zeigt
Erstellung KI-gestützter Malbücher: Ein umfassender Leitfaden Erstellung KI-gestützter Malbücher: Ein umfassender Leitfaden Das Gestalten von Malbüchern ist ein lohnendes Unterfangen, das künstlerischen Ausdruck mit beruhigenden Erlebnissen für Nutzer verbindet. Der Prozess kann jedoch arbeitsintensiv sein. Glücklicherweis
Qodo Partnerschaft mit Google Cloud zur Bereitstellung kostenloser KI-Code-Review-Tools für Entwickler Qodo Partnerschaft mit Google Cloud zur Bereitstellung kostenloser KI-Code-Review-Tools für Entwickler Qodo, ein in Israel ansässiges KI-Startup für Codierung, das sich auf Codequalität konzentriert, hat eine Partnerschaft mit Google Cloud gestartet, um die Integrität von KI-generiertem Softwarecode zu
Kommentare (7)
0/200
KeithGonzález
KeithGonzález 21. August 2025 11:01:16 MESZ

AI misinformation as a top global risk is scary stuff! 😱 With elections coming up, I wonder how we can trust what we read online anymore. Governments and tech companies need to step up and tackle this mess before it spirals out of control.

MatthewBaker
MatthewBaker 19. August 2025 13:01:06 MESZ

AI misinformation as a top risk? Scary stuff! With elections coming, I’m worried how AI could mess with truth. 🥶 Hope we get better tools to fight this!

WillieJackson
WillieJackson 20. April 2025 21:21:01 MESZ

Con las elecciones acercándose, el riesgo de desinformación potenciado por IA es una amenaza real. Esta herramienta es un despertador, pero también un poco abrumadora. Necesitamos más herramientas así para mantenernos informados y seguros. ¡Mantente alerta, gente! 😨

ThomasYoung
ThomasYoung 20. April 2025 08:44:05 MESZ

Com as eleições se aproximando, o risco de desinformação impulsionada por IA é assustadoramente real. Esta ferramenta é um alerta, mas também me deixa um pouco sobrecarregado. Precisamos de mais ferramentas assim para nos manter informados e seguros. Fiquem atentos, pessoal! 😬

KevinMartinez
KevinMartinez 20. April 2025 00:50:18 MESZ

This tool is a wake-up call! With elections coming up, the AI-driven misinformation risk is scary real. It's eye-opening but also kinda overwhelming. We need more tools like this to keep us informed and safe. Stay vigilant, folks! 😅

HenryJackson
HenryJackson 18. April 2025 11:08:31 MESZ

選挙が近づく中、AIによる誤情報のリスクが現実的な脅威として迫ってきます。このツールは目を開かせる存在ですが、同時に圧倒されます。もっとこうしたツールが必要ですね。みなさん、警戒を怠らないでくださいね!😓

Zurück nach oben
OR