KI -Agenten nutzen vertrauliche Daten aus: Wie Hacker sie verwenden und Schutzmaßnahmen

Genau wie wir alle nutzen auch Cyberkriminelle künstliche Intelligenz, um ihre Operationen zu optimieren, ihre Angriffe schneller, einfacher und raffinierter zu gestalten. Durch die Integration von KI in ihren üblichen Werkzeugkasten, wie automatisierte Bots, Kontoübernahmen und Social Engineering, heben diese cleveren Betrüger ihr Spiel auf ein neues Niveau. Ein aktueller Bericht von Gartner beleuchtet, wie sich dieser Trend entwickelt, und warnt, dass er in naher Zukunft an Intensität zunehmen könnte.
Gartner VP Analyst Jeremy D'Hoinne weist darauf hin, dass schwache Authentifizierung die Achillesferse ist, die Kontoübernahmen antreibt. Cyberangreifer nutzen diese Schwäche durch verschiedene Methoden aus, um Kontopasswörter zu erbeuten, von Datenlecks bis hin zu Social Engineering.
Die Rolle von KI bei Kontoübernahmen
Sobald ein Passwort kompromittiert ist, kommt KI ins Spiel. Cyberkriminelle setzen automatisierte KI-Bots ein, um zahlreiche Dienste mit Login-Versuchen zu bombardieren, in der Hoffnung, herauszufinden, ob diese Zugangsdaten auf mehreren Plattformen wiederverwendet wurden. Das ultimative Ziel? Eine lukrative Seite zu finden, auf der sie eine vollständige Kontoübernahme orchestrieren können. Wenn der Hacker nicht selbst daran interessiert ist, den Angriff durchzuführen, kann er die gestohlenen Informationen problemlos im Dark Web weiterverkaufen, wo eifrige Käufer warten.
"Kontoübernahmen (ATO) bleiben ein beständiger Angriffsvektor, da schwache Authentifizierungsdaten, wie Passwörter, auf vielfältige Weise gesammelt werden, einschließlich Datenlecks, Phishing, Social Engineering und Malware," erklärt D'Hoinne im Gartner-Bericht. "Angreifer nutzen dann Bots, um eine Flut von Login-Versuchen über verschiedene Dienste hinweg zu automatisieren, in der Hoffnung, dass die Zugangsdaten auf mehreren Plattformen wiederverwendet wurden."
Mit KI in ihrem Werkzeugkasten können Angreifer den Prozess der Kontoübernahme effizienter automatisieren. Gartner prognostiziert, dass innerhalb der nächsten zwei Jahre die Zeit, die für eine Kontoübernahme benötigt wird, um 50 % sinken wird.
KI und Deepfake-Social-Engineering
Die Auswirkungen von KI gehen über Kontoübernahmen hinaus; sie revolutioniert auch Deepfake-Kampagnen. Cyberkriminelle kombinieren Social Engineering mit Deepfake-Audio und -Video, um ihre Ziele zu täuschen. Stellen Sie sich vor, Sie erhalten einen Anruf von jemandem, der exakt wie Ihr Chef oder ein vertrauenswürdiger Kollege klingt und Sie auffordert, Geld zu überweisen oder sensible Informationen preiszugeben. Es passiert, und es kostet Unternehmen enorme Summen.
Obwohl nur eine Handvoll prominenter Fälle berichtet wurde, waren die finanziellen Schäden erheblich. Das Erkennen von Deepfake-Stimmen während persönlicher Anrufe bleibt schwierig. Gartner prognostiziert, dass bis 2028 40 % der Social-Engineering-Angriffe sowohl Führungskräfte als auch die breitere Belegschaft ins Visier nehmen werden.
"Organisationen müssen den Markt im Auge behalten und Verfahren sowie Arbeitsabläufe anpassen, um Angriffe, die gefälschte Realitätstechniken nutzen, besser abzuwehren," rät Manuel Acosta, Senior Director Analyst bei Gartner. "Die Schulung von Mitarbeitern über die sich entwickelnde Bedrohungslandschaft durch spezifische Trainings zu Social Engineering mit Deepfakes ist ein entscheidender Schritt."
Abwehr von KI-gestützten Angriffen
Wie können also Einzelpersonen und Organisationen diese KI-gesteuerten Angriffe abwehren?
"Um neuen Herausforderungen durch KI-gestützte Angriffe entgegenzuwirken, müssen Organisationen KI-gestützte Tools nutzen, die eine granulare Echtzeit-Umgebungsübersicht und Warnungen bieten, um Sicherheitsteams zu unterstützen," schlägt Nicole Carignan, Senior VP für Sicherheits- und KI-Strategie bei Darktrace, vor.
Carignan empfiehlt außerdem, neuen Bedrohungen zuvorzukommen, indem maschinengesteuerte Reaktionen integriert werden, entweder autonom oder mit menschlicher Aufsicht, um die Reaktionszeiten von Sicherheitsteams zu beschleunigen. "Durch diesen Ansatz kann die Einführung von KI-Technologien – wie Lösungen mit anomaliebasierten Erkennungsfähigkeiten, die noch nie dagewesene Bedrohungen erkennen und darauf reagieren können – entscheidend sein, um Organisationen sicher zu halten."
Multifaktor-Authentifizierung und biometrische Verifizierung, wie Gesichts- oder Fingerabdruckscans, sind ebenfalls entscheidend, um sich gegen Kontoübernahmen zu schützen. "Cyberkriminelle verlassen sich nicht nur auf gestohlene Zugangsdaten, sondern auch auf soziale Manipulation, um Identitätsschutzmechanismen zu durchbrechen," sagt James Scobey, Chief Information Security Officer bei Keeper Security. "Deepfakes sind in diesem Bereich besonders besorgniserregend, da KI-Modelle diese Angriffsmethoden schneller, kostengünstiger und überzeugender machen. Da Angreifer immer raffinierter werden, wird die Notwendigkeit stärkerer, dynamischerer Identitätsverifizierungsmethoden – wie Multifaktor-Authentifizierung (MFA) und Biometrie – entscheidend sein, um diesen zunehmend nuancierten Bedrohungen entgegenzuwirken. MFA ist unerlässlich, um Kontoübernahmen zu verhindern."
Gartners Tipps zum Umgang mit Social Engineering und Deepfakes
- Mitarbeiter schulen. Bilden Sie sie in Bezug auf Social Engineering und Deepfakes aus, aber verlassen Sie sich nicht allein auf ihre Fähigkeit, diese Bedrohungen zu erkennen.
- Weitere Verifizierungsmaßnahmen einrichten. Verifizieren Sie beispielsweise alle Versuche, vertrauliche Informationen telefonisch anzufordern, über eine andere Plattform.
- Eine Rückrufpolitik einführen. Stellen Sie eine festgelegte Nummer bereit, die Mitarbeiter anrufen können, um sensible oder vertrauliche Anfragen zu bestätigen.
- Über eine Rückrufpolitik hinausgehen. Stellen Sie sicher, dass ein einzelner Anruf oder eine Anfrage keine risikoreiche Aktion ohne zusätzliche Verifizierung durch Führungskräfte auslösen kann.
- Über Echtzeit-Deepfake-Erkennung informiert bleiben. Halten Sie sich über neue Technologien auf dem Laufenden, die Deepfakes in Audio- und Videoanrufen erkennen können, und ergänzen Sie diese mit anderen Identifikationsmethoden wie eindeutigen IDs.
Möchten Sie mehr Geschichten über KI? Melden Sie sich für Innovation, unseren wöchentlichen Newsletter, an.
Verwandter Artikel
KI-gestützte Musikerstellung: Songs und Videos mühelos erstellen
Musikerstellung kann komplex sein und erfordert Zeit, Ressourcen und Fachwissen. Künstliche Intelligenz hat diesen Prozess revolutioniert und ihn einfach und zugänglich gemacht. Dieser Leitfaden zeigt
Erstellung KI-gestützter Malbücher: Ein umfassender Leitfaden
Das Gestalten von Malbüchern ist ein lohnendes Unterfangen, das künstlerischen Ausdruck mit beruhigenden Erlebnissen für Nutzer verbindet. Der Prozess kann jedoch arbeitsintensiv sein. Glücklicherweis
Qodo Partnerschaft mit Google Cloud zur Bereitstellung kostenloser KI-Code-Review-Tools für Entwickler
Qodo, ein in Israel ansässiges KI-Startup für Codierung, das sich auf Codequalität konzentriert, hat eine Partnerschaft mit Google Cloud gestartet, um die Integrität von KI-generiertem Softwarecode zu
Kommentare (25)
0/200
JeffreyThomas
23. April 2025 11:58:22 MESZ
¡Me sorprendió saber que los hackers están usando IA para robar datos! Al menos el app ofrece consejos para protegerse. Lectura esencial para cualquier persona en línea 😱🔒
0
LarryHernández
23. April 2025 09:19:27 MESZ
Diese App hat mir wirklich die Augen geöffnet, wie Hacker AI nutzen, um Daten zu stehlen! Es ist gruselig, aber auch super informativ. Der Abschnitt über Schutzmaßnahmen war etwas trocken, aber insgesamt ein Muss, wenn man sich für Cybersicherheit interessiert. Auf jeden Fall einen Blick wert! 😱🔒
0
JamesMiller
22. April 2025 08:55:21 MESZ
Este app realmente me mostrou como hackers usam IA para nos atrapalhar. É assustador, mas muito informativo. A parte das medidas protetivas é um pouco básica, no entanto. Poderia ser mais detalhada, mas vale a pena dar uma olhada! 👀
0
GaryGonzalez
22. April 2025 04:49:10 MESZ
AIエージェントがデータを悪用するなんて恐ろしいですね!保護対策について知るのは良いことですが、オンラインセキュリティについて不安になります。この情報は役立つけど、もう少し安心できる内容だといいなと思います。😅
0
HarryLewis
21. April 2025 15:54:34 MESZ
AI가 해커에게 악용된다는 사실이 정말 충격적이에요! 보호 방법도 알려주니 온라인에서 활동하는 사람들에게는 필수죠. 좀 더 일찍 알았더라면 좋겠어요 😓🔐
0
MiaDavis
21. April 2025 15:17:39 MESZ
이 앱은 해커들이 데이터를 훔치기 위해 AI를 어떻게 사용하는지에 대해 눈을 뜨게 해줬어요! 무섭지만 정말 유익해요. 보호 조치 부분은 조금 지루했지만, 전체적으로 사이버 보안에 관심이 있다면 꼭 읽어야 해요. 꼭 확인해보세요! 😱🔒
0
Genau wie wir alle nutzen auch Cyberkriminelle künstliche Intelligenz, um ihre Operationen zu optimieren, ihre Angriffe schneller, einfacher und raffinierter zu gestalten. Durch die Integration von KI in ihren üblichen Werkzeugkasten, wie automatisierte Bots, Kontoübernahmen und Social Engineering, heben diese cleveren Betrüger ihr Spiel auf ein neues Niveau. Ein aktueller Bericht von Gartner beleuchtet, wie sich dieser Trend entwickelt, und warnt, dass er in naher Zukunft an Intensität zunehmen könnte.
Gartner VP Analyst Jeremy D'Hoinne weist darauf hin, dass schwache Authentifizierung die Achillesferse ist, die Kontoübernahmen antreibt. Cyberangreifer nutzen diese Schwäche durch verschiedene Methoden aus, um Kontopasswörter zu erbeuten, von Datenlecks bis hin zu Social Engineering.
Die Rolle von KI bei Kontoübernahmen
Sobald ein Passwort kompromittiert ist, kommt KI ins Spiel. Cyberkriminelle setzen automatisierte KI-Bots ein, um zahlreiche Dienste mit Login-Versuchen zu bombardieren, in der Hoffnung, herauszufinden, ob diese Zugangsdaten auf mehreren Plattformen wiederverwendet wurden. Das ultimative Ziel? Eine lukrative Seite zu finden, auf der sie eine vollständige Kontoübernahme orchestrieren können. Wenn der Hacker nicht selbst daran interessiert ist, den Angriff durchzuführen, kann er die gestohlenen Informationen problemlos im Dark Web weiterverkaufen, wo eifrige Käufer warten.
"Kontoübernahmen (ATO) bleiben ein beständiger Angriffsvektor, da schwache Authentifizierungsdaten, wie Passwörter, auf vielfältige Weise gesammelt werden, einschließlich Datenlecks, Phishing, Social Engineering und Malware," erklärt D'Hoinne im Gartner-Bericht. "Angreifer nutzen dann Bots, um eine Flut von Login-Versuchen über verschiedene Dienste hinweg zu automatisieren, in der Hoffnung, dass die Zugangsdaten auf mehreren Plattformen wiederverwendet wurden."
Mit KI in ihrem Werkzeugkasten können Angreifer den Prozess der Kontoübernahme effizienter automatisieren. Gartner prognostiziert, dass innerhalb der nächsten zwei Jahre die Zeit, die für eine Kontoübernahme benötigt wird, um 50 % sinken wird.
KI und Deepfake-Social-Engineering
Die Auswirkungen von KI gehen über Kontoübernahmen hinaus; sie revolutioniert auch Deepfake-Kampagnen. Cyberkriminelle kombinieren Social Engineering mit Deepfake-Audio und -Video, um ihre Ziele zu täuschen. Stellen Sie sich vor, Sie erhalten einen Anruf von jemandem, der exakt wie Ihr Chef oder ein vertrauenswürdiger Kollege klingt und Sie auffordert, Geld zu überweisen oder sensible Informationen preiszugeben. Es passiert, und es kostet Unternehmen enorme Summen.
Obwohl nur eine Handvoll prominenter Fälle berichtet wurde, waren die finanziellen Schäden erheblich. Das Erkennen von Deepfake-Stimmen während persönlicher Anrufe bleibt schwierig. Gartner prognostiziert, dass bis 2028 40 % der Social-Engineering-Angriffe sowohl Führungskräfte als auch die breitere Belegschaft ins Visier nehmen werden.
"Organisationen müssen den Markt im Auge behalten und Verfahren sowie Arbeitsabläufe anpassen, um Angriffe, die gefälschte Realitätstechniken nutzen, besser abzuwehren," rät Manuel Acosta, Senior Director Analyst bei Gartner. "Die Schulung von Mitarbeitern über die sich entwickelnde Bedrohungslandschaft durch spezifische Trainings zu Social Engineering mit Deepfakes ist ein entscheidender Schritt."
Abwehr von KI-gestützten Angriffen
Wie können also Einzelpersonen und Organisationen diese KI-gesteuerten Angriffe abwehren?
"Um neuen Herausforderungen durch KI-gestützte Angriffe entgegenzuwirken, müssen Organisationen KI-gestützte Tools nutzen, die eine granulare Echtzeit-Umgebungsübersicht und Warnungen bieten, um Sicherheitsteams zu unterstützen," schlägt Nicole Carignan, Senior VP für Sicherheits- und KI-Strategie bei Darktrace, vor.
Carignan empfiehlt außerdem, neuen Bedrohungen zuvorzukommen, indem maschinengesteuerte Reaktionen integriert werden, entweder autonom oder mit menschlicher Aufsicht, um die Reaktionszeiten von Sicherheitsteams zu beschleunigen. "Durch diesen Ansatz kann die Einführung von KI-Technologien – wie Lösungen mit anomaliebasierten Erkennungsfähigkeiten, die noch nie dagewesene Bedrohungen erkennen und darauf reagieren können – entscheidend sein, um Organisationen sicher zu halten."
Multifaktor-Authentifizierung und biometrische Verifizierung, wie Gesichts- oder Fingerabdruckscans, sind ebenfalls entscheidend, um sich gegen Kontoübernahmen zu schützen. "Cyberkriminelle verlassen sich nicht nur auf gestohlene Zugangsdaten, sondern auch auf soziale Manipulation, um Identitätsschutzmechanismen zu durchbrechen," sagt James Scobey, Chief Information Security Officer bei Keeper Security. "Deepfakes sind in diesem Bereich besonders besorgniserregend, da KI-Modelle diese Angriffsmethoden schneller, kostengünstiger und überzeugender machen. Da Angreifer immer raffinierter werden, wird die Notwendigkeit stärkerer, dynamischerer Identitätsverifizierungsmethoden – wie Multifaktor-Authentifizierung (MFA) und Biometrie – entscheidend sein, um diesen zunehmend nuancierten Bedrohungen entgegenzuwirken. MFA ist unerlässlich, um Kontoübernahmen zu verhindern."
Gartners Tipps zum Umgang mit Social Engineering und Deepfakes
- Mitarbeiter schulen. Bilden Sie sie in Bezug auf Social Engineering und Deepfakes aus, aber verlassen Sie sich nicht allein auf ihre Fähigkeit, diese Bedrohungen zu erkennen.
- Weitere Verifizierungsmaßnahmen einrichten. Verifizieren Sie beispielsweise alle Versuche, vertrauliche Informationen telefonisch anzufordern, über eine andere Plattform.
- Eine Rückrufpolitik einführen. Stellen Sie eine festgelegte Nummer bereit, die Mitarbeiter anrufen können, um sensible oder vertrauliche Anfragen zu bestätigen.
- Über eine Rückrufpolitik hinausgehen. Stellen Sie sicher, dass ein einzelner Anruf oder eine Anfrage keine risikoreiche Aktion ohne zusätzliche Verifizierung durch Führungskräfte auslösen kann.
- Über Echtzeit-Deepfake-Erkennung informiert bleiben. Halten Sie sich über neue Technologien auf dem Laufenden, die Deepfakes in Audio- und Videoanrufen erkennen können, und ergänzen Sie diese mit anderen Identifikationsmethoden wie eindeutigen IDs.
Möchten Sie mehr Geschichten über KI? Melden Sie sich für Innovation, unseren wöchentlichen Newsletter, an.




¡Me sorprendió saber que los hackers están usando IA para robar datos! Al menos el app ofrece consejos para protegerse. Lectura esencial para cualquier persona en línea 😱🔒




Diese App hat mir wirklich die Augen geöffnet, wie Hacker AI nutzen, um Daten zu stehlen! Es ist gruselig, aber auch super informativ. Der Abschnitt über Schutzmaßnahmen war etwas trocken, aber insgesamt ein Muss, wenn man sich für Cybersicherheit interessiert. Auf jeden Fall einen Blick wert! 😱🔒




Este app realmente me mostrou como hackers usam IA para nos atrapalhar. É assustador, mas muito informativo. A parte das medidas protetivas é um pouco básica, no entanto. Poderia ser mais detalhada, mas vale a pena dar uma olhada! 👀




AIエージェントがデータを悪用するなんて恐ろしいですね!保護対策について知るのは良いことですが、オンラインセキュリティについて不安になります。この情報は役立つけど、もう少し安心できる内容だといいなと思います。😅




AI가 해커에게 악용된다는 사실이 정말 충격적이에요! 보호 방법도 알려주니 온라인에서 활동하는 사람들에게는 필수죠. 좀 더 일찍 알았더라면 좋겠어요 😓🔐




이 앱은 해커들이 데이터를 훔치기 위해 AI를 어떻게 사용하는지에 대해 눈을 뜨게 해줬어요! 무섭지만 정말 유익해요. 보호 조치 부분은 조금 지루했지만, 전체적으로 사이버 보안에 관심이 있다면 꼭 읽어야 해요. 꼭 확인해보세요! 😱🔒












