Heim Nachricht Alarmierender Anstieg der AI-betriebenen Betrügereien: Microsoft enthält einen vereitelten Betrug in Höhe von 4 Milliarden US-Dollar

Alarmierender Anstieg der AI-betriebenen Betrügereien: Microsoft enthält einen vereitelten Betrug in Höhe von 4 Milliarden US-Dollar

26. April 2025
SophiaJones
0

Die schnelle Entwicklung von AI-betriebenen Betrügereien

KI-betriebene Betrügereien nehmen zu, und Cyberkriminelle nutzen hochmoderne Technologie, um die Opfer effektiver als je zuvor zu täuschen. Laut dem jüngsten Cyber-Signal-Bericht von Microsoft hat der Tech-Riese im vergangenen Jahr Betrugsversuche in Höhe von 4 Milliarden US-Dollar vereitelt und pro Stunde rund 1,6 Millionen Bot-Anmeldungsversuche blockiert. Diese erstaunliche Zahl unterstreicht das Ausmaß der Bedrohung, mit der wir konfrontiert sind.

Die neunte Ausgabe des Berichts mit dem Titel "AI-betriebene Täuschung: Emerging Betrugs Bedrohungen und Gegenmaßnahmen", wirft Licht darauf, wie künstliche Intelligenz die technischen Hindernisse für Betrüger senkt. Was früher Tage oder Wochen dauerte, um eingerichtet zu werden, kann jetzt in wenigen Minuten durchgeführt werden, sodass selbst solche mit minimalen Fähigkeiten anspruchsvolle Betrugsbetrug einleiten können. Diese Demokratisierung von Betrugsfähigkeiten verändert die kriminelle Landschaft und wirkt sich weltweit auf Verbraucher und Unternehmen aus.

Wie KI Cyber ​​-Betrug verstärkt

In der Berichtsbericht von Microsoft wird beschrieben, wie KI -Tools jetzt in der Lage sind, das Web zu scannen und zu kratzen, um Unternehmensinformationen zu sammeln, sodass Cyberkriminelle detaillierte Profile für gezielte Social Engineering -Angriffe erstellen können. Diese schlechten Schauspieler verwenden KI, um gefälschte Produktbewertungen zu erstellen und ganze Ladenfronten mit erfundenen Geschäftsberichten und Kundenaussagen zu generieren, um Opfer in komplexe Betrugsschemata zu locken.

Kelly Bissell, Corporate Vice President von Anti-Frags and Product Missbrauch bei Microsoft Security, stellt fest, dass Cyberkriminalität ein Billionen-Dollar-Problem ist, das seit drei Jahrzehnten jährlich wächst. "Ich denke, wir haben heute die Gelegenheit, KI schneller zu übernehmen, damit wir die Expositionslücke schnell erkennen und schließen können", erklärt Bissell. "Jetzt haben wir KI, die einen Unterschied im Maßstab bewirken und uns helfen können, Sicherheits- und Betrugsschutz in unsere Produkte aufzubauen."

Der Bericht zeigt auch, dass AI-betriebene Betrugsangriffe ein globales Problem darstellen. Aufgrund seines großen E-Commerce-Marktes stammt aus China und Europa, insbesondere Deutschlands. Je größer der digitale Marktplatz ist, desto wahrscheinlicher ist es, dass ein proportionaler Anstieg des versuchten Betrugs verzeichnet wird.

E-Commerce- und Beschäftigungsbetrug im Vordergrund

Zwei Bereiche, in denen AI-verstärkter Betrug besonders weit verbreitet ist, sind E-Commerce- und Job-Rekrutierung. Im E-Commerce-Sektor ermöglichen AI-Tools Betrüger, in Minuten betrügerische Websites zu erstellen und legitime Unternehmen mit Produktbeschreibungen, Bildern und Kundenbewertungen im Nachahmung von AI-generierten Produkten nachzuahmen. Diese Websites können sogar Kundendienst-Chatbots einsetzen, die überzeugend mit Kunden interagieren, Rückbuchungen verzögern und Beschwerden zur Aufrechterhaltung einer professionellen Fassade manipulieren.

Arbeitssuchende sind ebenfalls gefährdet, da generative KI es Betrüger erleichtert, gefälschte Stellenangebote auf verschiedenen Plattformen zu erstellen. Diese Auflistungen werden häufig mit automatisch generierten Beschreibungen und E-Mail-Kampagnen mit KI-betriebenen Arbeitsplätzen ausgestattet, die für Phish-Arbeitssuchende entwickelt wurden. KI-betriebene Interviews und automatisierte E-Mails verbessern die Glaubwürdigkeit dieser Betrügereien weiter, wodurch sie schwieriger zu erkennen sind. Betrüger fordern häufig persönliche Daten an, z. B. Lebensläufe oder Bankkontodaten unter dem Deckmantel der Überprüfung der Bewerber.

Rote Fahnen umfassen unerwünschte Stellenangebote, Zahlungsanfragen und Kommunikation über informelle Plattformen wie Textnachrichten oder WhatsApp.

Microsofts Antwort auf KI-betriebene Betrug

Um diese aufstrebenden Bedrohungen anzugehen, hat Microsoft einen facettenreichen Ansatz in seinen Produkten und Dienstleistungen verfolgt. Microsoft Defender for Cloud bietet einen Bedrohungsschutz für Azure -Ressourcen, während Microsoft Edge Website -Typoschutz und Domain -Imitationsschutz bietet und Deep -Learning -Technologien nutzt, um Benutzern dabei zu helfen, betrügerische Websites zu vermeiden.

Windows Quick Assist wurde durch Warnmeldungen erweitert, um Benutzer über potenzielle Betrugsuntersuchungen zu alarmieren, bevor jemand Zugriff auf jemanden gewährt, der behauptet, aus der IT -Support zu stammen. Microsoft blockiert jetzt durchschnittlich 4.415 verdächtige Quick Assist -Verbindungsversuche täglich.

Im Rahmen seiner Secure Future Initiative (SFI) hat Microsoft eine neue Richtlinie zur Betrugsprävention eingeführt. Ab Januar 2025 müssen Microsoft-Produktteams während des Entwurfsprozesses Betrugspräventionsbewertungen durchführen und Betrugskontrollen implementieren, um sicherzustellen, dass die Produkte "durch Design resistent" sind.

Da sich die Betrügereien von KI weiterentwickeln, ist das Bewusstsein der Verbraucher von entscheidender Bedeutung. Microsoft empfiehlt den Benutzern, sich vor der Dringlichkeitstaktik vorsichtig zu halten, die Legitimität der Website zu überprüfen, bevor Sie Einkäufe tätigen, und keine persönlichen Informationen für nicht festgelegte Quellen zur Verfügung stellen. Für Unternehmen kann die Implementierung der Multi-Faktor-Authentifizierung und die Bereitstellung von DeepFake-Detection-Algorithmen dazu beitragen, Risiken zu mindern.

Call of Duty: Mobile- Alle Arbeiten können Codes im Januar 2025 einlösen

Verwandter Artikel
Alarming rise in AI-powered scams: Microsoft reveals $4 Billion in thwarted fraud Alarming rise in AI-powered scams: Microsoft reveals $4 Billion in thwarted fraud The Rapid Evolution of AI-Powered ScamsAI-powered scams are on the rise, with cybercriminals leveraging cutting-edge technology to deceive victims more effectively than ever before. According to Microsoft's latest Cyber Signals report, the tech giant has thwarted $4 billion in fraud attempts over th
YouTube Backs 'No Fakes Act' to Combat Unauthorized AI Replicas YouTube Backs 'No Fakes Act' to Combat Unauthorized AI Replicas Senators Chris Coons (D-DE) and Marsha Blackburn (R-TN) are once again pushing forward their Nurture Originals, Foster Art, and Keep Entertainment Safe, or NO FAKES, Act. This legislation aims to set clear rules about creating AI-generated copies of someone's face, name, or voice. After being introd
How does AI judge? Anthropic studies the values of Claude How does AI judge? Anthropic studies the values of Claude As AI models like Anthropic's Claude increasingly engage with users on complex human values, from parenting tips to workplace conflicts, their responses inherently reflect a set of guiding principles. But how can we truly grasp the values an AI expresses when interacting with millions of users? Ant
Kommentare (0)
0/200
Back to Top
OR