Maison Nouvelles Régisse alarmante des escroqueries alimentées par l'IA: Microsoft révèle 4 milliards de dollars de fraude contrecarrée

Régisse alarmante des escroqueries alimentées par l'IA: Microsoft révèle 4 milliards de dollars de fraude contrecarrée

26 avril 2025
SophiaJones
0

L'évolution rapide des escroqueries alimentées par l'IA

Les escroqueries alimentées par l'IA sont en augmentation, les cybercriminels tirant parti de la technologie de pointe pour tromper les victimes plus efficacement que jamais. Selon le dernier rapport de Cyber ​​Signals de Microsoft, le géant de la technologie a contrecarré 4 milliards de dollars de tentatives de fraude au cours de la dernière année, bloquant environ 1,6 million de tentatives d'inscription de bot chaque heure. Ce nombre stupéfiant souligne l'ampleur de la menace à laquelle nous sommes confrontés.

La neuvième édition du rapport, intitulée "Deception alimentée par AI: les menaces et contre-mesures de la fraude émergents", met en lumière la façon dont l'intelligence artificielle réduit les obstacles techniques aux escrocs. Ce qui prenait des jours ou des semaines pour l'installation peut maintenant être fait en quelques minutes, permettant à ceux qui ont des compétences minimales de lancer des escroqueries sophistiquées. Cette démocratisation des capacités de fraude remodèle le paysage criminel, ayant un impact sur les consommateurs et les entreprises à l'échelle du monde.

Comment l'IA améliore les cyber-escroqueries

Le rapport de Microsoft détaille comment les outils d'IA sont désormais capables de numériser et de gratter le Web pour recueillir les informations de l'entreprise, permettant aux cybercriminels de créer des profils détaillés pour les attaques d'ingénierie sociale ciblées. Ces mauvais acteurs utilisent l'IA pour élaborer de fausses revues de produits et génèrent des vitrines entières, avec des histoires commerciales fabriquées et des témoignages clients, pour attirer les victimes en schémas de fraude complexes.

Kelly Bissell, vice-présidente de l'entreprise de l'anti-Fraud et de la maltraitance des produits chez Microsoft Security, note que la cybercriminalité est un problème de billion de dollars qui a augmenté chaque année depuis trois décennies. "Je pense que nous avons l'occasion aujourd'hui d'adopter l'IA plus rapidement afin que nous puissions détecter et combler rapidement l'écart de l'exposition", déclare Bissell. "Maintenant, nous avons une IA qui peut faire une différence à grande échelle et nous aider à construire des protections de sécurité et de fraude dans nos produits beaucoup plus rapidement."

Le rapport souligne également que les attaques de fraude alimentées par l'IA sont une préoccupation mondiale, avec une activité importante provenant de la Chine et de l'Europe, en particulier de l'Allemagne, en raison de son grand marché de commerce électronique. Plus le marché numérique est important, plus il est probable que de voir une augmentation proportionnelle de la tentative de fraude.

Escroqueries de commerce électronique et d'emploi à l'avant-garde

Deux domaines où la fraude améliorée par l'IA est particulièrement répandue est le commerce électronique et le recrutement d'emplois. Dans le secteur du commerce électronique, les outils d'IA permettent aux escrocs de créer des sites Web frauduleux en quelques minutes, en imitant les entreprises légitimes avec des descriptions de produits générées par l'IA, des images et des avis clients. Ces sites peuvent même déployer des chatbots de service à la clientèle alimentés par l'IA qui interagissent de manière convaincante avec les clients, retardent les rétrofacturation et manipulent des plaintes pour maintenir une façade professionnelle.

Les demandeurs d'emploi sont également à risque, car une IA générative permet aux escrocs de créer plus facilement de fausses listes d'emplois sur diverses plateformes. Ces listes sont souvent livrées avec des descriptions générées automatiquement et des campagnes de messagerie propulsées par l'IA conçues pour les demandeurs d'emploi à phish. Les entretiens et les e-mails automatisés pour AI améliorent encore la crédibilité de ces escroqueries, ce qui les rend plus difficiles à détecter. Les fraudeurs demandent souvent des informations personnelles, telles que des curriculum vitae ou des coordonnées bancaires, sous le couvert des candidats à la vérification.

Les drapeaux rouges comprennent des offres d'emploi non sollicitées, des demandes de paiement et des communications via des plateformes informelles comme les messages texte ou WhatsApp.

La réponse de Microsoft à la fraude alimentée par l'IA

Pour lutter contre ces menaces émergentes, Microsoft a adopté une approche aux multiples facettes à travers ses produits et services. Microsoft Defender pour le cloud offre une protection contre les menaces pour les ressources Azure, tandis que Microsoft Edge propose une protection de la Typo Protection et de la protection d'identité du domaine, en utilisant la technologie d'apprentissage en profondeur pour aider les utilisateurs à éviter les sites Web frauduleux.

Windows Quick Assist a été amélioré avec des messages d'avertissement pour alerter les utilisateurs des escroqueries potentielles de support technologique avant d'accorder l'accès à quelqu'un qui prétend provenir de l'informatique. Microsoft bloque désormais quotidiennement une moyenne de 4 415 tentatives de connexion à assistance rapide suspectes.

Dans le cadre de son initiative Secure Future (SFI), Microsoft a introduit une nouvelle politique de prévention de la fraude. À partir de janvier 2025, les équipes de produits Microsoft doivent effectuer des évaluations de la prévention de la fraude et mettre en œuvre des contrôles à la fraude pendant le processus de conception, en veillant à ce que les produits soient «résistants à la fraude par conception».

Alors que les escroqueries alimentées par l'IA continuent d'évoluer, la sensibilisation aux consommateurs est cruciale. Microsoft conseille aux utilisateurs de se méfier des tactiques d'urgence, de vérifier la légitimité du site Web avant d'effectuer des achats et de ne jamais fournir d'informations personnelles ou financières à des sources non vérifiées. Pour les entreprises, la mise en œuvre de l'authentification multi-facteurs et du déploiement des algorithmes de détection DeepFake peut aider à atténuer les risques.

Call of Duty: Mobile - Tous les codes de rachat de travail janvier 2025

Article connexe
Alarming rise in AI-powered scams: Microsoft reveals $4 Billion in thwarted fraud Alarming rise in AI-powered scams: Microsoft reveals $4 Billion in thwarted fraud The Rapid Evolution of AI-Powered ScamsAI-powered scams are on the rise, with cybercriminals leveraging cutting-edge technology to deceive victims more effectively than ever before. According to Microsoft's latest Cyber Signals report, the tech giant has thwarted $4 billion in fraud attempts over th
YouTube Backs 'No Fakes Act' to Combat Unauthorized AI Replicas YouTube Backs 'No Fakes Act' to Combat Unauthorized AI Replicas Senators Chris Coons (D-DE) and Marsha Blackburn (R-TN) are once again pushing forward their Nurture Originals, Foster Art, and Keep Entertainment Safe, or NO FAKES, Act. This legislation aims to set clear rules about creating AI-generated copies of someone's face, name, or voice. After being introd
How does AI judge? Anthropic studies the values of Claude How does AI judge? Anthropic studies the values of Claude As AI models like Anthropic's Claude increasingly engage with users on complex human values, from parenting tips to workplace conflicts, their responses inherently reflect a set of guiding principles. But how can we truly grasp the values an AI expresses when interacting with millions of users? Ant
Commentaires (0)
0/200
Back to Top
OR