ChatGPT exploité pour voler des données Gmail sensibles dans le cadre d'une faille de sécurité

Alerte de sécurité : des chercheurs démontrent une technique d'exfiltration de données basée sur l'IA
Des experts en cybersécurité ont récemment découvert une vulnérabilité inquiétante dans laquelle la fonction Deep Research de ChatGPT pouvait être manipulée pour extraire silencieusement des données confidentielles de Gmail. Bien qu'OpenAI ait depuis apporté un correctif à cet exploit spécifique, l'incident met en évidence les nouveaux problèmes de sécurité posés par les systèmes d'IA autonomes.
Le mécanisme d'exploitation Shadow Leak
Les analystes en sécurité de Radware ont mis au point cette attaque de démonstration, qui montre comment la serviabilité inhérente à l'IA peut être utilisée à des fins militaires. La technique exploite le mode de fonctionnement des assistants d'IA - autorisés à accéder à des comptes sensibles tels que le courrier électronique, puis laissés libres d'exécuter des tâches automatisées sans supervision.
La vulnérabilité de la percée réside dans une attaque sophistiquée par injection d'invite. Contrairement aux cybermenaces traditionnelles, ces manipulations intègrent des instructions malveillantes qui semblent inoffensives aux yeux des examinateurs humains, mais qui réorientent complètement le comportement d'un agent d'intelligence artificielle.
Anatomie de l'attaque
Les chercheurs ont implanté des commandes cachées dans un courriel d'un compte Gmail auquel l'IA pouvait accéder. Lorsque l'utilisateur a ensuite activé Deep Research, l'IA a traité l'e-mail compromis contenant les commandes cachées :
- L'IA a traité l'e-mail compromis contenant les instructions cachées
- Elle a été secrètement redirigée vers la recherche de documents RH et de données personnelles.
- Le système a commencé à exporter ces informations vers des canaux contrôlés par l'attaquant.
Ce qui rend cette approche particulièrement insidieuse, c'est qu'elle a été exécutée entièrement dans l'infrastructure en nuage d'OpenAI, contournant ainsi les outils de contrôle de sécurité conventionnels qui surveillent le trafic réseau anormal.
Des implications plus larges
L'équipe de recherche souligne qu'il ne s'agissait pas d'un simple exploit - la mise au point de méthodes d'exfiltration fiables a nécessité de nombreux essais et perfectionnements. Leur succès démontre à quel point les vecteurs d'attaque spécifiques à l'IA deviennent sophistiqués.
Bien que cette vulnérabilité spécifique ait été corrigée, Radware prévient que des techniques similaires pourraient potentiellement cibler d'autres services intégrés, notamment
- Microsoft Outlook
- les dépôts GitHub
- Google Drive
- les comptes Dropbox.
Cet incident est un signal d'alarme crucial pour les organisations qui mettent en œuvre des outils d'IA avec des privilèges d'accès étendus au système. À mesure que les agents d'intelligence artificielle deviennent plus autonomes et plus largement intégrés, il devient de plus en plus crucial de développer des défenses spécialisées contre ces nouveaux vecteurs d'attaque.
Article connexe
Windows prend en charge la norme AI App Interconnect
Microsoft renforce sa stratégie d'IA pour Windows avec deux développements majeurs : l'intégration native du protocole Model Context Protocol (MCP) et l'introduction de Windows AI Foundry. Ces mesures
Anthropic admet l'erreur d'IA de Claude dans son dossier juridique, la qualifiant de "gênante et non intentionnelle".
Anthropic a répondu aux accusations concernant une source générée par l'IA dans le cadre de son litige avec les éditeurs de musique, qualifiant l'incident d'"erreur de citation involontaire" commise p
Gmail déploie des résumés automatiques d'e-mails alimentés par l'IA
Les utilisateurs de l'espace de travail vont pouvoir bénéficier de résumés d'e-mails générés par GeminiLes abonnés à Google Workspace remarqueront le rôle accru de Gemini dans la gestion de leur boî
commentaires (0)
0/200
Alerte de sécurité : des chercheurs démontrent une technique d'exfiltration de données basée sur l'IA
Des experts en cybersécurité ont récemment découvert une vulnérabilité inquiétante dans laquelle la fonction Deep Research de ChatGPT pouvait être manipulée pour extraire silencieusement des données confidentielles de Gmail. Bien qu'OpenAI ait depuis apporté un correctif à cet exploit spécifique, l'incident met en évidence les nouveaux problèmes de sécurité posés par les systèmes d'IA autonomes.
Le mécanisme d'exploitation Shadow Leak
Les analystes en sécurité de Radware ont mis au point cette attaque de démonstration, qui montre comment la serviabilité inhérente à l'IA peut être utilisée à des fins militaires. La technique exploite le mode de fonctionnement des assistants d'IA - autorisés à accéder à des comptes sensibles tels que le courrier électronique, puis laissés libres d'exécuter des tâches automatisées sans supervision.
La vulnérabilité de la percée réside dans une attaque sophistiquée par injection d'invite. Contrairement aux cybermenaces traditionnelles, ces manipulations intègrent des instructions malveillantes qui semblent inoffensives aux yeux des examinateurs humains, mais qui réorientent complètement le comportement d'un agent d'intelligence artificielle.
Anatomie de l'attaque
Les chercheurs ont implanté des commandes cachées dans un courriel d'un compte Gmail auquel l'IA pouvait accéder. Lorsque l'utilisateur a ensuite activé Deep Research, l'IA a traité l'e-mail compromis contenant les commandes cachées :
- L'IA a traité l'e-mail compromis contenant les instructions cachées
- Elle a été secrètement redirigée vers la recherche de documents RH et de données personnelles.
- Le système a commencé à exporter ces informations vers des canaux contrôlés par l'attaquant.
Ce qui rend cette approche particulièrement insidieuse, c'est qu'elle a été exécutée entièrement dans l'infrastructure en nuage d'OpenAI, contournant ainsi les outils de contrôle de sécurité conventionnels qui surveillent le trafic réseau anormal.
Des implications plus larges
L'équipe de recherche souligne qu'il ne s'agissait pas d'un simple exploit - la mise au point de méthodes d'exfiltration fiables a nécessité de nombreux essais et perfectionnements. Leur succès démontre à quel point les vecteurs d'attaque spécifiques à l'IA deviennent sophistiqués.
Bien que cette vulnérabilité spécifique ait été corrigée, Radware prévient que des techniques similaires pourraient potentiellement cibler d'autres services intégrés, notamment
- Microsoft Outlook
- les dépôts GitHub
- Google Drive
- les comptes Dropbox.
Cet incident est un signal d'alarme crucial pour les organisations qui mettent en œuvre des outils d'IA avec des privilèges d'accès étendus au système. À mesure que les agents d'intelligence artificielle deviennent plus autonomes et plus largement intégrés, il devient de plus en plus crucial de développer des défenses spécialisées contre ces nouveaux vecteurs d'attaque.












