ChatGPT se aprovecha para robar datos confidenciales de Gmail en una brecha de seguridad

Alerta de seguridad: investigadores demuestran una técnica de filtración de datos impulsada por IA
Expertos en ciberseguridad descubrieron recientemente una preocupante vulnerabilidad que permitía manipular la función Deep Research de ChatGPT para extraer de forma silenciosa datos confidenciales de Gmail. Aunque OpenAI ya ha parcheado esta vulnerabilidad concreta, el incidente pone de manifiesto los nuevos problemas de seguridad que plantean los sistemas autónomos de IA.
El mecanismo de explotación Shadow Leak
Los analistas de seguridad de Radware desarrollaron este ataque de prueba de concepto, que demuestra cómo la utilidad inherente de la IA puede convertirse en un arma. La técnica aprovecha el funcionamiento de los asistentes de IA: se les autoriza a acceder a cuentas confidenciales, como el correo electrónico, y luego se les deja realizar tareas automatizadas sin supervisión.
La vulnerabilidad descubierta consiste en un sofisticado ataque de inyección de comandos. A diferencia de las ciberamenazas tradicionales, estas manipulaciones incrustan instrucciones maliciosas que parecen benignas para los revisores humanos, pero que redirigen por completo el comportamiento de un agente de IA.
Anatomía del ataque
Los investigadores implantaron comandos ocultos en un correo electrónico dentro de una cuenta de Gmail a la que la IA podía acceder. Cuando el usuario activó posteriormente Deep Research:
- La IA procesó el correo electrónico comprometido que contenía instrucciones ocultas.
- Se redirigía de forma encubierta a la búsqueda de documentos de RRHH y datos personales
- El sistema comenzó a exportar esta información a canales controlados por el atacante.
Lo que hace que este método sea especialmente insidioso es que se ejecuta íntegramente dentro de la infraestructura en la nube de OpenAI, eludiendo las herramientas convencionales de supervisión de la seguridad que vigilan el tráfico de red anómalo.
Implicaciones más amplias
El equipo de investigación subraya que no se trata de un exploit sencillo, ya que para desarrollar métodos de extracción fiables ha sido necesario realizar numerosas pruebas y perfeccionarlos. Su éxito demuestra lo sofisticados que se están volviendo los vectores de ataque específicos de la inteligencia artificial.
Aunque se ha abordado esta vulnerabilidad específica, Radware advierte que técnicas similares podrían dirigirse potencialmente a otros servicios integrados, entre ellos:
- Microsoft Outlook
- repositorios de GitHub
- Google Drive
- Cuentas de Dropbox
El incidente sirve como una llamada de atención crucial para las organizaciones que implementan herramientas de IA con amplios privilegios de acceso al sistema. A medida que los agentes de IA se vuelven más autónomos y se integran más ampliamente, el desarrollo de defensas especializadas contra estos nuevos vectores de ataque se vuelve cada vez más crítico.
Artículo relacionado
Windows añade compatibilidad con el estándar AI App Interconnect
Microsoft está redoblando su estrategia de IA para Windows con dos importantes novedades: la integración nativa del Protocolo de Contexto de Modelo (MCP) y la introducción de Windows AI Foundry. Estos
Anthropic admite el error de Claude AI en un escrito legal y lo califica de "vergonzoso y no intencionado"
Anthropic ha respondido a las acusaciones relativas a una fuente generada por IA en su actual disputa legal con los editores de música, caracterizando el incidente como un "error de citación involunta
Gmail lanza resúmenes automáticos de correo electrónico basados en inteligencia artificial
Los resúmenes de correo electrónico de Gemini llegan a los usuarios de WorkspaceLos suscriptores de Google Workspace notarán el papel mejorado de Gemini en la gestión de sus bandejas de entrada, ya
comentario (0)
0/200
Alerta de seguridad: investigadores demuestran una técnica de filtración de datos impulsada por IA
Expertos en ciberseguridad descubrieron recientemente una preocupante vulnerabilidad que permitía manipular la función Deep Research de ChatGPT para extraer de forma silenciosa datos confidenciales de Gmail. Aunque OpenAI ya ha parcheado esta vulnerabilidad concreta, el incidente pone de manifiesto los nuevos problemas de seguridad que plantean los sistemas autónomos de IA.
El mecanismo de explotación Shadow Leak
Los analistas de seguridad de Radware desarrollaron este ataque de prueba de concepto, que demuestra cómo la utilidad inherente de la IA puede convertirse en un arma. La técnica aprovecha el funcionamiento de los asistentes de IA: se les autoriza a acceder a cuentas confidenciales, como el correo electrónico, y luego se les deja realizar tareas automatizadas sin supervisión.
La vulnerabilidad descubierta consiste en un sofisticado ataque de inyección de comandos. A diferencia de las ciberamenazas tradicionales, estas manipulaciones incrustan instrucciones maliciosas que parecen benignas para los revisores humanos, pero que redirigen por completo el comportamiento de un agente de IA.
Anatomía del ataque
Los investigadores implantaron comandos ocultos en un correo electrónico dentro de una cuenta de Gmail a la que la IA podía acceder. Cuando el usuario activó posteriormente Deep Research:
- La IA procesó el correo electrónico comprometido que contenía instrucciones ocultas.
- Se redirigía de forma encubierta a la búsqueda de documentos de RRHH y datos personales
- El sistema comenzó a exportar esta información a canales controlados por el atacante.
Lo que hace que este método sea especialmente insidioso es que se ejecuta íntegramente dentro de la infraestructura en la nube de OpenAI, eludiendo las herramientas convencionales de supervisión de la seguridad que vigilan el tráfico de red anómalo.
Implicaciones más amplias
El equipo de investigación subraya que no se trata de un exploit sencillo, ya que para desarrollar métodos de extracción fiables ha sido necesario realizar numerosas pruebas y perfeccionarlos. Su éxito demuestra lo sofisticados que se están volviendo los vectores de ataque específicos de la inteligencia artificial.
Aunque se ha abordado esta vulnerabilidad específica, Radware advierte que técnicas similares podrían dirigirse potencialmente a otros servicios integrados, entre ellos:
- Microsoft Outlook
- repositorios de GitHub
- Google Drive
- Cuentas de Dropbox
El incidente sirve como una llamada de atención crucial para las organizaciones que implementan herramientas de IA con amplios privilegios de acceso al sistema. A medida que los agentes de IA se vuelven más autónomos y se integran más ampliamente, el desarrollo de defensas especializadas contra estos nuevos vectores de ataque se vuelve cada vez más crítico.












