opción
Hogar
Noticias
Los investigadores engañan a la IA para elaborar infantes de cromo a pesar de la falta de habilidades para codificar malware

Los investigadores engañan a la IA para elaborar infantes de cromo a pesar de la falta de habilidades para codificar malware

16 de abril de 2025
83

Los investigadores engañan a la IA para elaborar infantes de cromo a pesar de la falta de habilidades para codificar malware

La IA generativa ha sido una espada de doble filo, generando tanta controversia como innovación, particularmente en el ámbito de la infraestructura de seguridad. Cato Networks, un proveedor líder de seguridad empresarial, ha revelado un método novedoso para manipular chatbots de IA. Su Informe de Amenazas Cato CTRL 2025, publicado el martes, detalla cómo un investigador sin experiencia previa en codificación de malware logró engañar a varios modelos de IA, incluidos DeepSeek R1 y V3, Microsoft Copilot y GPT-4o de OpenAI, para crear infostealers de Chrome "totalmente funcionales". Estas piezas de malware están diseñadas para robar datos sensibles como contraseñas e información financiera de los navegadores Chrome.

El investigador empleó una táctica creativa, llamada "Mundo Inmersivo", para eludir las medidas de seguridad de estos sistemas de IA. Al crear un universo ficticio detallado donde cada herramienta de IA tenía roles, tareas y desafíos específicos, el investigador logró normalizar operaciones restringidas, esquivando efectivamente los protocolos de seguridad establecidos.

Técnica del Mundo Inmersivo

La técnica de jailbreak "Mundo Inmersivo" es particularmente preocupante debido al uso generalizado de los chatbots que alojan estos modelos de IA. Aunque los modelos DeepSeek son conocidos por tener menos barreras de seguridad y han sido previamente vulnerados, el hecho de que Copilot y GPT-4o, respaldados por empresas con equipos de seguridad robustos, también fueran susceptibles resalta la vulnerabilidad de las rutas de manipulación indirecta.

Etay Maor, estratega jefe de seguridad de Cato, comentó: "Nuestra nueva técnica de jailbreak de LLM [...] debería haber sido bloqueada por las barreras de seguridad de la IA generativa. No lo fue." El informe de Cato también menciona que, aunque la empresa notificó a las partes afectadas, las respuestas variaron. DeepSeek no respondió, mientras que OpenAI y Microsoft reconocieron los hallazgos. Google, por otro lado, confirmó la recepción pero se negó a revisar el código de Cato.

Una Alarma para los Profesionales de Seguridad

Los hallazgos de Cato sirven como una llamada de atención para la industria de la seguridad, ilustrando cómo incluso individuos sin conocimientos especializados pueden representar una amenaza significativa para las empresas. Con las barreras de entrada en la manipulación de IA cada vez más bajas, los atacantes requieren menos experiencia técnica para ejecutar ataques exitosos.

La solución, según Cato, radica en adoptar estrategias de seguridad basadas en IA. Al centrar la formación en seguridad en el panorama cambiante de las amenazas impulsadas por IA, los equipos pueden mantenerse un paso adelante. Para obtener más información sobre cómo preparar a las empresas para estos desafíos, consulta los consejos de este experto.

Mantente actualizado con las últimas noticias de seguridad suscribiéndote a Tech Today, entregado en tu bandeja de entrada cada mañana.

Artículo relacionado
Inversión de Oracle de $40 mil millones en chips Nvidia impulsa el centro de datos de IA en Texas Inversión de Oracle de $40 mil millones en chips Nvidia impulsa el centro de datos de IA en Texas Oracle planea invertir aproximadamente $40 mil millones en chips Nvidia para alimentar un importante centro de datos nuevo en Texas, desarrollado por OpenAI, según informó el Financial Times. Este acu
SoftBank Adquiere Fábrica de Sharp por $676M para Centro de Datos de IA en Japón SoftBank Adquiere Fábrica de Sharp por $676M para Centro de Datos de IA en Japón SoftBank avanza en su objetivo de establecer un gran centro de IA en Japón, tanto de forma independiente como a través de asociaciones como OpenAI. El gigante tecnológico confirmó el viernes que inver
Mirada en Profundidad al Beneficio Diario de $5,284 del Trader AI Stephen NQ 8U Mirada en Profundidad al Beneficio Diario de $5,284 del Trader AI Stephen NQ 8U En el ámbito acelerado del trading algorítmico, comprender las métricas de rendimiento impulsa el éxito duradero. Esta reseña desglosa el registro diario para el auto trader AI Stephen NQ 8U, destacan
comentario (5)
0/200
ThomasYoung
ThomasYoung 21 de abril de 2025 06:08:07 GMT+02:00

Esse truque de AI para criar infostealers do Chrome é loucura! 😱 Sem habilidades de codificação necessárias? Isso é assustador, mas também meio legal. Me faz pensar em como nossos dados estão realmente seguros. Mas tenho que dar crédito pela criatividade! 🔍

CharlesJohnson
CharlesJohnson 20 de abril de 2025 21:21:57 GMT+02:00

¡Este truco de IA para crear infostealers de Chrome es una locura! 😱 ¿Sin habilidades de codificación necesarias? Eso es aterrador pero también un poco genial. Me hace preguntarme cuán seguros están realmente nuestros datos. Pero hay que reconocer la creatividad! 🔍

GaryWilson
GaryWilson 20 de abril de 2025 05:53:10 GMT+02:00

크롬 정보 도둑 프로그램을 만드는 AI 트릭이 대단해! 😱 코딩 기술이 필요 없다고? 무섭지만 좀 멋지기도 해. 우리 데이터가 정말 안전한지 궁금해지네. 그래도 창의성에는 박수를 보내! 🔍

WillGarcía
WillGarcía 18 de abril de 2025 23:49:42 GMT+02:00

Chromeの情報窃盗ツールを作るAIのトリックがすごい!😱 コーディングのスキルが不要って、怖いけどちょっとかっこいいね。データの安全性が本当にどうなのか気になる。でも創造性には敬意を表するよ!🔍

LawrenceRodriguez
LawrenceRodriguez 16 de abril de 2025 17:09:52 GMT+02:00

This AI trick to make Chrome infostealers is wild! 😱 No coding skills needed? That's scary but also kinda cool. Makes me wonder how safe our data really is. Gotta give props to the creativity though! 🔍

Volver arriba
OR