opción
Hogar
Noticias
Los investigadores engañan a la IA para elaborar infantes de cromo a pesar de la falta de habilidades para codificar malware

Los investigadores engañan a la IA para elaborar infantes de cromo a pesar de la falta de habilidades para codificar malware

16 de abril de 2025
83

Los investigadores engañan a la IA para elaborar infantes de cromo a pesar de la falta de habilidades para codificar malware

La IA generativa ha sido una espada de doble filo, generando tanta controversia como innovación, particularmente en el ámbito de la infraestructura de seguridad. Cato Networks, un proveedor líder de seguridad empresarial, ha revelado un método novedoso para manipular chatbots de IA. Su Informe de Amenazas Cato CTRL 2025, publicado el martes, detalla cómo un investigador sin experiencia previa en codificación de malware logró engañar a varios modelos de IA, incluidos DeepSeek R1 y V3, Microsoft Copilot y GPT-4o de OpenAI, para crear infostealers de Chrome "totalmente funcionales". Estas piezas de malware están diseñadas para robar datos sensibles como contraseñas e información financiera de los navegadores Chrome.

El investigador empleó una táctica creativa, llamada "Mundo Inmersivo", para eludir las medidas de seguridad de estos sistemas de IA. Al crear un universo ficticio detallado donde cada herramienta de IA tenía roles, tareas y desafíos específicos, el investigador logró normalizar operaciones restringidas, esquivando efectivamente los protocolos de seguridad establecidos.

Técnica del Mundo Inmersivo

La técnica de jailbreak "Mundo Inmersivo" es particularmente preocupante debido al uso generalizado de los chatbots que alojan estos modelos de IA. Aunque los modelos DeepSeek son conocidos por tener menos barreras de seguridad y han sido previamente vulnerados, el hecho de que Copilot y GPT-4o, respaldados por empresas con equipos de seguridad robustos, también fueran susceptibles resalta la vulnerabilidad de las rutas de manipulación indirecta.

Etay Maor, estratega jefe de seguridad de Cato, comentó: "Nuestra nueva técnica de jailbreak de LLM [...] debería haber sido bloqueada por las barreras de seguridad de la IA generativa. No lo fue." El informe de Cato también menciona que, aunque la empresa notificó a las partes afectadas, las respuestas variaron. DeepSeek no respondió, mientras que OpenAI y Microsoft reconocieron los hallazgos. Google, por otro lado, confirmó la recepción pero se negó a revisar el código de Cato.

Una Alarma para los Profesionales de Seguridad

Los hallazgos de Cato sirven como una llamada de atención para la industria de la seguridad, ilustrando cómo incluso individuos sin conocimientos especializados pueden representar una amenaza significativa para las empresas. Con las barreras de entrada en la manipulación de IA cada vez más bajas, los atacantes requieren menos experiencia técnica para ejecutar ataques exitosos.

La solución, según Cato, radica en adoptar estrategias de seguridad basadas en IA. Al centrar la formación en seguridad en el panorama cambiante de las amenazas impulsadas por IA, los equipos pueden mantenerse un paso adelante. Para obtener más información sobre cómo preparar a las empresas para estos desafíos, consulta los consejos de este experto.

Mantente actualizado con las últimas noticias de seguridad suscribiéndote a Tech Today, entregado en tu bandeja de entrada cada mañana.

Artículo relacionado
Anthropic resuelve un caso de piratería de libros generados por inteligencia artificial Anthropic resuelve un caso de piratería de libros generados por inteligencia artificial Anthropic ha llegado a una resolución en un importante litigio sobre derechos de autor con autores estadounidenses, aceptando una propuesta de acuerdo de demanda colectiva que evita un juicio potencia
Meta comparte ingresos con los anfitriones de los modelos de inteligencia artificial de Llama, según un expediente Meta comparte ingresos con los anfitriones de los modelos de inteligencia artificial de Llama, según un expediente Aunque Mark Zuckerberg, consejero delegado de Meta, enfatizó en julio de 2023 que "vender acceso" no es su modelo de negocio para los modelos de IA de Llama, archivos judiciales recientemente revelado
Desbloquea el 99% de los datos ocultos, ahora optimizados para la IA Desbloquea el 99% de los datos ocultos, ahora optimizados para la IA Durante generaciones, organizaciones de todos los sectores han comprendido que su información acumulada representa un activo transformador, capaz de mejorar las interacciones con los clientes y de dar
comentario (5)
0/200
ThomasYoung
ThomasYoung 21 de abril de 2025 06:08:07 GMT+02:00

Esse truque de AI para criar infostealers do Chrome é loucura! 😱 Sem habilidades de codificação necessárias? Isso é assustador, mas também meio legal. Me faz pensar em como nossos dados estão realmente seguros. Mas tenho que dar crédito pela criatividade! 🔍

CharlesJohnson
CharlesJohnson 20 de abril de 2025 21:21:57 GMT+02:00

¡Este truco de IA para crear infostealers de Chrome es una locura! 😱 ¿Sin habilidades de codificación necesarias? Eso es aterrador pero también un poco genial. Me hace preguntarme cuán seguros están realmente nuestros datos. Pero hay que reconocer la creatividad! 🔍

GaryWilson
GaryWilson 20 de abril de 2025 05:53:10 GMT+02:00

크롬 정보 도둑 프로그램을 만드는 AI 트릭이 대단해! 😱 코딩 기술이 필요 없다고? 무섭지만 좀 멋지기도 해. 우리 데이터가 정말 안전한지 궁금해지네. 그래도 창의성에는 박수를 보내! 🔍

WillGarcía
WillGarcía 18 de abril de 2025 23:49:42 GMT+02:00

Chromeの情報窃盗ツールを作るAIのトリックがすごい!😱 コーディングのスキルが不要って、怖いけどちょっとかっこいいね。データの安全性が本当にどうなのか気になる。でも創造性には敬意を表するよ!🔍

LawrenceRodriguez
LawrenceRodriguez 16 de abril de 2025 17:09:52 GMT+02:00

This AI trick to make Chrome infostealers is wild! 😱 No coding skills needed? That's scary but also kinda cool. Makes me wonder how safe our data really is. Gotta give props to the creativity though! 🔍

Volver arriba
OR