Hogar Noticias Cisco advierte: LLMS ajustados 22 veces más probabilidades de volverse pícaros

Cisco advierte: LLMS ajustados 22 veces más probabilidades de volverse pícaros

16 de abril de 2025
RaymondKing
4

Los modelos de idiomas grandes armados remodelan los ataques cibernéticos

El paisaje de los ataques cibernéticos está experimentando una transformación significativa, impulsada por la aparición de modelos de lenguaje grande (LLM). Estos modelos avanzados, como Fraudgpt, GhostGPT y DarkGPT, están remodelando las estrategias de los ciberdelincuentes y obligando a los principales oficiales de seguridad de la información (CISO) a repensar sus protocolos de seguridad. Con las capacidades para automatizar el reconocimiento, hacer adelante identidades y evadir la detección, estos LLM están acelerando los ataques de ingeniería social a una escala sin precedentes.

Disponible por tan solo $ 75 al mes, estos modelos están adaptados para uso ofensivo, facilitando tareas como phishing, generación de exploits, ofuscación de código, escaneo de vulnerabilidad y validación de tarjeta de crédito. Los grupos de delitos cibernéticos, los sindicatos e incluso los estados nacionales están capitalizando estas herramientas, ofreciéndolas como plataformas, kits y servicios de arrendamiento. Al igual que las aplicaciones legítimas de software como servicio (SaaS), las LLM armadas vienen con paneles, API, actualizaciones regulares y, a veces, incluso atención al cliente.

VentureBeat está monitoreando de cerca la rápida evolución de estos LLM armados. A medida que su sofisticación crece, la distinción entre las plataformas de desarrolladores y los kits de cibercrimen se está volviendo cada vez más borrosa. Con la caída del arrendamiento y los precios de alquiler, más atacantes están explorando estas plataformas, anunciando una nueva era de amenazas impulsadas por la IA.

LLMS legítimos bajo amenaza

La proliferación de LLM de armado ha alcanzado un punto en el que incluso las LLM legítimas corren el riesgo de comprometerse e integrarse en las cadenas de herramientas criminales. Según el informe de seguridad del estado de AI de Cisco, los LLM ajustados tienen 22 veces más probabilidades de producir resultados dañinos que sus contrapartes base. Si bien el ajuste fino es crucial para mejorar la relevancia contextual, también debilita las medidas de seguridad, lo que hace que los modelos sean más susceptibles a jailbreaks, inyecciones rápidas e inversión del modelo.

La investigación de Cisco destaca que cuanto más se refina un modelo para la producción, más vulnerable se vuelve. Los procesos centrales involucrados en el ajuste fino, como los ajustes continuos, las integraciones de terceros, la codificación, las pruebas y la orquestación de agentes, crean nuevas vías para que los atacantes exploten. Una vez dentro, los atacantes pueden envenenar rápidamente datos, secuestrar infraestructura, alterar el comportamiento del agente y extraer datos de entrenamiento a gran escala. Sin capas de seguridad adicionales, estos modelos meticulosamente ajustados pueden convertirse rápidamente en pasivos, maduros para la explotación de los atacantes.

LLMS ajustado: una espada de doble filo

El equipo de seguridad de Cisco realizó una extensa investigación sobre el impacto del ajuste fino en múltiples modelos, incluidos LLAMA-2-7B y los LLM de adaptación específicos de dominio de Microsoft. Sus pruebas abarcaron varios sectores, incluidos la atención médica, las finanzas y la ley. Un hallazgo clave fue que el ajuste, incluso con conjuntos de datos limpios, desestabiliza la alineación de modelos, particularmente en campos altamente regulados como la biomedicina y la ley.

Aunque el ajuste fino tiene como objetivo mejorar el rendimiento de la tarea, inadvertidamente socava los controles de seguridad incorporados. Los intentos de jailbreak, que generalmente fallan contra los modelos de cimientos, tienen éxito a tasas mucho más altas contra versiones ajustadas, especialmente en dominios sensibles con estrictos requisitos de cumplimiento. Los resultados son marcados: las tasas de éxito de jailbreak se triplicaron y la generación de producción maliciosa aumentó en un 2,200% en comparación con los modelos de base. Esta compensación significa que si bien el ajuste fino mejora la utilidad, también amplía significativamente la superficie de ataque.

Tap alcanza hasta un 98% de éxito de jailbreak, superando a otros métodos a través de LLM de código abierto y cerrado. Fuente: Cisco State of AI Security 2025, p. 16.

La mercantilización de los LLM maliciosos

Cisco Talos ha estado rastreando activamente el surgimiento de estos LLM del mercado negro, proporcionando información sobre sus operaciones. Modelos como GhostGPT, DarkGPT y FraudgPT están disponibles en Telegram y Dark Web por tan solo $ 75 al mes. Estas herramientas están diseñadas para el uso de plug-and-play en phishing, desarrollo de explotación, validación de tarjetas de crédito y ofuscación.

DarkGPT Underground Dashboard ofrece 'inteligencia sin censura' y acceso basado en suscripción por tan solo 0.0098 BTC, framinando LLM maliciosos como SAA de grado de consumo. Fuente: Cisco State of AI Security 2025, p. 9.

A diferencia de los modelos convencionales con características de seguridad incorporadas, estos LLM maliciosos están preconfigurados para operaciones ofensivas y vienen con API, actualizaciones y paneles que imitan los productos comerciales de SaaS.

Envenenamiento del conjunto de datos: una amenaza de $ 60 para las cadenas de suministro de IA

Los investigadores de Cisco, en colaboración con Google, ETH Zurich y Nvidia, han revelado que por solo $ 60, los atacantes pueden envenenar los conjuntos de datos fundamentales de los modelos de IA sin necesidad de hazañas de día cero. Al explotar los dominios vencidos o las ediciones de Wikipedia de sincronización durante el archivo de datos de datos, los atacantes pueden contaminar tan solo el 0.01% de los conjuntos de datos como Laion-400M o COYO-700M, influyendo significativamente en las LLM posteriores.

Métodos como el envenenamiento por visión dividida y los ataques de inicio aprovechan la confianza inherente en los datos gastados en la web. Con la mayoría de las LLM de Enterprise basadas en datos abiertos, estos ataques pueden escalar en silencio y persistir profundamente en tuberías de inferencia, lo que representa una seria amenaza para las cadenas de suministro de IA.

Ataques de descomposición: extraer datos confidenciales

Uno de los hallazgos más alarmantes de la investigación de Cisco es la capacidad de los LLM para filtrar los datos de entrenamiento sensible a los que se desencadenan los mecanismos de seguridad. Utilizando una técnica llamada indicación de descomposición, los investigadores reconstruyeron más del 20% de los artículos selectos del New York Times y el Wall Street Journal . Este método desglosa las indicaciones en subteres que se consideran seguras por las barandillas, luego vuelve a ensamblar los resultados para recrear contenido con cuidado de pago o con derechos de autor.

Este tipo de ataque plantea un riesgo significativo para las empresas, especialmente aquellas que usan LLM capacitadas en conjuntos de datos patentados o con licencia. La violación ocurre no en el nivel de entrada sino a través de las salidas del modelo, lo que dificulta la detección, auditoría o contiene. Para las organizaciones en sectores regulados como la atención médica, las finanzas o la ley, esto no solo plantea preocupaciones sobre GDPR, HIPAA o cumplimiento de CCPA, sino que también introduce una nueva clase de riesgo donde los datos de origen legal pueden exponerse por inferencia.

Pensamientos finales: LLMS como la nueva superficie de ataque

La investigación en curso de Cisco y el monitoreo web oscuro de Talos confirman que los LLM armados se están volviendo cada vez más sofisticados, con una guerra de precio y empaque en la red oscura. Los hallazgos subrayan que los LLM no son simplemente herramientas en el borde de la empresa; Son parte integral de su núcleo. Desde los riesgos asociados con el ajuste de fino hasta la intoxicación del conjunto de datos y las fugas de salida del modelo, los atacantes ven las LLM como una infraestructura crítica para ser explotada.

La conclusión clave del informe de Cisco es clara: las barandillas estáticas ya no son suficientes. Los líderes de CISOS y de seguridad deben obtener visibilidad en tiempo real en toda su propiedad de TI, mejorar las pruebas adversas y racionalizar su pila tecnológica para mantener el ritmo de estas amenazas en evolución. Deben reconocer que los LLM y los modelos representan una superficie de ataque dinámico que se vuelve cada vez más vulnerable a medida que se ajustan.

Artículo relacionado
MCP estandariza la conectividad de IA con herramientas y datos: surge un nuevo protocolo MCP estandariza la conectividad de IA con herramientas y datos: surge un nuevo protocolo Si te estás sumergiendo en el mundo de la inteligencia artificial (IA), probablemente hayas notado lo crucial que es obtener diferentes modelos de IA, fuentes de datos y herramientas para jugar bien juntos. Ahí es donde entra el Protocolo de contexto del modelo (MCP), actuando como un cambio de juego en la estandarización de la conectividad de IA. T
Deepcoder logra una alta eficiencia de codificación con un modelo abierto de 14b Deepcoder logra una alta eficiencia de codificación con un modelo abierto de 14b Introducción a DeepCoder-14b: una nueva frontera en modelos de codificación de código abierto Los equipos de TEGNA AI y AGENTICA han presentado DeepCoder-14b, un modelo de codificación innovador que se encuentra en el hombro con el hombro con modelos de propiedad de primer nivel como Openi's O3-Mini. Este emocionante desarrollo se basa en el FO
Google supera sigilosamente en Enterprise AI: de 'Ponte al día' a 'Aprendernos' Google supera sigilosamente en Enterprise AI: de 'Ponte al día' a 'Aprendernos' Hace solo un año, el zumbido alrededor de Google y Enterprise AI parecían atrapados en neutral. A pesar de las tecnologías pioneras como el transformador, el gigante tecnológico parecía estar retrasado, eclipsado por el éxito viral de OpenAi, la destreza de codificación de antrópico y el empuje agresivo de Microsoft en el EN en el EN
Comentario (30)
0/200
RaymondGarcia
RaymondGarcia 16 de abril de 2025 12:36:53 GMT

Cisco Warns is super scary! I mean, these rogue LLMs like FraudGPT sound like something straight out of a dystopian movie. It's wild how they're changing cyberattacks. Makes me wanna double-check my security settings, no joke! Anyone else feeling a bit paranoid now? 😅

JerryGonzález
JerryGonzález 16 de abril de 2025 12:36:53 GMT

シスコの警告、めっちゃ怖いですね! FraudGPTみたいなLLMが暴走するなんて、まるでディストピア映画みたい。サイバー攻撃が変わってるってのが本当に驚きです。セキュリティ設定を再確認したくなりますね。みなさんもちょっと不安になりませんか?😅

EricRoberts
EricRoberts 16 de abril de 2025 12:36:53 GMT

시스코 경고 정말 무섭네요! FraudGPT 같은 LLM이 날뛰는 건 마치 디스토피아 영화 같아요. 사이버 공격이 변하고 있다는 게 정말 놀랍네요. 보안 설정을 다시 확인하고 싶어지네요. 여러분도 조금 불안해지지 않나요? 😅

AndrewGarcía
AndrewGarcía 16 de abril de 2025 12:36:53 GMT

O aviso da Cisco é assustador! Quer dizer, esses LLMs descontrolados como o FraudGPT parecem saídos de um filme distópico. É louco como estão mudando os ciberataques. Me dá vontade de verificar minhas configurações de segurança, sem brincadeira! Alguém mais se sentindo um pouco paranoico agora? 😅

AnthonyPerez
AnthonyPerez 16 de abril de 2025 12:36:53 GMT

¡La advertencia de Cisco es súper escalofriante! Quiero decir, estos LLMs fuera de control como FraudGPT parecen sacados de una película distópica. Es increíble cómo están cambiando los ciberataques. Me dan ganas de revisar mis configuraciones de seguridad, ¡no es broma! ¿Alguien más se siente un poco paranoico ahora? 😅

JackRoberts
JackRoberts 16 de abril de 2025 21:01:38 GMT

Just tried Cisco Warns and it's scary how accurate it is about rogue AI! Makes you think twice about the future of cybersecurity. The tool itself is a bit clunky to navigate, but the insights are spot on. Definitely a must-have for anyone in the field, but maybe a smoother interface next time? 🤔

Back to Top
OR