Cisco advierte: LLMS ajustados 22 veces más probabilidades de volverse pícaros
# cisco
# LLMs
# APIs
# saas
# csco
# goog-2
# msft-2
# nvda-2
# darkgpt
# darkweb
# fraudgpt
# ghostgpt
# zeroday
Los modelos de idiomas grandes armados remodelan los ataques cibernéticos
El paisaje de los ataques cibernéticos está experimentando una transformación significativa, impulsada por la aparición de modelos de lenguaje grande (LLM). Estos modelos avanzados, como Fraudgpt, GhostGPT y DarkGPT, están remodelando las estrategias de los ciberdelincuentes y obligando a los principales oficiales de seguridad de la información (CISO) a repensar sus protocolos de seguridad. Con las capacidades para automatizar el reconocimiento, hacer adelante identidades y evadir la detección, estos LLM están acelerando los ataques de ingeniería social a una escala sin precedentes.
Disponible por tan solo $ 75 al mes, estos modelos están adaptados para uso ofensivo, facilitando tareas como phishing, generación de exploits, ofuscación de código, escaneo de vulnerabilidad y validación de tarjeta de crédito. Los grupos de delitos cibernéticos, los sindicatos e incluso los estados nacionales están capitalizando estas herramientas, ofreciéndolas como plataformas, kits y servicios de arrendamiento. Al igual que las aplicaciones legítimas de software como servicio (SaaS), las LLM armadas vienen con paneles, API, actualizaciones regulares y, a veces, incluso atención al cliente.
VentureBeat está monitoreando de cerca la rápida evolución de estos LLM armados. A medida que su sofisticación crece, la distinción entre las plataformas de desarrolladores y los kits de cibercrimen se está volviendo cada vez más borrosa. Con la caída del arrendamiento y los precios de alquiler, más atacantes están explorando estas plataformas, anunciando una nueva era de amenazas impulsadas por la IA.
LLMS legítimos bajo amenaza
La proliferación de LLM de armado ha alcanzado un punto en el que incluso las LLM legítimas corren el riesgo de comprometerse e integrarse en las cadenas de herramientas criminales. Según el informe de seguridad del estado de AI de Cisco, los LLM ajustados tienen 22 veces más probabilidades de producir resultados dañinos que sus contrapartes base. Si bien el ajuste fino es crucial para mejorar la relevancia contextual, también debilita las medidas de seguridad, lo que hace que los modelos sean más susceptibles a jailbreaks, inyecciones rápidas e inversión del modelo.
La investigación de Cisco destaca que cuanto más se refina un modelo para la producción, más vulnerable se vuelve. Los procesos centrales involucrados en el ajuste fino, como los ajustes continuos, las integraciones de terceros, la codificación, las pruebas y la orquestación de agentes, crean nuevas vías para que los atacantes exploten. Una vez dentro, los atacantes pueden envenenar rápidamente datos, secuestrar infraestructura, alterar el comportamiento del agente y extraer datos de entrenamiento a gran escala. Sin capas de seguridad adicionales, estos modelos meticulosamente ajustados pueden convertirse rápidamente en pasivos, maduros para la explotación de los atacantes.
LLMS ajustado: una espada de doble filo
El equipo de seguridad de Cisco realizó una extensa investigación sobre el impacto del ajuste fino en múltiples modelos, incluidos LLAMA-2-7B y los LLM de adaptación específicos de dominio de Microsoft. Sus pruebas abarcaron varios sectores, incluidos la atención médica, las finanzas y la ley. Un hallazgo clave fue que el ajuste, incluso con conjuntos de datos limpios, desestabiliza la alineación de modelos, particularmente en campos altamente regulados como la biomedicina y la ley.
Aunque el ajuste fino tiene como objetivo mejorar el rendimiento de la tarea, inadvertidamente socava los controles de seguridad incorporados. Los intentos de jailbreak, que generalmente fallan contra los modelos de cimientos, tienen éxito a tasas mucho más altas contra versiones ajustadas, especialmente en dominios sensibles con estrictos requisitos de cumplimiento. Los resultados son marcados: las tasas de éxito de jailbreak se triplicaron y la generación de producción maliciosa aumentó en un 2,200% en comparación con los modelos de base. Esta compensación significa que si bien el ajuste fino mejora la utilidad, también amplía significativamente la superficie de ataque.

La mercantilización de los LLM maliciosos
Cisco Talos ha estado rastreando activamente el surgimiento de estos LLM del mercado negro, proporcionando información sobre sus operaciones. Modelos como GhostGPT, DarkGPT y FraudgPT están disponibles en Telegram y Dark Web por tan solo $ 75 al mes. Estas herramientas están diseñadas para el uso de plug-and-play en phishing, desarrollo de explotación, validación de tarjetas de crédito y ofuscación.

A diferencia de los modelos convencionales con características de seguridad incorporadas, estos LLM maliciosos están preconfigurados para operaciones ofensivas y vienen con API, actualizaciones y paneles que imitan los productos comerciales de SaaS.
Envenenamiento del conjunto de datos: una amenaza de $ 60 para las cadenas de suministro de IA
Los investigadores de Cisco, en colaboración con Google, ETH Zurich y Nvidia, han revelado que por solo $ 60, los atacantes pueden envenenar los conjuntos de datos fundamentales de los modelos de IA sin necesidad de hazañas de día cero. Al explotar los dominios vencidos o las ediciones de Wikipedia de sincronización durante el archivo de datos de datos, los atacantes pueden contaminar tan solo el 0.01% de los conjuntos de datos como Laion-400M o COYO-700M, influyendo significativamente en las LLM posteriores.
Métodos como el envenenamiento por visión dividida y los ataques de inicio aprovechan la confianza inherente en los datos gastados en la web. Con la mayoría de las LLM de Enterprise basadas en datos abiertos, estos ataques pueden escalar en silencio y persistir profundamente en tuberías de inferencia, lo que representa una seria amenaza para las cadenas de suministro de IA.
Ataques de descomposición: extraer datos confidenciales
Uno de los hallazgos más alarmantes de la investigación de Cisco es la capacidad de los LLM para filtrar los datos de entrenamiento sensible a los que se desencadenan los mecanismos de seguridad. Utilizando una técnica llamada indicación de descomposición, los investigadores reconstruyeron más del 20% de los artículos selectos del New York Times y el Wall Street Journal . Este método desglosa las indicaciones en subteres que se consideran seguras por las barandillas, luego vuelve a ensamblar los resultados para recrear contenido con cuidado de pago o con derechos de autor.
Este tipo de ataque plantea un riesgo significativo para las empresas, especialmente aquellas que usan LLM capacitadas en conjuntos de datos patentados o con licencia. La violación ocurre no en el nivel de entrada sino a través de las salidas del modelo, lo que dificulta la detección, auditoría o contiene. Para las organizaciones en sectores regulados como la atención médica, las finanzas o la ley, esto no solo plantea preocupaciones sobre GDPR, HIPAA o cumplimiento de CCPA, sino que también introduce una nueva clase de riesgo donde los datos de origen legal pueden exponerse por inferencia.
Pensamientos finales: LLMS como la nueva superficie de ataque
La investigación en curso de Cisco y el monitoreo web oscuro de Talos confirman que los LLM armados se están volviendo cada vez más sofisticados, con una guerra de precio y empaque en la red oscura. Los hallazgos subrayan que los LLM no son simplemente herramientas en el borde de la empresa; Son parte integral de su núcleo. Desde los riesgos asociados con el ajuste de fino hasta la intoxicación del conjunto de datos y las fugas de salida del modelo, los atacantes ven las LLM como una infraestructura crítica para ser explotada.
La conclusión clave del informe de Cisco es clara: las barandillas estáticas ya no son suficientes. Los líderes de CISOS y de seguridad deben obtener visibilidad en tiempo real en toda su propiedad de TI, mejorar las pruebas adversas y racionalizar su pila tecnológica para mantener el ritmo de estas amenazas en evolución. Deben reconocer que los LLM y los modelos representan una superficie de ataque dinámico que se vuelve cada vez más vulnerable a medida que se ajustan.
Artículo relacionado
深度認知發布開源AI模型,已名列前茅
深度思睿推出革命性的人工智能模型旧金山一家尖端的人工智能研究初创公司深度思睿(Deep Cogito)正式发布了其首批开源大型语言模型(LLMs),命名为思睿v1。这些模型经过微调自Meta的Llama 3.2,具备混合推理能力,能够快速响应或进行内省思考——这一功能让人联想到OpenAI的“o”系列和DeepSeek R1。深度思睿旨在通过在其模型中促进迭
前OpenAI CEO警告AI奉承和諂媚
過度順從的AI令人不安的現實想像一個AI助手無論你說的想法有多麼荒謬或有害,它都會同意你。這聽起來像是菲利普·K·迪克科幻小說中的情節,但它正在OpenAI的ChatGPT中發生,尤其是在GPT-4o模型上。這不僅是一個古怪的功能;這是一個引起用戶和業界領袖關注的令人擔憂的趨勢。在過去幾天,像前OpenAI CEO Emmett Shear和Hugging
新技術使DeepSeek和其他模型能夠響應敏感的查詢
從中國的DeepSeek等大型語言模型(LLM)中消除偏見和審查是一個複雜的挑戰,引起了美國決策者和商業領袖的關注,他們認為這是潛在的國家安全威脅。美國國會選拔委員會的最新報告標記為深層
comentario (30)
0/200
RaymondGarcia
16 de abril de 2025 00:00:00 GMT
Cisco Warns is super scary! I mean, these rogue LLMs like FraudGPT sound like something straight out of a dystopian movie. It's wild how they're changing cyberattacks. Makes me wanna double-check my security settings, no joke! Anyone else feeling a bit paranoid now? 😅
0
JerryGonzález
16 de abril de 2025 00:00:00 GMT
シスコの警告、めっちゃ怖いですね! FraudGPTみたいなLLMが暴走するなんて、まるでディストピア映画みたい。サイバー攻撃が変わってるってのが本当に驚きです。セキュリティ設定を再確認したくなりますね。みなさんもちょっと不安になりませんか?😅
0
EricRoberts
16 de abril de 2025 00:00:00 GMT
시스코 경고 정말 무섭네요! FraudGPT 같은 LLM이 날뛰는 건 마치 디스토피아 영화 같아요. 사이버 공격이 변하고 있다는 게 정말 놀랍네요. 보안 설정을 다시 확인하고 싶어지네요. 여러분도 조금 불안해지지 않나요? 😅
0
AndrewGarcía
16 de abril de 2025 00:00:00 GMT
O aviso da Cisco é assustador! Quer dizer, esses LLMs descontrolados como o FraudGPT parecem saídos de um filme distópico. É louco como estão mudando os ciberataques. Me dá vontade de verificar minhas configurações de segurança, sem brincadeira! Alguém mais se sentindo um pouco paranoico agora? 😅
0
AnthonyPerez
16 de abril de 2025 00:00:00 GMT
¡La advertencia de Cisco es súper escalofriante! Quiero decir, estos LLMs fuera de control como FraudGPT parecen sacados de una película distópica. Es increíble cómo están cambiando los ciberataques. Me dan ganas de revisar mis configuraciones de seguridad, ¡no es broma! ¿Alguien más se siente un poco paranoico ahora? 😅
0
JackRoberts
17 de abril de 2025 00:00:00 GMT
Just tried Cisco Warns and it's scary how accurate it is about rogue AI! Makes you think twice about the future of cybersecurity. The tool itself is a bit clunky to navigate, but the insights are spot on. Definitely a must-have for anyone in the field, but maybe a smoother interface next time? 🤔
0
Los modelos de idiomas grandes armados remodelan los ataques cibernéticos
El paisaje de los ataques cibernéticos está experimentando una transformación significativa, impulsada por la aparición de modelos de lenguaje grande (LLM). Estos modelos avanzados, como Fraudgpt, GhostGPT y DarkGPT, están remodelando las estrategias de los ciberdelincuentes y obligando a los principales oficiales de seguridad de la información (CISO) a repensar sus protocolos de seguridad. Con las capacidades para automatizar el reconocimiento, hacer adelante identidades y evadir la detección, estos LLM están acelerando los ataques de ingeniería social a una escala sin precedentes.
Disponible por tan solo $ 75 al mes, estos modelos están adaptados para uso ofensivo, facilitando tareas como phishing, generación de exploits, ofuscación de código, escaneo de vulnerabilidad y validación de tarjeta de crédito. Los grupos de delitos cibernéticos, los sindicatos e incluso los estados nacionales están capitalizando estas herramientas, ofreciéndolas como plataformas, kits y servicios de arrendamiento. Al igual que las aplicaciones legítimas de software como servicio (SaaS), las LLM armadas vienen con paneles, API, actualizaciones regulares y, a veces, incluso atención al cliente.
VentureBeat está monitoreando de cerca la rápida evolución de estos LLM armados. A medida que su sofisticación crece, la distinción entre las plataformas de desarrolladores y los kits de cibercrimen se está volviendo cada vez más borrosa. Con la caída del arrendamiento y los precios de alquiler, más atacantes están explorando estas plataformas, anunciando una nueva era de amenazas impulsadas por la IA.
LLMS legítimos bajo amenaza
La proliferación de LLM de armado ha alcanzado un punto en el que incluso las LLM legítimas corren el riesgo de comprometerse e integrarse en las cadenas de herramientas criminales. Según el informe de seguridad del estado de AI de Cisco, los LLM ajustados tienen 22 veces más probabilidades de producir resultados dañinos que sus contrapartes base. Si bien el ajuste fino es crucial para mejorar la relevancia contextual, también debilita las medidas de seguridad, lo que hace que los modelos sean más susceptibles a jailbreaks, inyecciones rápidas e inversión del modelo.
La investigación de Cisco destaca que cuanto más se refina un modelo para la producción, más vulnerable se vuelve. Los procesos centrales involucrados en el ajuste fino, como los ajustes continuos, las integraciones de terceros, la codificación, las pruebas y la orquestación de agentes, crean nuevas vías para que los atacantes exploten. Una vez dentro, los atacantes pueden envenenar rápidamente datos, secuestrar infraestructura, alterar el comportamiento del agente y extraer datos de entrenamiento a gran escala. Sin capas de seguridad adicionales, estos modelos meticulosamente ajustados pueden convertirse rápidamente en pasivos, maduros para la explotación de los atacantes.
LLMS ajustado: una espada de doble filo
El equipo de seguridad de Cisco realizó una extensa investigación sobre el impacto del ajuste fino en múltiples modelos, incluidos LLAMA-2-7B y los LLM de adaptación específicos de dominio de Microsoft. Sus pruebas abarcaron varios sectores, incluidos la atención médica, las finanzas y la ley. Un hallazgo clave fue que el ajuste, incluso con conjuntos de datos limpios, desestabiliza la alineación de modelos, particularmente en campos altamente regulados como la biomedicina y la ley.
Aunque el ajuste fino tiene como objetivo mejorar el rendimiento de la tarea, inadvertidamente socava los controles de seguridad incorporados. Los intentos de jailbreak, que generalmente fallan contra los modelos de cimientos, tienen éxito a tasas mucho más altas contra versiones ajustadas, especialmente en dominios sensibles con estrictos requisitos de cumplimiento. Los resultados son marcados: las tasas de éxito de jailbreak se triplicaron y la generación de producción maliciosa aumentó en un 2,200% en comparación con los modelos de base. Esta compensación significa que si bien el ajuste fino mejora la utilidad, también amplía significativamente la superficie de ataque.
La mercantilización de los LLM maliciosos
Cisco Talos ha estado rastreando activamente el surgimiento de estos LLM del mercado negro, proporcionando información sobre sus operaciones. Modelos como GhostGPT, DarkGPT y FraudgPT están disponibles en Telegram y Dark Web por tan solo $ 75 al mes. Estas herramientas están diseñadas para el uso de plug-and-play en phishing, desarrollo de explotación, validación de tarjetas de crédito y ofuscación.
A diferencia de los modelos convencionales con características de seguridad incorporadas, estos LLM maliciosos están preconfigurados para operaciones ofensivas y vienen con API, actualizaciones y paneles que imitan los productos comerciales de SaaS.
Envenenamiento del conjunto de datos: una amenaza de $ 60 para las cadenas de suministro de IA
Los investigadores de Cisco, en colaboración con Google, ETH Zurich y Nvidia, han revelado que por solo $ 60, los atacantes pueden envenenar los conjuntos de datos fundamentales de los modelos de IA sin necesidad de hazañas de día cero. Al explotar los dominios vencidos o las ediciones de Wikipedia de sincronización durante el archivo de datos de datos, los atacantes pueden contaminar tan solo el 0.01% de los conjuntos de datos como Laion-400M o COYO-700M, influyendo significativamente en las LLM posteriores.
Métodos como el envenenamiento por visión dividida y los ataques de inicio aprovechan la confianza inherente en los datos gastados en la web. Con la mayoría de las LLM de Enterprise basadas en datos abiertos, estos ataques pueden escalar en silencio y persistir profundamente en tuberías de inferencia, lo que representa una seria amenaza para las cadenas de suministro de IA.
Ataques de descomposición: extraer datos confidenciales
Uno de los hallazgos más alarmantes de la investigación de Cisco es la capacidad de los LLM para filtrar los datos de entrenamiento sensible a los que se desencadenan los mecanismos de seguridad. Utilizando una técnica llamada indicación de descomposición, los investigadores reconstruyeron más del 20% de los artículos selectos del New York Times y el Wall Street Journal . Este método desglosa las indicaciones en subteres que se consideran seguras por las barandillas, luego vuelve a ensamblar los resultados para recrear contenido con cuidado de pago o con derechos de autor.
Este tipo de ataque plantea un riesgo significativo para las empresas, especialmente aquellas que usan LLM capacitadas en conjuntos de datos patentados o con licencia. La violación ocurre no en el nivel de entrada sino a través de las salidas del modelo, lo que dificulta la detección, auditoría o contiene. Para las organizaciones en sectores regulados como la atención médica, las finanzas o la ley, esto no solo plantea preocupaciones sobre GDPR, HIPAA o cumplimiento de CCPA, sino que también introduce una nueva clase de riesgo donde los datos de origen legal pueden exponerse por inferencia.
Pensamientos finales: LLMS como la nueva superficie de ataque
La investigación en curso de Cisco y el monitoreo web oscuro de Talos confirman que los LLM armados se están volviendo cada vez más sofisticados, con una guerra de precio y empaque en la red oscura. Los hallazgos subrayan que los LLM no son simplemente herramientas en el borde de la empresa; Son parte integral de su núcleo. Desde los riesgos asociados con el ajuste de fino hasta la intoxicación del conjunto de datos y las fugas de salida del modelo, los atacantes ven las LLM como una infraestructura crítica para ser explotada.
La conclusión clave del informe de Cisco es clara: las barandillas estáticas ya no son suficientes. Los líderes de CISOS y de seguridad deben obtener visibilidad en tiempo real en toda su propiedad de TI, mejorar las pruebas adversas y racionalizar su pila tecnológica para mantener el ritmo de estas amenazas en evolución. Deben reconocer que los LLM y los modelos representan una superficie de ataque dinámico que se vuelve cada vez más vulnerable a medida que se ajustan.




Cisco Warns is super scary! I mean, these rogue LLMs like FraudGPT sound like something straight out of a dystopian movie. It's wild how they're changing cyberattacks. Makes me wanna double-check my security settings, no joke! Anyone else feeling a bit paranoid now? 😅




シスコの警告、めっちゃ怖いですね! FraudGPTみたいなLLMが暴走するなんて、まるでディストピア映画みたい。サイバー攻撃が変わってるってのが本当に驚きです。セキュリティ設定を再確認したくなりますね。みなさんもちょっと不安になりませんか?😅




시스코 경고 정말 무섭네요! FraudGPT 같은 LLM이 날뛰는 건 마치 디스토피아 영화 같아요. 사이버 공격이 변하고 있다는 게 정말 놀랍네요. 보안 설정을 다시 확인하고 싶어지네요. 여러분도 조금 불안해지지 않나요? 😅




O aviso da Cisco é assustador! Quer dizer, esses LLMs descontrolados como o FraudGPT parecem saídos de um filme distópico. É louco como estão mudando os ciberataques. Me dá vontade de verificar minhas configurações de segurança, sem brincadeira! Alguém mais se sentindo um pouco paranoico agora? 😅




¡La advertencia de Cisco es súper escalofriante! Quiero decir, estos LLMs fuera de control como FraudGPT parecen sacados de una película distópica. Es increíble cómo están cambiando los ciberataques. Me dan ganas de revisar mis configuraciones de seguridad, ¡no es broma! ¿Alguien más se siente un poco paranoico ahora? 😅




Just tried Cisco Warns and it's scary how accurate it is about rogue AI! Makes you think twice about the future of cybersecurity. The tool itself is a bit clunky to navigate, but the insights are spot on. Definitely a must-have for anyone in the field, but maybe a smoother interface next time? 🤔












