A Cisco avisa: LLMs de ajuste fino 22 vezes mais chances de ficar desonesto
16 de Abril de 2025
RaymondKing
4
# cisco
# LLMs
# APIs
# saas
# csco
# goog-2
# msft-2
# nvda-2
# darkgpt
# darkweb
# fraudgpt
# ghostgpt
# zeroday
Modelos de idiomas grandes armados reformulam os ataques cibernéticos
A paisagem dos ataques cibernéticos está passando por uma transformação significativa, impulsionada pelo surgimento de grandes modelos de linguagem armada (LLMS). Esses modelos avançados, como fraudgpt, GhostGPT e DarkGPT, estão remodelando as estratégias dos cibercriminosos e forçando os principais agentes de segurança da informação (CISOs) a repensar seus protocolos de segurança. Com os recursos para automatizar o reconhecimento, se passar por identidades e detectar, esses LLMs estão acelerando ataques de engenharia social em uma escala sem precedentes.
Disponíveis por apenas US $ 75 por mês, esses modelos são adaptados para uso ofensivo, facilitando tarefas como phishing, geração de exploração, ofuscação de código, varredura de vulnerabilidade e validação de cartão de crédito. Grupos de crimes cibernéticos, sindicatos e até estados-nação estão capitalizando essas ferramentas, oferecendo-as como plataformas, kits e serviços de leasing. Assim como os aplicativos legítimos de software como serviço (SaaS), o LLMS armassado vem com painéis, APIs, atualizações regulares e, às vezes, até suporte ao cliente.
A VentureBeat está monitorando de perto a rápida evolução desses LLMs armados. À medida que sua sofisticação cresce, a distinção entre plataformas de desenvolvedor e kits de crime cibernético está ficando cada vez mais borrada. Com a queda dos preços do arrendamento e do aluguel, mais invasores estão explorando essas plataformas, anunciando uma nova era de ameaças orientadas pela IA.
LLMs legítimos sob ameaça
A proliferação de LLMs armados chegou a um ponto em que até LLMs legítimos correm o risco de serem comprometidos e integrados às cadeias de ferramentas criminais. De acordo com o relatório de segurança do estado da AI da Cisco, os LLMs de ajuste fino têm 22 vezes mais chances de produzir saídas prejudiciais do que suas contrapartes básicas. Embora o ajuste fino seja crucial para aumentar a relevância contextual, também enfraquece medidas de segurança, tornando os modelos mais suscetíveis a jailbreaks, injeções imediatas e inversão de modelos.
A pesquisa da Cisco destaca que quanto mais um modelo é refinado para produção, mais vulnerável se torna. Os processos principais envolvidos no ajuste fino, como ajustes contínuos, integrações de terceiros, codificação, teste e orquestração agêntica, criam novos caminhos para os invasores explorarem. Uma vez lá dentro, os invasores podem envenenar rapidamente dados, sequestrar infraestrutura, alterar o comportamento do agente e extrair dados de treinamento em larga escala. Sem camadas de segurança adicionais, esses modelos meticulosamente ajustados podem se tornar rapidamente passivos, maduros para a exploração pelos atacantes.
LLMs de ajuste fino: uma faca de dois gumes
A equipe de segurança da Cisco conduziu uma extensa pesquisa sobre o impacto do ajuste fino em vários modelos, incluindo o LLAMA-2-7B e o Adapt LLMS, específico do domínio da Microsoft. Seus testes abrangeram vários setores, incluindo assistência médica, finanças e direito. Uma descoberta importante foi que o ajuste fino, mesmo com conjuntos de dados limpos, desestabiliza o alinhamento de modelos, particularmente em campos altamente regulamentados como biomedicina e direito.
Embora o ajuste fino tenha como objetivo melhorar o desempenho da tarefa, ele prejudica inadvertidamente os controles de segurança embutidos. As tentativas de jailbreak, que normalmente falham contra os modelos de fundação, conseguem taxas muito mais altas contra versões ajustadas, especialmente em domínios sensíveis com requisitos estritos de conformidade. Os resultados são acidentados: as taxas de sucesso do jailbreak triplicaram e a geração maliciosa da produção aumentou 2.200% em comparação com os modelos de fundação. Esse trade-off significa que, embora o ajuste fino aumente a utilidade, também amplia significativamente a superfície de ataque.

A comoditização de LLMs maliciosos
A Cisco Talos tem rastreado ativamente a ascensão desses LLMs do Black-Market, fornecendo informações sobre suas operações. Modelos como GhostGPT, Darkgpt e Fraudgpt estão disponíveis no Telegram e na Web Dark por apenas US $ 75 por mês. Essas ferramentas foram projetadas para uso plug-and-play em phishing, desenvolvimento de exploração, validação de cartão de crédito e ofuscação.

Ao contrário dos modelos convencionais com recursos de segurança integrados, esses LLMs maliciosos são pré-configurados para operações ofensivas e vêm com APIs, atualizações e painéis que imitam produtos comerciais de SaaS.
Envenenamento por conjunto de dados: uma ameaça de US $ 60 às cadeias de suprimentos de IA
Os pesquisadores da Cisco, em colaboração com o Google, a ETH Zurique e a Nvidia, revelaram que, por apenas US $ 60, os invasores podem envenenar os conjuntos de dados fundamentais dos modelos de IA sem precisar de explorações de zero dia. Ao explorar domínios expirados ou edições da Wikipedia de tempo durante o arquivamento do conjunto de dados, os atacantes podem contaminar apenas 0,01% dos conjuntos de dados como Laion-400m ou Coyo-700M, influenciando significativamente o LLMS a jusante.
Métodos como envenenamento por visão dividida e ataques de pioneiros aproveitam a confiança inerente aos dados de rastreamento da Web. Com a maioria dos LLMs corporativos construídos com dados abertos, esses ataques podem escalar silenciosamente e persistir profundamente em pipelines de inferência, representando uma séria ameaça às cadeias de suprimentos de IA.
Ataques de decomposição: Extraindo dados sensíveis
Uma das descobertas mais alarmantes da pesquisa da Cisco é a capacidade dos LLMs de vazar dados de treinamento sensíveis ao desencadear mecanismos de segurança. Usando uma técnica chamada decomposição provocada, os pesquisadores reconstruíram mais de 20% dos artigos selecionados do New York Times e do Wall Street Journal . Esse método divide solicita sub-questões que são consideradas seguras pelos corrimãos e remontam as saídas para recriar conteúdo com paredes pagas ou com direitos autorais.
Esse tipo de ataque representa um risco significativo para as empresas, especialmente aquelas que usam LLMs treinados em conjuntos de dados proprietários ou licenciados. A violação não ocorre no nível de entrada, mas através das saídas do modelo, dificultando a detecção, auditoria ou conter. Para organizações em setores regulamentados como assistência médica, finanças ou direito, isso não apenas levanta preocupações sobre a conformidade com GDPR, HIPAA ou CCPA, mas também introduz uma nova classe de risco em que dados de origem legalmente podem ser expostos por inferência.
Pensamentos finais: LLMS como a nova superfície de ataque
A pesquisa em andamento da Cisco e o monitoramento da Web Dark da Cisco confirmam que os LLMs armados estão se tornando cada vez mais sofisticados, com um preço e uma guerra de embalagem se desenrolando na Web Dark. As descobertas destacam que os LLMs não são apenas ferramentas na borda da empresa; Eles são parte integrante do seu núcleo. Dos riscos associados ao ajuste fino ao envenenamento por conjunto de dados e aos vazamentos de saída de modelos, os atacantes veem o LLMS como infraestrutura crítica a ser explorada.
O principal argumento do relatório da Cisco é claro: os corrimãos estáticos não são mais suficientes. Os CISOs e os líderes de segurança devem obter visibilidade em tempo real em toda a propriedade de TI, aprimorar os testes adversários e otimizar sua pilha de tecnologia para acompanhar essas ameaças em evolução. Eles devem reconhecer que LLMs e modelos representam uma superfície de ataque dinâmica que se torna cada vez mais vulnerável à medida que são ajustados.
Artigo relacionado
MCP는 도구 및 데이터와 AI 연결을 표준화합니다. 새로운 프로토콜이 나타납니다.
인공 지능의 세계로 뛰어 들고 있다면 아마도 다른 AI 모델, 데이터 소스 및 도구를 잘 수행하는 것이 얼마나 중요한지 알았을 것입니다. MCP (Model Context Protocol)가 등장하여 AI 연결을 표준화하는 게임 체인저 역할을합니다. 티
DeepCoder는 14B 오픈 모델로 높은 코딩 효율을 달성합니다
DeepCoder-14B 소개 : Openai의 O3-MINI와 같은 최상위 독점 모델을 갖춘 획기적인 코딩 모델 인 AI와 Agentica의 팀은 Open-Source Coding Models의 새로운 프론티어를 소개했습니다. 이 흥미로운 개발은 FO를 기반으로합니다
Google은 Enterprise AI의 은밀하게 능가합니다.
불과 1 년 전, Google과 Enterprise AI에 대한 버즈는 중립적 인 것처럼 보였습니다. Transformer와 같은 선구적인 기술에도 불구하고, 기술 거인은 Openai의 바이러스 성공, 의인화의 코딩 능력, Microsoft의 EN에 대한 공격적인 추진에 의해 뒤쳐져있는 것처럼 보였습니다.
Comentários (30)
0/200
RaymondGarcia
16 de Abril de 2025 à53 12:36:53 GMT
Cisco Warns is super scary! I mean, these rogue LLMs like FraudGPT sound like something straight out of a dystopian movie. It's wild how they're changing cyberattacks. Makes me wanna double-check my security settings, no joke! Anyone else feeling a bit paranoid now? 😅
0
JerryGonzález
16 de Abril de 2025 à53 12:36:53 GMT
シスコの警告、めっちゃ怖いですね! FraudGPTみたいなLLMが暴走するなんて、まるでディストピア映画みたい。サイバー攻撃が変わってるってのが本当に驚きです。セキュリティ設定を再確認したくなりますね。みなさんもちょっと不安になりませんか?😅
0
EricRoberts
16 de Abril de 2025 à53 12:36:53 GMT
시스코 경고 정말 무섭네요! FraudGPT 같은 LLM이 날뛰는 건 마치 디스토피아 영화 같아요. 사이버 공격이 변하고 있다는 게 정말 놀랍네요. 보안 설정을 다시 확인하고 싶어지네요. 여러분도 조금 불안해지지 않나요? 😅
0
AndrewGarcía
16 de Abril de 2025 à53 12:36:53 GMT
O aviso da Cisco é assustador! Quer dizer, esses LLMs descontrolados como o FraudGPT parecem saídos de um filme distópico. É louco como estão mudando os ciberataques. Me dá vontade de verificar minhas configurações de segurança, sem brincadeira! Alguém mais se sentindo um pouco paranoico agora? 😅
0
AnthonyPerez
16 de Abril de 2025 à53 12:36:53 GMT
¡La advertencia de Cisco es súper escalofriante! Quiero decir, estos LLMs fuera de control como FraudGPT parecen sacados de una película distópica. Es increíble cómo están cambiando los ciberataques. Me dan ganas de revisar mis configuraciones de seguridad, ¡no es broma! ¿Alguien más se siente un poco paranoico ahora? 😅
0
JackRoberts
16 de Abril de 2025 à38 21:01:38 GMT
Just tried Cisco Warns and it's scary how accurate it is about rogue AI! Makes you think twice about the future of cybersecurity. The tool itself is a bit clunky to navigate, but the insights are spot on. Definitely a must-have for anyone in the field, but maybe a smoother interface next time? 🤔
0






Modelos de idiomas grandes armados reformulam os ataques cibernéticos
A paisagem dos ataques cibernéticos está passando por uma transformação significativa, impulsionada pelo surgimento de grandes modelos de linguagem armada (LLMS). Esses modelos avançados, como fraudgpt, GhostGPT e DarkGPT, estão remodelando as estratégias dos cibercriminosos e forçando os principais agentes de segurança da informação (CISOs) a repensar seus protocolos de segurança. Com os recursos para automatizar o reconhecimento, se passar por identidades e detectar, esses LLMs estão acelerando ataques de engenharia social em uma escala sem precedentes.
Disponíveis por apenas US $ 75 por mês, esses modelos são adaptados para uso ofensivo, facilitando tarefas como phishing, geração de exploração, ofuscação de código, varredura de vulnerabilidade e validação de cartão de crédito. Grupos de crimes cibernéticos, sindicatos e até estados-nação estão capitalizando essas ferramentas, oferecendo-as como plataformas, kits e serviços de leasing. Assim como os aplicativos legítimos de software como serviço (SaaS), o LLMS armassado vem com painéis, APIs, atualizações regulares e, às vezes, até suporte ao cliente.
A VentureBeat está monitorando de perto a rápida evolução desses LLMs armados. À medida que sua sofisticação cresce, a distinção entre plataformas de desenvolvedor e kits de crime cibernético está ficando cada vez mais borrada. Com a queda dos preços do arrendamento e do aluguel, mais invasores estão explorando essas plataformas, anunciando uma nova era de ameaças orientadas pela IA.
LLMs legítimos sob ameaça
A proliferação de LLMs armados chegou a um ponto em que até LLMs legítimos correm o risco de serem comprometidos e integrados às cadeias de ferramentas criminais. De acordo com o relatório de segurança do estado da AI da Cisco, os LLMs de ajuste fino têm 22 vezes mais chances de produzir saídas prejudiciais do que suas contrapartes básicas. Embora o ajuste fino seja crucial para aumentar a relevância contextual, também enfraquece medidas de segurança, tornando os modelos mais suscetíveis a jailbreaks, injeções imediatas e inversão de modelos.
A pesquisa da Cisco destaca que quanto mais um modelo é refinado para produção, mais vulnerável se torna. Os processos principais envolvidos no ajuste fino, como ajustes contínuos, integrações de terceiros, codificação, teste e orquestração agêntica, criam novos caminhos para os invasores explorarem. Uma vez lá dentro, os invasores podem envenenar rapidamente dados, sequestrar infraestrutura, alterar o comportamento do agente e extrair dados de treinamento em larga escala. Sem camadas de segurança adicionais, esses modelos meticulosamente ajustados podem se tornar rapidamente passivos, maduros para a exploração pelos atacantes.
LLMs de ajuste fino: uma faca de dois gumes
A equipe de segurança da Cisco conduziu uma extensa pesquisa sobre o impacto do ajuste fino em vários modelos, incluindo o LLAMA-2-7B e o Adapt LLMS, específico do domínio da Microsoft. Seus testes abrangeram vários setores, incluindo assistência médica, finanças e direito. Uma descoberta importante foi que o ajuste fino, mesmo com conjuntos de dados limpos, desestabiliza o alinhamento de modelos, particularmente em campos altamente regulamentados como biomedicina e direito.
Embora o ajuste fino tenha como objetivo melhorar o desempenho da tarefa, ele prejudica inadvertidamente os controles de segurança embutidos. As tentativas de jailbreak, que normalmente falham contra os modelos de fundação, conseguem taxas muito mais altas contra versões ajustadas, especialmente em domínios sensíveis com requisitos estritos de conformidade. Os resultados são acidentados: as taxas de sucesso do jailbreak triplicaram e a geração maliciosa da produção aumentou 2.200% em comparação com os modelos de fundação. Esse trade-off significa que, embora o ajuste fino aumente a utilidade, também amplia significativamente a superfície de ataque.
A comoditização de LLMs maliciosos
A Cisco Talos tem rastreado ativamente a ascensão desses LLMs do Black-Market, fornecendo informações sobre suas operações. Modelos como GhostGPT, Darkgpt e Fraudgpt estão disponíveis no Telegram e na Web Dark por apenas US $ 75 por mês. Essas ferramentas foram projetadas para uso plug-and-play em phishing, desenvolvimento de exploração, validação de cartão de crédito e ofuscação.
Ao contrário dos modelos convencionais com recursos de segurança integrados, esses LLMs maliciosos são pré-configurados para operações ofensivas e vêm com APIs, atualizações e painéis que imitam produtos comerciais de SaaS.
Envenenamento por conjunto de dados: uma ameaça de US $ 60 às cadeias de suprimentos de IA
Os pesquisadores da Cisco, em colaboração com o Google, a ETH Zurique e a Nvidia, revelaram que, por apenas US $ 60, os invasores podem envenenar os conjuntos de dados fundamentais dos modelos de IA sem precisar de explorações de zero dia. Ao explorar domínios expirados ou edições da Wikipedia de tempo durante o arquivamento do conjunto de dados, os atacantes podem contaminar apenas 0,01% dos conjuntos de dados como Laion-400m ou Coyo-700M, influenciando significativamente o LLMS a jusante.
Métodos como envenenamento por visão dividida e ataques de pioneiros aproveitam a confiança inerente aos dados de rastreamento da Web. Com a maioria dos LLMs corporativos construídos com dados abertos, esses ataques podem escalar silenciosamente e persistir profundamente em pipelines de inferência, representando uma séria ameaça às cadeias de suprimentos de IA.
Ataques de decomposição: Extraindo dados sensíveis
Uma das descobertas mais alarmantes da pesquisa da Cisco é a capacidade dos LLMs de vazar dados de treinamento sensíveis ao desencadear mecanismos de segurança. Usando uma técnica chamada decomposição provocada, os pesquisadores reconstruíram mais de 20% dos artigos selecionados do New York Times e do Wall Street Journal . Esse método divide solicita sub-questões que são consideradas seguras pelos corrimãos e remontam as saídas para recriar conteúdo com paredes pagas ou com direitos autorais.
Esse tipo de ataque representa um risco significativo para as empresas, especialmente aquelas que usam LLMs treinados em conjuntos de dados proprietários ou licenciados. A violação não ocorre no nível de entrada, mas através das saídas do modelo, dificultando a detecção, auditoria ou conter. Para organizações em setores regulamentados como assistência médica, finanças ou direito, isso não apenas levanta preocupações sobre a conformidade com GDPR, HIPAA ou CCPA, mas também introduz uma nova classe de risco em que dados de origem legalmente podem ser expostos por inferência.
Pensamentos finais: LLMS como a nova superfície de ataque
A pesquisa em andamento da Cisco e o monitoramento da Web Dark da Cisco confirmam que os LLMs armados estão se tornando cada vez mais sofisticados, com um preço e uma guerra de embalagem se desenrolando na Web Dark. As descobertas destacam que os LLMs não são apenas ferramentas na borda da empresa; Eles são parte integrante do seu núcleo. Dos riscos associados ao ajuste fino ao envenenamento por conjunto de dados e aos vazamentos de saída de modelos, os atacantes veem o LLMS como infraestrutura crítica a ser explorada.
O principal argumento do relatório da Cisco é claro: os corrimãos estáticos não são mais suficientes. Os CISOs e os líderes de segurança devem obter visibilidade em tempo real em toda a propriedade de TI, aprimorar os testes adversários e otimizar sua pilha de tecnologia para acompanhar essas ameaças em evolução. Eles devem reconhecer que LLMs e modelos representam uma superfície de ataque dinâmica que se torna cada vez mais vulnerável à medida que são ajustados.



Cisco Warns is super scary! I mean, these rogue LLMs like FraudGPT sound like something straight out of a dystopian movie. It's wild how they're changing cyberattacks. Makes me wanna double-check my security settings, no joke! Anyone else feeling a bit paranoid now? 😅




シスコの警告、めっちゃ怖いですね! FraudGPTみたいなLLMが暴走するなんて、まるでディストピア映画みたい。サイバー攻撃が変わってるってのが本当に驚きです。セキュリティ設定を再確認したくなりますね。みなさんもちょっと不安になりませんか?😅




시스코 경고 정말 무섭네요! FraudGPT 같은 LLM이 날뛰는 건 마치 디스토피아 영화 같아요. 사이버 공격이 변하고 있다는 게 정말 놀랍네요. 보안 설정을 다시 확인하고 싶어지네요. 여러분도 조금 불안해지지 않나요? 😅




O aviso da Cisco é assustador! Quer dizer, esses LLMs descontrolados como o FraudGPT parecem saídos de um filme distópico. É louco como estão mudando os ciberataques. Me dá vontade de verificar minhas configurações de segurança, sem brincadeira! Alguém mais se sentindo um pouco paranoico agora? 😅




¡La advertencia de Cisco es súper escalofriante! Quiero decir, estos LLMs fuera de control como FraudGPT parecen sacados de una película distópica. Es increíble cómo están cambiando los ciberataques. Me dan ganas de revisar mis configuraciones de seguridad, ¡no es broma! ¿Alguien más se siente un poco paranoico ahora? 😅




Just tried Cisco Warns and it's scary how accurate it is about rogue AI! Makes you think twice about the future of cybersecurity. The tool itself is a bit clunky to navigate, but the insights are spot on. Definitely a must-have for anyone in the field, but maybe a smoother interface next time? 🤔












