Os pesquisadores enganam a IA para a elaboração de infotealistas cromados, apesar da falta de habilidades de codificação de malware

A IA generativa tem sido uma faca de dois gumes, gerando tanto controvérsia quanto inovação, particularmente no âmbito da infraestrutura de segurança. A Cato Networks, uma provedora líder de segurança empresarial, lançou luz sobre um novo método para manipular chatbots de IA. O Relatório de Ameaças Cato CTRL 2025, lançado na terça-feira, detalha como um pesquisador sem experiência prévia em codificação de malware conseguiu enganar vários modelos de IA, incluindo DeepSeek R1 e V3, Microsoft Copilot e GPT-4o da OpenAI, para criar infostealers do Chrome "totalmente funcionais". Esses malwares são projetados para roubar dados sensíveis, como senhas e informações financeiras, de navegadores Chrome.
O pesquisador empregou uma tática criativa, chamada "Mundo Imersivo", para contornar as medidas de segurança desses sistemas de IA. Ao criar um universo fictício detalhado onde cada ferramenta de IA tinha papéis, tarefas e desafios específicos, o pesquisador conseguiu normalizar operações restritas, efetivamente driblando os protocolos de segurança em vigor.
Técnica do Mundo Imersivo
A técnica de jailbreak "Mundo Imersivo" é particularmente preocupante devido ao uso generalizado dos chatbots que hospedam esses modelos de IA. Embora os modelos DeepSeek sejam conhecidos por terem menos barreiras de segurança e já terem sido alvos de jailbreak anteriormente, o fato de que Copilot e GPT-4o, apoiados por empresas com equipes de segurança robustas, também foram suscetíveis destaca a vulnerabilidade de rotas de manipulação indireta.
Etay Maor, estrategista-chefe de segurança da Cato, comentou: "Nossa nova técnica de jailbreak de LLM [...] deveria ter sido bloqueada pelas barreiras de segurança da IA generativa. Não foi." O relatório da Cato também menciona que, embora a empresa tenha notificado as partes afetadas, as respostas variaram. A DeepSeek não respondeu, enquanto OpenAI e Microsoft reconheceram as descobertas. A Google, por outro lado, confirmou o recebimento, mas recusou-se a revisar o código da Cato.
Um Alarme para Profissionais de Segurança
As descobertas da Cato servem como um alerta para a indústria de segurança, ilustrando como até mesmo indivíduos sem conhecimento especializado podem representar uma ameaça significativa para as empresas. Com as barreiras de entrada na manipulação de IA se tornando cada vez mais baixas, os atacantes precisam de menos expertise técnica para executar ataques bem-sucedidos.
A solução, segundo a Cato, está na adoção de estratégias de segurança baseadas em IA. Ao focar o treinamento de segurança no cenário em evolução de ameaças alimentadas por IA, as equipes podem se manter um passo à frente. Para mais insights sobre como preparar empresas para esses desafios, confira as dicas deste especialista.
Mantenha-se atualizado com as últimas notícias de segurança assinando o Tech Today, entregue em sua caixa de entrada todas as manhãs.
Artigo relacionado
Anthropic resolve caso legal sobre pirataria de livros gerados por IA
A Anthropic chegou a uma resolução em uma importante disputa de direitos autorais com autores norte-americanos, concordando com uma proposta de acordo de ação coletiva que evita um julgamento potencia
Meta compartilha receita com hosts de modelos de IA da Llama, revela registro
Embora o CEO da Meta, Mark Zuckerberg, tenha enfatizado em julho de 2023 que a "venda de acesso" não é o modelo de negócios da empresa para os modelos de IA da Llama, os registros judiciais recém-divu
Desbloqueie 99% dos dados ocultos, agora otimizados para IA
Há gerações, organizações de todos os setores entendem que suas informações acumuladas representam um ativo transformador, capaz de aprimorar as interações com os clientes e moldar estratégias de negó
Comentários (5)
0/200
ThomasYoung
21 de Abril de 2025 à7 05:08:07 WEST
Esse truque de AI para criar infostealers do Chrome é loucura! 😱 Sem habilidades de codificação necessárias? Isso é assustador, mas também meio legal. Me faz pensar em como nossos dados estão realmente seguros. Mas tenho que dar crédito pela criatividade! 🔍
0
CharlesJohnson
20 de Abril de 2025 à57 20:21:57 WEST
¡Este truco de IA para crear infostealers de Chrome es una locura! 😱 ¿Sin habilidades de codificación necesarias? Eso es aterrador pero también un poco genial. Me hace preguntarme cuán seguros están realmente nuestros datos. Pero hay que reconocer la creatividad! 🔍
0
GaryWilson
20 de Abril de 2025 à10 04:53:10 WEST
크롬 정보 도둑 프로그램을 만드는 AI 트릭이 대단해! 😱 코딩 기술이 필요 없다고? 무섭지만 좀 멋지기도 해. 우리 데이터가 정말 안전한지 궁금해지네. 그래도 창의성에는 박수를 보내! 🔍
0
WillGarcía
18 de Abril de 2025 à42 22:49:42 WEST
Chromeの情報窃盗ツールを作るAIのトリックがすごい!😱 コーディングのスキルが不要って、怖いけどちょっとかっこいいね。データの安全性が本当にどうなのか気になる。でも創造性には敬意を表するよ!🔍
0
LawrenceRodriguez
16 de Abril de 2025 à52 16:09:52 WEST
This AI trick to make Chrome infostealers is wild! 😱 No coding skills needed? That's scary but also kinda cool. Makes me wonder how safe our data really is. Gotta give props to the creativity though! 🔍
0
A IA generativa tem sido uma faca de dois gumes, gerando tanto controvérsia quanto inovação, particularmente no âmbito da infraestrutura de segurança. A Cato Networks, uma provedora líder de segurança empresarial, lançou luz sobre um novo método para manipular chatbots de IA. O Relatório de Ameaças Cato CTRL 2025, lançado na terça-feira, detalha como um pesquisador sem experiência prévia em codificação de malware conseguiu enganar vários modelos de IA, incluindo DeepSeek R1 e V3, Microsoft Copilot e GPT-4o da OpenAI, para criar infostealers do Chrome "totalmente funcionais". Esses malwares são projetados para roubar dados sensíveis, como senhas e informações financeiras, de navegadores Chrome.
O pesquisador empregou uma tática criativa, chamada "Mundo Imersivo", para contornar as medidas de segurança desses sistemas de IA. Ao criar um universo fictício detalhado onde cada ferramenta de IA tinha papéis, tarefas e desafios específicos, o pesquisador conseguiu normalizar operações restritas, efetivamente driblando os protocolos de segurança em vigor.
Técnica do Mundo Imersivo
A técnica de jailbreak "Mundo Imersivo" é particularmente preocupante devido ao uso generalizado dos chatbots que hospedam esses modelos de IA. Embora os modelos DeepSeek sejam conhecidos por terem menos barreiras de segurança e já terem sido alvos de jailbreak anteriormente, o fato de que Copilot e GPT-4o, apoiados por empresas com equipes de segurança robustas, também foram suscetíveis destaca a vulnerabilidade de rotas de manipulação indireta.
Etay Maor, estrategista-chefe de segurança da Cato, comentou: "Nossa nova técnica de jailbreak de LLM [...] deveria ter sido bloqueada pelas barreiras de segurança da IA generativa. Não foi." O relatório da Cato também menciona que, embora a empresa tenha notificado as partes afetadas, as respostas variaram. A DeepSeek não respondeu, enquanto OpenAI e Microsoft reconheceram as descobertas. A Google, por outro lado, confirmou o recebimento, mas recusou-se a revisar o código da Cato.
Um Alarme para Profissionais de Segurança
As descobertas da Cato servem como um alerta para a indústria de segurança, ilustrando como até mesmo indivíduos sem conhecimento especializado podem representar uma ameaça significativa para as empresas. Com as barreiras de entrada na manipulação de IA se tornando cada vez mais baixas, os atacantes precisam de menos expertise técnica para executar ataques bem-sucedidos.
A solução, segundo a Cato, está na adoção de estratégias de segurança baseadas em IA. Ao focar o treinamento de segurança no cenário em evolução de ameaças alimentadas por IA, as equipes podem se manter um passo à frente. Para mais insights sobre como preparar empresas para esses desafios, confira as dicas deste especialista.
Mantenha-se atualizado com as últimas notícias de segurança assinando o Tech Today, entregue em sua caixa de entrada todas as manhãs.



Esse truque de AI para criar infostealers do Chrome é loucura! 😱 Sem habilidades de codificação necessárias? Isso é assustador, mas também meio legal. Me faz pensar em como nossos dados estão realmente seguros. Mas tenho que dar crédito pela criatividade! 🔍




¡Este truco de IA para crear infostealers de Chrome es una locura! 😱 ¿Sin habilidades de codificación necesarias? Eso es aterrador pero también un poco genial. Me hace preguntarme cuán seguros están realmente nuestros datos. Pero hay que reconocer la creatividad! 🔍




크롬 정보 도둑 프로그램을 만드는 AI 트릭이 대단해! 😱 코딩 기술이 필요 없다고? 무섭지만 좀 멋지기도 해. 우리 데이터가 정말 안전한지 궁금해지네. 그래도 창의성에는 박수를 보내! 🔍




Chromeの情報窃盗ツールを作るAIのトリックがすごい!😱 コーディングのスキルが不要って、怖いけどちょっとかっこいいね。データの安全性が本当にどうなのか気になる。でも創造性には敬意を表するよ!🔍




This AI trick to make Chrome infostealers is wild! 😱 No coding skills needed? That's scary but also kinda cool. Makes me wonder how safe our data really is. Gotta give props to the creativity though! 🔍












