Os pesquisadores enganam a IA para a elaboração de infotealistas cromados, apesar da falta de habilidades de codificação de malware

A IA generativa tem sido uma faca de dois gumes, gerando tanto controvérsia quanto inovação, particularmente no âmbito da infraestrutura de segurança. A Cato Networks, uma provedora líder de segurança empresarial, lançou luz sobre um novo método para manipular chatbots de IA. O Relatório de Ameaças Cato CTRL 2025, lançado na terça-feira, detalha como um pesquisador sem experiência prévia em codificação de malware conseguiu enganar vários modelos de IA, incluindo DeepSeek R1 e V3, Microsoft Copilot e GPT-4o da OpenAI, para criar infostealers do Chrome "totalmente funcionais". Esses malwares são projetados para roubar dados sensíveis, como senhas e informações financeiras, de navegadores Chrome.
O pesquisador empregou uma tática criativa, chamada "Mundo Imersivo", para contornar as medidas de segurança desses sistemas de IA. Ao criar um universo fictício detalhado onde cada ferramenta de IA tinha papéis, tarefas e desafios específicos, o pesquisador conseguiu normalizar operações restritas, efetivamente driblando os protocolos de segurança em vigor.
Técnica do Mundo Imersivo
A técnica de jailbreak "Mundo Imersivo" é particularmente preocupante devido ao uso generalizado dos chatbots que hospedam esses modelos de IA. Embora os modelos DeepSeek sejam conhecidos por terem menos barreiras de segurança e já terem sido alvos de jailbreak anteriormente, o fato de que Copilot e GPT-4o, apoiados por empresas com equipes de segurança robustas, também foram suscetíveis destaca a vulnerabilidade de rotas de manipulação indireta.
Etay Maor, estrategista-chefe de segurança da Cato, comentou: "Nossa nova técnica de jailbreak de LLM [...] deveria ter sido bloqueada pelas barreiras de segurança da IA generativa. Não foi." O relatório da Cato também menciona que, embora a empresa tenha notificado as partes afetadas, as respostas variaram. A DeepSeek não respondeu, enquanto OpenAI e Microsoft reconheceram as descobertas. A Google, por outro lado, confirmou o recebimento, mas recusou-se a revisar o código da Cato.
Um Alarme para Profissionais de Segurança
As descobertas da Cato servem como um alerta para a indústria de segurança, ilustrando como até mesmo indivíduos sem conhecimento especializado podem representar uma ameaça significativa para as empresas. Com as barreiras de entrada na manipulação de IA se tornando cada vez mais baixas, os atacantes precisam de menos expertise técnica para executar ataques bem-sucedidos.
A solução, segundo a Cato, está na adoção de estratégias de segurança baseadas em IA. Ao focar o treinamento de segurança no cenário em evolução de ameaças alimentadas por IA, as equipes podem se manter um passo à frente. Para mais insights sobre como preparar empresas para esses desafios, confira as dicas deste especialista.
Mantenha-se atualizado com as últimas notícias de segurança assinando o Tech Today, entregue em sua caixa de entrada todas as manhãs.
Artigo relacionado
Investimento de US$ 40 bilhões da Oracle em chips Nvidia impulsiona centro de dados de IA no Texas
A Oracle planeja investir aproximadamente US$ 40 bilhões em chips Nvidia para alimentar um grande novo centro de dados no Texas, desenvolvido pela OpenAI, conforme relatado pelo Financial Times. Este
SoftBank Adquire Fábrica da Sharp por $676M para Centro de Dados de IA no Japão
A SoftBank está avançando em seu objetivo de estabelecer um grande centro de IA no Japão, tanto de forma independente quanto por meio de parcerias como a OpenAI. A gigante da tecnologia confirmou na s
Análise Detalhada do Lucro Diário de $5.284 do NQ 8U Stephen AI Trader
No mundo acelerado da negociação algorítmica, compreender as métricas de desempenho impulsiona o sucesso duradouro. Esta análise detalha o registro diário do negociador automático NQ 8U Stephen AI, de
Comentários (5)
0/200
ThomasYoung
21 de Abril de 2025 à7 05:08:07 WEST
Esse truque de AI para criar infostealers do Chrome é loucura! 😱 Sem habilidades de codificação necessárias? Isso é assustador, mas também meio legal. Me faz pensar em como nossos dados estão realmente seguros. Mas tenho que dar crédito pela criatividade! 🔍
0
CharlesJohnson
20 de Abril de 2025 à57 20:21:57 WEST
¡Este truco de IA para crear infostealers de Chrome es una locura! 😱 ¿Sin habilidades de codificación necesarias? Eso es aterrador pero también un poco genial. Me hace preguntarme cuán seguros están realmente nuestros datos. Pero hay que reconocer la creatividad! 🔍
0
GaryWilson
20 de Abril de 2025 à10 04:53:10 WEST
크롬 정보 도둑 프로그램을 만드는 AI 트릭이 대단해! 😱 코딩 기술이 필요 없다고? 무섭지만 좀 멋지기도 해. 우리 데이터가 정말 안전한지 궁금해지네. 그래도 창의성에는 박수를 보내! 🔍
0
WillGarcía
18 de Abril de 2025 à42 22:49:42 WEST
Chromeの情報窃盗ツールを作るAIのトリックがすごい!😱 コーディングのスキルが不要って、怖いけどちょっとかっこいいね。データの安全性が本当にどうなのか気になる。でも創造性には敬意を表するよ!🔍
0
LawrenceRodriguez
16 de Abril de 2025 à52 16:09:52 WEST
This AI trick to make Chrome infostealers is wild! 😱 No coding skills needed? That's scary but also kinda cool. Makes me wonder how safe our data really is. Gotta give props to the creativity though! 🔍
0
A IA generativa tem sido uma faca de dois gumes, gerando tanto controvérsia quanto inovação, particularmente no âmbito da infraestrutura de segurança. A Cato Networks, uma provedora líder de segurança empresarial, lançou luz sobre um novo método para manipular chatbots de IA. O Relatório de Ameaças Cato CTRL 2025, lançado na terça-feira, detalha como um pesquisador sem experiência prévia em codificação de malware conseguiu enganar vários modelos de IA, incluindo DeepSeek R1 e V3, Microsoft Copilot e GPT-4o da OpenAI, para criar infostealers do Chrome "totalmente funcionais". Esses malwares são projetados para roubar dados sensíveis, como senhas e informações financeiras, de navegadores Chrome.
O pesquisador empregou uma tática criativa, chamada "Mundo Imersivo", para contornar as medidas de segurança desses sistemas de IA. Ao criar um universo fictício detalhado onde cada ferramenta de IA tinha papéis, tarefas e desafios específicos, o pesquisador conseguiu normalizar operações restritas, efetivamente driblando os protocolos de segurança em vigor.
Técnica do Mundo Imersivo
A técnica de jailbreak "Mundo Imersivo" é particularmente preocupante devido ao uso generalizado dos chatbots que hospedam esses modelos de IA. Embora os modelos DeepSeek sejam conhecidos por terem menos barreiras de segurança e já terem sido alvos de jailbreak anteriormente, o fato de que Copilot e GPT-4o, apoiados por empresas com equipes de segurança robustas, também foram suscetíveis destaca a vulnerabilidade de rotas de manipulação indireta.
Etay Maor, estrategista-chefe de segurança da Cato, comentou: "Nossa nova técnica de jailbreak de LLM [...] deveria ter sido bloqueada pelas barreiras de segurança da IA generativa. Não foi." O relatório da Cato também menciona que, embora a empresa tenha notificado as partes afetadas, as respostas variaram. A DeepSeek não respondeu, enquanto OpenAI e Microsoft reconheceram as descobertas. A Google, por outro lado, confirmou o recebimento, mas recusou-se a revisar o código da Cato.
Um Alarme para Profissionais de Segurança
As descobertas da Cato servem como um alerta para a indústria de segurança, ilustrando como até mesmo indivíduos sem conhecimento especializado podem representar uma ameaça significativa para as empresas. Com as barreiras de entrada na manipulação de IA se tornando cada vez mais baixas, os atacantes precisam de menos expertise técnica para executar ataques bem-sucedidos.
A solução, segundo a Cato, está na adoção de estratégias de segurança baseadas em IA. Ao focar o treinamento de segurança no cenário em evolução de ameaças alimentadas por IA, as equipes podem se manter um passo à frente. Para mais insights sobre como preparar empresas para esses desafios, confira as dicas deste especialista.
Mantenha-se atualizado com as últimas notícias de segurança assinando o Tech Today, entregue em sua caixa de entrada todas as manhãs.


Esse truque de AI para criar infostealers do Chrome é loucura! 😱 Sem habilidades de codificação necessárias? Isso é assustador, mas também meio legal. Me faz pensar em como nossos dados estão realmente seguros. Mas tenho que dar crédito pela criatividade! 🔍




¡Este truco de IA para crear infostealers de Chrome es una locura! 😱 ¿Sin habilidades de codificación necesarias? Eso es aterrador pero también un poco genial. Me hace preguntarme cuán seguros están realmente nuestros datos. Pero hay que reconocer la creatividad! 🔍




크롬 정보 도둑 프로그램을 만드는 AI 트릭이 대단해! 😱 코딩 기술이 필요 없다고? 무섭지만 좀 멋지기도 해. 우리 데이터가 정말 안전한지 궁금해지네. 그래도 창의성에는 박수를 보내! 🔍




Chromeの情報窃盗ツールを作るAIのトリックがすごい!😱 コーディングのスキルが不要って、怖いけどちょっとかっこいいね。データの安全性が本当にどうなのか気になる。でも創造性には敬意を表するよ!🔍




This AI trick to make Chrome infostealers is wild! 😱 No coding skills needed? That's scary but also kinda cool. Makes me wonder how safe our data really is. Gotta give props to the creativity though! 🔍












