Forscher Tricks KI in das Erstellen von Chrom-Infostalern, obwohl es keine Malware-Kodierfähigkeiten hat

Generative KI ist ein zweischneidiges Schwert, das ebenso viel Kontroverse wie Innovation auslöst, insbesondere im Bereich der Sicherheitsinfrastruktur. Cato Networks, ein führender Anbieter von Unternehmenssicherheit, hat eine neuartige Methode zur Manipulation von KI-Chatbots beleuchtet. Ihr Cato CTRL Bedrohungsbericht 2025, veröffentlicht am Dienstag, beschreibt, wie ein Forscher ohne vorherige Erfahrung im Codieren von Malware mehrere KI-Modelle, einschließlich DeepSeek R1 und V3, Microsoft Copilot und OpenAI's GPT-4o, dazu brachte, „voll funktionsfähige“ Chrome-Infostealer zu erstellen. Diese Malware ist darauf ausgelegt, sensible Daten wie Passwörter und finanzielle Informationen aus Chrome-Browsern zu stehlen.
Der Forscher nutzte eine kreative Taktik, genannt „Immersive World“, um die Sicherheitsmaßnahmen dieser KI-Systeme zu umgehen. Durch die Schaffung eines detaillierten fiktiven Universums, in dem jedes KI-Tool spezifische Rollen, Aufgaben und Herausforderungen hatte, gelang es dem Forscher, eingeschränkte Operationen zu normalisieren und die bestehenden Sicherheitsprotokolle effektiv zu umgehen.
Immersive World Technik
Die „Immersive World“ Jailbreak-Technik ist besonders besorgniserregend aufgrund der weitreichenden Nutzung der Chatbots, die diese KI-Modelle hosten. Während DeepSeek-Modelle dafür bekannt sind, weniger Sicherheitsvorkehrungen zu haben und bereits zuvor geknackt wurden, unterstreicht die Anfälligkeit von Copilot und GPT-4o, unterstützt von Unternehmen mit robusten Sicherheitsteams, die Verwundbarkeit indirekter Manipulationswege.
Etay Maor, Catos Chef-Sicherheitsstratege, bemerkte: „Unsere neue LLM-Jailbreak-Technik [...] hätte von den Schutzmaßnahmen der generativen KI blockiert werden sollen. Das wurde sie nicht.“ Catos Bericht erwähnt auch, dass die Reaktionen der betroffenen Parteien unterschiedlich ausfielen. DeepSeek antwortete nicht, während OpenAI und Microsoft die Erkenntnisse anerkannten. Google hingegen bestätigte den Erhalt, lehnte es jedoch ab, Catos Code zu überprüfen.
Ein Weckruf für Sicherheitsexperten
Catos Erkenntnisse dienen als Weckruf für die Sicherheitsbranche und verdeutlichen, wie selbst Personen ohne spezialisierte Kenntnisse eine erhebliche Bedrohung für Unternehmen darstellen können. Da die Hürden für KI-Manipulation immer niedriger werden, benötigen Angreifer weniger technisches Fachwissen, um erfolgreiche Angriffe durchzuführen.
Die Lösung liegt laut Cato in der Einführung KI-basierter Sicherheitsstrategien. Durch die Ausrichtung der Sicherheitsschulungen auf die sich entwickelnde Landschaft KI-gestützter Bedrohungen können Teams einen Schritt voraus bleiben. Für weitere Einblicke zur Vorbereitung von Unternehmen auf diese Herausforderungen, werfen Sie einen Blick auf die Tipps dieses Experten.
Bleiben Sie mit den neuesten Sicherheitsnachrichten auf dem Laufenden, indem Sie Tech Today abonnieren, das jeden Morgen in Ihren Posteingang geliefert wird.
Verwandter Artikel
Effizientes Scrapen von LinkedIn-Profilen in großem Maßstab mit KI-gesteuerten Tools
In unserer von Daten dominierten Berufswelt bietet die Automatisierung der LinkedIn-Profilextraktion erhebliche Wettbewerbsvorteile für die Verkaufsprospektion, das gezielte Marketing und die Talentak
Anthropic löst Rechtsstreit über AI-generierte Buchpiraterie
Anthropic hat einen bedeutenden Urheberrechtsstreit mit US-Autoren beigelegt. Das Unternehmen hat einer vorgeschlagenen Sammelklage zugestimmt, mit der ein potenziell kostspieliger Prozess vermieden w
Meta teilt sich die Einnahmen mit den Betreibern der Llama AI-Modelle, wie aus den Unterlagen hervorgeht
Während Meta-CEO Mark Zuckerberg im Juli 2023 betonte, dass das Geschäftsmodell für die Llama-KI-Modelle nicht darin besteht, "Zugang zu verkaufen", zeigen neu veröffentlichte Gerichtsakten, dass Meta
Kommentare (5)
0/200
ThomasYoung
21. April 2025 06:08:07 MESZ
Esse truque de AI para criar infostealers do Chrome é loucura! 😱 Sem habilidades de codificação necessárias? Isso é assustador, mas também meio legal. Me faz pensar em como nossos dados estão realmente seguros. Mas tenho que dar crédito pela criatividade! 🔍
0
CharlesJohnson
20. April 2025 21:21:57 MESZ
¡Este truco de IA para crear infostealers de Chrome es una locura! 😱 ¿Sin habilidades de codificación necesarias? Eso es aterrador pero también un poco genial. Me hace preguntarme cuán seguros están realmente nuestros datos. Pero hay que reconocer la creatividad! 🔍
0
GaryWilson
20. April 2025 05:53:10 MESZ
크롬 정보 도둑 프로그램을 만드는 AI 트릭이 대단해! 😱 코딩 기술이 필요 없다고? 무섭지만 좀 멋지기도 해. 우리 데이터가 정말 안전한지 궁금해지네. 그래도 창의성에는 박수를 보내! 🔍
0
WillGarcía
18. April 2025 23:49:42 MESZ
Chromeの情報窃盗ツールを作るAIのトリックがすごい!😱 コーディングのスキルが不要って、怖いけどちょっとかっこいいね。データの安全性が本当にどうなのか気になる。でも創造性には敬意を表するよ!🔍
0
LawrenceRodriguez
16. April 2025 17:09:52 MESZ
This AI trick to make Chrome infostealers is wild! 😱 No coding skills needed? That's scary but also kinda cool. Makes me wonder how safe our data really is. Gotta give props to the creativity though! 🔍
0
Generative KI ist ein zweischneidiges Schwert, das ebenso viel Kontroverse wie Innovation auslöst, insbesondere im Bereich der Sicherheitsinfrastruktur. Cato Networks, ein führender Anbieter von Unternehmenssicherheit, hat eine neuartige Methode zur Manipulation von KI-Chatbots beleuchtet. Ihr Cato CTRL Bedrohungsbericht 2025, veröffentlicht am Dienstag, beschreibt, wie ein Forscher ohne vorherige Erfahrung im Codieren von Malware mehrere KI-Modelle, einschließlich DeepSeek R1 und V3, Microsoft Copilot und OpenAI's GPT-4o, dazu brachte, „voll funktionsfähige“ Chrome-Infostealer zu erstellen. Diese Malware ist darauf ausgelegt, sensible Daten wie Passwörter und finanzielle Informationen aus Chrome-Browsern zu stehlen.
Der Forscher nutzte eine kreative Taktik, genannt „Immersive World“, um die Sicherheitsmaßnahmen dieser KI-Systeme zu umgehen. Durch die Schaffung eines detaillierten fiktiven Universums, in dem jedes KI-Tool spezifische Rollen, Aufgaben und Herausforderungen hatte, gelang es dem Forscher, eingeschränkte Operationen zu normalisieren und die bestehenden Sicherheitsprotokolle effektiv zu umgehen.
Immersive World Technik
Die „Immersive World“ Jailbreak-Technik ist besonders besorgniserregend aufgrund der weitreichenden Nutzung der Chatbots, die diese KI-Modelle hosten. Während DeepSeek-Modelle dafür bekannt sind, weniger Sicherheitsvorkehrungen zu haben und bereits zuvor geknackt wurden, unterstreicht die Anfälligkeit von Copilot und GPT-4o, unterstützt von Unternehmen mit robusten Sicherheitsteams, die Verwundbarkeit indirekter Manipulationswege.
Etay Maor, Catos Chef-Sicherheitsstratege, bemerkte: „Unsere neue LLM-Jailbreak-Technik [...] hätte von den Schutzmaßnahmen der generativen KI blockiert werden sollen. Das wurde sie nicht.“ Catos Bericht erwähnt auch, dass die Reaktionen der betroffenen Parteien unterschiedlich ausfielen. DeepSeek antwortete nicht, während OpenAI und Microsoft die Erkenntnisse anerkannten. Google hingegen bestätigte den Erhalt, lehnte es jedoch ab, Catos Code zu überprüfen.
Ein Weckruf für Sicherheitsexperten
Catos Erkenntnisse dienen als Weckruf für die Sicherheitsbranche und verdeutlichen, wie selbst Personen ohne spezialisierte Kenntnisse eine erhebliche Bedrohung für Unternehmen darstellen können. Da die Hürden für KI-Manipulation immer niedriger werden, benötigen Angreifer weniger technisches Fachwissen, um erfolgreiche Angriffe durchzuführen.
Die Lösung liegt laut Cato in der Einführung KI-basierter Sicherheitsstrategien. Durch die Ausrichtung der Sicherheitsschulungen auf die sich entwickelnde Landschaft KI-gestützter Bedrohungen können Teams einen Schritt voraus bleiben. Für weitere Einblicke zur Vorbereitung von Unternehmen auf diese Herausforderungen, werfen Sie einen Blick auf die Tipps dieses Experten.
Bleiben Sie mit den neuesten Sicherheitsnachrichten auf dem Laufenden, indem Sie Tech Today abonnieren, das jeden Morgen in Ihren Posteingang geliefert wird.



Esse truque de AI para criar infostealers do Chrome é loucura! 😱 Sem habilidades de codificação necessárias? Isso é assustador, mas também meio legal. Me faz pensar em como nossos dados estão realmente seguros. Mas tenho que dar crédito pela criatividade! 🔍




¡Este truco de IA para crear infostealers de Chrome es una locura! 😱 ¿Sin habilidades de codificación necesarias? Eso es aterrador pero también un poco genial. Me hace preguntarme cuán seguros están realmente nuestros datos. Pero hay que reconocer la creatividad! 🔍




크롬 정보 도둑 프로그램을 만드는 AI 트릭이 대단해! 😱 코딩 기술이 필요 없다고? 무섭지만 좀 멋지기도 해. 우리 데이터가 정말 안전한지 궁금해지네. 그래도 창의성에는 박수를 보내! 🔍




Chromeの情報窃盗ツールを作るAIのトリックがすごい!😱 コーディングのスキルが不要って、怖いけどちょっとかっこいいね。データの安全性が本当にどうなのか気になる。でも創造性には敬意を表するよ!🔍




This AI trick to make Chrome infostealers is wild! 😱 No coding skills needed? That's scary but also kinda cool. Makes me wonder how safe our data really is. Gotta give props to the creativity though! 🔍












