Forscher Tricks KI in das Erstellen von Chrom-Infostalern, obwohl es keine Malware-Kodierfähigkeiten hat

Generative KI ist ein zweischneidiges Schwert, das ebenso viel Kontroverse wie Innovation auslöst, insbesondere im Bereich der Sicherheitsinfrastruktur. Cato Networks, ein führender Anbieter von Unternehmenssicherheit, hat eine neuartige Methode zur Manipulation von KI-Chatbots beleuchtet. Ihr Cato CTRL Bedrohungsbericht 2025, veröffentlicht am Dienstag, beschreibt, wie ein Forscher ohne vorherige Erfahrung im Codieren von Malware mehrere KI-Modelle, einschließlich DeepSeek R1 und V3, Microsoft Copilot und OpenAI's GPT-4o, dazu brachte, „voll funktionsfähige“ Chrome-Infostealer zu erstellen. Diese Malware ist darauf ausgelegt, sensible Daten wie Passwörter und finanzielle Informationen aus Chrome-Browsern zu stehlen.
Der Forscher nutzte eine kreative Taktik, genannt „Immersive World“, um die Sicherheitsmaßnahmen dieser KI-Systeme zu umgehen. Durch die Schaffung eines detaillierten fiktiven Universums, in dem jedes KI-Tool spezifische Rollen, Aufgaben und Herausforderungen hatte, gelang es dem Forscher, eingeschränkte Operationen zu normalisieren und die bestehenden Sicherheitsprotokolle effektiv zu umgehen.
Immersive World Technik
Die „Immersive World“ Jailbreak-Technik ist besonders besorgniserregend aufgrund der weitreichenden Nutzung der Chatbots, die diese KI-Modelle hosten. Während DeepSeek-Modelle dafür bekannt sind, weniger Sicherheitsvorkehrungen zu haben und bereits zuvor geknackt wurden, unterstreicht die Anfälligkeit von Copilot und GPT-4o, unterstützt von Unternehmen mit robusten Sicherheitsteams, die Verwundbarkeit indirekter Manipulationswege.
Etay Maor, Catos Chef-Sicherheitsstratege, bemerkte: „Unsere neue LLM-Jailbreak-Technik [...] hätte von den Schutzmaßnahmen der generativen KI blockiert werden sollen. Das wurde sie nicht.“ Catos Bericht erwähnt auch, dass die Reaktionen der betroffenen Parteien unterschiedlich ausfielen. DeepSeek antwortete nicht, während OpenAI und Microsoft die Erkenntnisse anerkannten. Google hingegen bestätigte den Erhalt, lehnte es jedoch ab, Catos Code zu überprüfen.
Ein Weckruf für Sicherheitsexperten
Catos Erkenntnisse dienen als Weckruf für die Sicherheitsbranche und verdeutlichen, wie selbst Personen ohne spezialisierte Kenntnisse eine erhebliche Bedrohung für Unternehmen darstellen können. Da die Hürden für KI-Manipulation immer niedriger werden, benötigen Angreifer weniger technisches Fachwissen, um erfolgreiche Angriffe durchzuführen.
Die Lösung liegt laut Cato in der Einführung KI-basierter Sicherheitsstrategien. Durch die Ausrichtung der Sicherheitsschulungen auf die sich entwickelnde Landschaft KI-gestützter Bedrohungen können Teams einen Schritt voraus bleiben. Für weitere Einblicke zur Vorbereitung von Unternehmen auf diese Herausforderungen, werfen Sie einen Blick auf die Tipps dieses Experten.
Bleiben Sie mit den neuesten Sicherheitsnachrichten auf dem Laufenden, indem Sie Tech Today abonnieren, das jeden Morgen in Ihren Posteingang geliefert wird.
Verwandter Artikel
AI's Rolle im Hip Hop: Werkzeug für Innovation oder kreative Abkürzung?
Künstliche Intelligenz verändert den Alltag, und auch die Musikszene spürt diesen Wandel. Im Hip Hop zielen neue KI-Systeme darauf ab, den Aufbau von Tracks, das Schreiben von Versen und Live-Auftritt
Oracles 40-Mrd.-Nvidia-Chip-Investition stärkt Texas AI-Rechenzentrum
Oracle plant, etwa 40 Milliarden Dollar in Nvidia-Chips zu investieren, um ein großes neues Rechenzentrum in Texas zu betreiben, das von OpenAI entwickelt wird, wie die Financial Times berichtet. Dies
SoftBank erwirbt Sharp-Fabrik für 676 Mio. USD für KI-Datenzentrum in Japan
SoftBank verfolgt sein Ziel, ein großes KI-Zentrum in Japan zu etablieren, sowohl eigenständig als auch durch Partnerschaften wie mit OpenAI. Der Technologieriese bestätigte am Freitag, dass er 676 Mi
Kommentare (5)
0/200
ThomasYoung
21. April 2025 06:08:07 MESZ
Esse truque de AI para criar infostealers do Chrome é loucura! 😱 Sem habilidades de codificação necessárias? Isso é assustador, mas também meio legal. Me faz pensar em como nossos dados estão realmente seguros. Mas tenho que dar crédito pela criatividade! 🔍
0
CharlesJohnson
20. April 2025 21:21:57 MESZ
¡Este truco de IA para crear infostealers de Chrome es una locura! 😱 ¿Sin habilidades de codificación necesarias? Eso es aterrador pero también un poco genial. Me hace preguntarme cuán seguros están realmente nuestros datos. Pero hay que reconocer la creatividad! 🔍
0
GaryWilson
20. April 2025 05:53:10 MESZ
크롬 정보 도둑 프로그램을 만드는 AI 트릭이 대단해! 😱 코딩 기술이 필요 없다고? 무섭지만 좀 멋지기도 해. 우리 데이터가 정말 안전한지 궁금해지네. 그래도 창의성에는 박수를 보내! 🔍
0
WillGarcía
18. April 2025 23:49:42 MESZ
Chromeの情報窃盗ツールを作るAIのトリックがすごい!😱 コーディングのスキルが不要って、怖いけどちょっとかっこいいね。データの安全性が本当にどうなのか気になる。でも創造性には敬意を表するよ!🔍
0
LawrenceRodriguez
16. April 2025 17:09:52 MESZ
This AI trick to make Chrome infostealers is wild! 😱 No coding skills needed? That's scary but also kinda cool. Makes me wonder how safe our data really is. Gotta give props to the creativity though! 🔍
0
Generative KI ist ein zweischneidiges Schwert, das ebenso viel Kontroverse wie Innovation auslöst, insbesondere im Bereich der Sicherheitsinfrastruktur. Cato Networks, ein führender Anbieter von Unternehmenssicherheit, hat eine neuartige Methode zur Manipulation von KI-Chatbots beleuchtet. Ihr Cato CTRL Bedrohungsbericht 2025, veröffentlicht am Dienstag, beschreibt, wie ein Forscher ohne vorherige Erfahrung im Codieren von Malware mehrere KI-Modelle, einschließlich DeepSeek R1 und V3, Microsoft Copilot und OpenAI's GPT-4o, dazu brachte, „voll funktionsfähige“ Chrome-Infostealer zu erstellen. Diese Malware ist darauf ausgelegt, sensible Daten wie Passwörter und finanzielle Informationen aus Chrome-Browsern zu stehlen.
Der Forscher nutzte eine kreative Taktik, genannt „Immersive World“, um die Sicherheitsmaßnahmen dieser KI-Systeme zu umgehen. Durch die Schaffung eines detaillierten fiktiven Universums, in dem jedes KI-Tool spezifische Rollen, Aufgaben und Herausforderungen hatte, gelang es dem Forscher, eingeschränkte Operationen zu normalisieren und die bestehenden Sicherheitsprotokolle effektiv zu umgehen.
Immersive World Technik
Die „Immersive World“ Jailbreak-Technik ist besonders besorgniserregend aufgrund der weitreichenden Nutzung der Chatbots, die diese KI-Modelle hosten. Während DeepSeek-Modelle dafür bekannt sind, weniger Sicherheitsvorkehrungen zu haben und bereits zuvor geknackt wurden, unterstreicht die Anfälligkeit von Copilot und GPT-4o, unterstützt von Unternehmen mit robusten Sicherheitsteams, die Verwundbarkeit indirekter Manipulationswege.
Etay Maor, Catos Chef-Sicherheitsstratege, bemerkte: „Unsere neue LLM-Jailbreak-Technik [...] hätte von den Schutzmaßnahmen der generativen KI blockiert werden sollen. Das wurde sie nicht.“ Catos Bericht erwähnt auch, dass die Reaktionen der betroffenen Parteien unterschiedlich ausfielen. DeepSeek antwortete nicht, während OpenAI und Microsoft die Erkenntnisse anerkannten. Google hingegen bestätigte den Erhalt, lehnte es jedoch ab, Catos Code zu überprüfen.
Ein Weckruf für Sicherheitsexperten
Catos Erkenntnisse dienen als Weckruf für die Sicherheitsbranche und verdeutlichen, wie selbst Personen ohne spezialisierte Kenntnisse eine erhebliche Bedrohung für Unternehmen darstellen können. Da die Hürden für KI-Manipulation immer niedriger werden, benötigen Angreifer weniger technisches Fachwissen, um erfolgreiche Angriffe durchzuführen.
Die Lösung liegt laut Cato in der Einführung KI-basierter Sicherheitsstrategien. Durch die Ausrichtung der Sicherheitsschulungen auf die sich entwickelnde Landschaft KI-gestützter Bedrohungen können Teams einen Schritt voraus bleiben. Für weitere Einblicke zur Vorbereitung von Unternehmen auf diese Herausforderungen, werfen Sie einen Blick auf die Tipps dieses Experten.
Bleiben Sie mit den neuesten Sicherheitsnachrichten auf dem Laufenden, indem Sie Tech Today abonnieren, das jeden Morgen in Ihren Posteingang geliefert wird.


Esse truque de AI para criar infostealers do Chrome é loucura! 😱 Sem habilidades de codificação necessárias? Isso é assustador, mas também meio legal. Me faz pensar em como nossos dados estão realmente seguros. Mas tenho que dar crédito pela criatividade! 🔍




¡Este truco de IA para crear infostealers de Chrome es una locura! 😱 ¿Sin habilidades de codificación necesarias? Eso es aterrador pero también un poco genial. Me hace preguntarme cuán seguros están realmente nuestros datos. Pero hay que reconocer la creatividad! 🔍




크롬 정보 도둑 프로그램을 만드는 AI 트릭이 대단해! 😱 코딩 기술이 필요 없다고? 무섭지만 좀 멋지기도 해. 우리 데이터가 정말 안전한지 궁금해지네. 그래도 창의성에는 박수를 보내! 🔍




Chromeの情報窃盗ツールを作るAIのトリックがすごい!😱 コーディングのスキルが不要って、怖いけどちょっとかっこいいね。データの安全性が本当にどうなのか気になる。でも創造性には敬意を表するよ!🔍




This AI trick to make Chrome infostealers is wild! 😱 No coding skills needed? That's scary but also kinda cool. Makes me wonder how safe our data really is. Gotta give props to the creativity though! 🔍












