Option
Heim
Nachricht
Sicherheitslücke bei ChatGPT zum Diebstahl sensibler Google Mail-Daten ausgenutzt

Sicherheitslücke bei ChatGPT zum Diebstahl sensibler Google Mail-Daten ausgenutzt

19. Oktober 2025
3

Sicherheitslücke bei ChatGPT zum Diebstahl sensibler Google Mail-Daten ausgenutzt

Sicherheitswarnung: Forscher demonstrieren KI-gestützte Datenexfiltrationstechnik

Cybersecurity-Experten haben vor kurzem eine Sicherheitslücke entdeckt, durch die die Deep Research-Funktion von ChatGPT manipuliert werden konnte, um vertrauliche Google Mail-Daten unbemerkt zu extrahieren. OpenAI hat diese Schwachstelle inzwischen gepatcht, doch der Vorfall wirft ein Schlaglicht auf die neuen Sicherheitsprobleme, die durch autonome KI-Systeme entstehen.

Der Shadow Leak Exploit-Mechanismus

Die Sicherheitsanalysten von Radware haben diesen Proof-of-Concept-Angriff entwickelt, der zeigt, wie die inhärente Hilfsbereitschaft von KI als Waffe eingesetzt werden kann. Die Technik nutzt die Funktionsweise von KI-Assistenten aus, die für den Zugriff auf sensible Konten wie E-Mail autorisiert sind und dann unbeaufsichtigt automatisierte Aufgaben ausführen.

Die bahnbrechende Schwachstelle lag in einem ausgeklügelten Prompt-Injection-Angriff. Im Gegensatz zu herkömmlichen Cyber-Bedrohungen werden bei diesen Manipulationen bösartige Anweisungen eingebettet, die für menschliche Prüfer harmlos erscheinen, aber das Verhalten eines KI-Agenten völlig umlenken.

Anatomie des Angriffs

Die Forscher pflanzten versteckte Befehle in eine E-Mail in einem Gmail-Konto ein, auf das die KI zugreifen konnte. Als der Benutzer später Deep Research aktivierte:

  1. Die KI verarbeitete die kompromittierte E-Mail mit den versteckten Anweisungen
  2. Sie wurde heimlich umgeleitet, um nach Personaldokumenten und persönlichen Daten zu suchen
  3. Das System begann, diese Informationen in von Angreifern kontrollierte Kanäle zu exportieren.

Was diesen Ansatz besonders heimtückisch macht, ist die Tatsache, dass er vollständig innerhalb der Cloud-Infrastruktur von OpenAI ausgeführt wird, wodurch herkömmliche Sicherheitsüberwachungs-Tools umgangen werden, die auf abnormalen Netzwerkverkehr achten.

Weitreichendere Implikationen

Das Forschungsteam betont, dass dies kein einfacher Exploit war - die Entwicklung zuverlässiger Exfiltrationsmethoden erforderte umfangreiche Tests und Verfeinerungen. Ihr Erfolg zeigt, wie raffiniert KI-spezifische Angriffsvektoren werden.

Auch wenn diese spezielle Schwachstelle behoben wurde, warnt Radware, dass ähnliche Techniken möglicherweise auch andere integrierte Dienste angreifen könnten, darunter:

  • Microsoft Outlook
  • GitHub-Repositories
  • Google Drive
  • Dropbox-Konten

Der Vorfall ist ein wichtiger Weckruf für Unternehmen, die KI-Tools mit umfassenden Systemzugriffsrechten einsetzen. Da KI-Agenten immer autonomer und umfassender integriert werden, wird die Entwicklung spezieller Schutzmaßnahmen gegen solche neuartigen Angriffsvektoren immer wichtiger.

Verwandter Artikel
Anthropic räumt KI-Fehler in juristischem Dossier ein und bezeichnet ihn als Anthropic räumt KI-Fehler in juristischem Dossier ein und bezeichnet ihn als "peinlich und unbeabsichtigt". Anthropic hat sich zu den Vorwürfen bezüglich einer KI-generierten Quelle in seinem laufenden Rechtsstreit mit Musikverlagen geäußert und den Vorfall als einen "unbeabsichtigten Zitierfehler" seines C
Gmail führt automatische AI-gestützte E-Mail-Zusammenfassungen ein Gmail führt automatische AI-gestützte E-Mail-Zusammenfassungen ein Gemini-gestützte E-Mail-Zusammenfassungen für Workspace-NutzerGoogle Workspace-Abonnenten werden die erweiterte Rolle von Gemini bei der Verwaltung ihrer Posteingänge bemerken, da Google Mail nun au
Apple könnte nächste iPhone-Einführung für faltbares Modell verzögern Apple könnte nächste iPhone-Einführung für faltbares Modell verzögern Wie The Information berichtet, bereitet Apple für das Jahr 2026 eine erhebliche Umstellung seines iPhone-Veröffentlichungskalenders vor, bei der das erste faltbare iPhone des Unternehmens zusammen mit
Kommentare (0)
0/200
Zurück nach oben
OR