Heim Nachricht Cisco warn

Cisco warn

16. April 2025
RaymondKing
4

Waffen große Sprachmodelle fordern Cyberangriffe um

Die Landschaft von Cyberangriffen wird in einer signifikanten Transformation durch die Entstehung von Waffenmodellen (LLMs) unterzogen. Diese fortgeschrittenen Modelle wie Betrugsgpt, Ghostgpt und DarkGPT verformern die Strategien von Cyberkriminellen und zwingen die Beamten der Informationssicherheit (CHINE Information Security Officers), ihre Sicherheitsprotokolle zu überdenken. Diese LLMs beschleunigen die Social Engineering -Angriffe in einem beispiellosen Maßstab, um die Aufklärung zu automatisieren, Identitäten zu haben und sich zu entziehen.

Diese Modelle sind für nur 75 US -Dollar pro Monat erhältlich und sind auf offensiven Gebrauch zugeschnitten, die Aufgaben wie Phishing, Exploit -Generierung, Code verschleiert, Schwachstellenscanning und Kreditkartenvalidierung. Cybercrime-Gruppen, Syndikate und sogar Nationalstaaten nutzen diese Tools und bieten sie als Plattformen, Kits und Leasingdienste an. Ähnlich wie legitime Software-as-a-Service-Anwendungen (SaaS) -Ansäure (SaaS) sind Waffen-LLMs mit Dashboards, APIs, regelmäßigen Updates und manchmal sogar Kundenunterstützung ausgestattet.

VentureBeat überwacht die schnelle Entwicklung dieser Waffen -LLMs genau. Wenn ihre Raffinesse wächst, wird die Unterscheidung zwischen Entwicklerplattformen und Cyber ​​-Crime -Kits zunehmend verschwommen. Mit fallenden Miet- und Mietpreisen erkundet mehr Angreifer diese Plattformen und kündigen eine neue Ära von KI-gesteuerten Bedrohungen.

Legitime LLMs bedroht

Die Verbreitung von Waffen LLMs hat einen Punkt erreicht, an dem selbst legitime LLMs das Risiko ausgesetzt sind, gefährdet und in kriminelle Toolchains integriert zu werden. Laut Ciscos The State of AI-Sicherheitsbericht erzeugen feine LLMs 22-mal häufiger schädliche Ausgaben als ihre Basis-Gegenstücke. Während die Feinabstimmung für die Verbesserung der kontextuellen Relevanz von entscheidender Bedeutung ist, schwächt es auch Sicherheitsmaßnahmen und macht die Modelle anfälliger für Jailbreaks, sofortige Injektionen und Modellinversion.

Die Forschungsergebnisse von Cisco belegen, dass je mehr ein Modell für die Produktion verfeinert wird, desto anfälliger wird es. Die Kernprozesse, die an der Feinabstimmung beteiligt sind, wie kontinuierliche Anpassungen, Integrationen von Drittanbietern, Codierung, Tests und agentenorchestrierung, schaffen neue Wege, die Angreifer ausnutzen können. Sobald Angreifer im Inneren im Inneren sind, können sie Daten schnell vergiften, die Infrastruktur entführen, das Agentenverhalten verändern und Trainingsdaten in großem Maßstab extrahieren. Ohne zusätzliche Sicherheitsschichten können diese akribisch fein abgestimmten Modelle schnell zu Verbindlichkeiten werden, die für die Ausbeutung durch Angreifer reif werden.

Feinabstimmung LLMs: Ein zweischneidiges Schwert

Das Sicherheitsteam von Cisco führte umfangreiche Untersuchungen zu den Auswirkungen der Feinabstimmung auf mehrere Modelle durch, darunter LLAMA-2-7B und Microsofts domänenspezifische Anpassungs-LLMs. Ihre Tests umfassten verschiedene Sektoren, einschließlich Gesundheitsversorgung, Finanzen und Recht. Ein wichtiger Befund war, dass die Feinabstimmung selbst mit sauberen Datensätzen die Ausrichtung von Modellen, insbesondere in stark regulierten Bereichen wie Biomedizin und Recht, destabilisiert.

Obwohl die Feinabstimmung darauf abzielt, die Aufgabenleistung zu verbessern, untergräbt dies versehentlich die integrierten Sicherheitskontrollen. Jailbreak-Versuche, die normalerweise gegen Grundmodelle scheitern, gelten mit viel höheren Raten gegenüber fein abgestimmten Versionen, insbesondere in sensiblen Bereichen mit strengen Einhaltung von Anforderungen. Die Ergebnisse sind Stark: Die Erfolgsquoten der Jailbreak verdreifacht sich und die böswillige Produktionsgenerierung stieg im Vergleich zu Fundamentmodellen um 2.200%. Dieser Kompromiss bedeutet, dass die Feinabstimmung den Nutzen verbessert, aber auch die Angriffsfläche erheblich erweitert.

TAP erzielt bis zu 98% Jailbreak-Erfolg und übertrifft andere Methoden über Open- und Closed-Source-LLMs. Quelle: Cisco State of AI Security 2025, p. 16.

Die Commoditisierung von böswilligen LLMs

Cisco Talos hat den Aufstieg dieser LLMs Black-Market aktiv verfolgt und Einblicke in ihre Operationen gewährt. Modelle wie Ghostgpt, DarkGPT und Astdgpt sind im Telegramm und im Dark Web für nur 75 US -Dollar pro Monat erhältlich. Diese Tools sind für die Verwendung von Plug-and-Play in Phishing, Exploit-Entwicklung, Kreditkartenvalidierung und Verschleierung ausgelegt.

DarkGPT Underground Dashboard bietet

Im Gegensatz zu Mainstream-Modellen mit integrierten Sicherheitsfunktionen sind diese böswilligen LLMs für offensive Operationen vorkonfiguriert und sind mit APIs, Updates und Dashboards ausgestattet, die kommerzielle SaaS-Produkte imitieren.

Datensatzvergiftung: Eine Bedrohung von 60 US -Dollar für KI -Versorgungsketten

Cisco-Forscher haben in Zusammenarbeit mit Google, Eth Zürich und Nvidia ergeben, dass Angreifer für nur 60 US-Dollar die grundlegenden Datensätze von AI-Modellen vergiften können, ohne dass Null-Day-Exploits erforderlich sind. Durch die Nutzung abgelaufener Domänen oder zeitliche Wikipedia-Änderungen während des Datensatzarchivierens können Angreifer nur 0,01% der Datensätze wie Laion-400m oder Coyo-700m kontaminieren und die nachgeschalteten LLM erheblich beeinflussen.

Methoden wie Split-View-Vergiftungen und Vorreiterangriffe nutzen das inhärente Vertrauen in Web-Crawled-Daten. Bei den meisten Enterprise -LLMs, die auf offenen Daten basieren, können diese Angriffe leise und tief in Inferenzpipelines bestehen und eine ernsthafte Bedrohung für KI -Versorgungsketten darstellen.

Zersetzungsangriffe: Extrahieren sensibler Daten

Einer der alarmierendsten Ergebnisse aus der Forschung von Cisco ist die Fähigkeit von LLMs, sensible Trainingsdaten zu lecken, ohne Sicherheitsmechanismen auszulösen. Unter Verwendung einer Technik namens Decomposition -Aufforderung rekonstruierte die Forscher über 20% der ausgewählten Artikel aus der New York Times und des Wall Street Journal . Diese Methode unterteilt die Eingabeaufforderungen in Unterausfragen, die von Leitplanken als sicher gilt, und stellt dann die Ausgänge wieder zusammen, um Paywalled oder urheberrechtlich geschützte Inhalte neu zu erstellen.

Diese Art von Angriff stellt ein erhebliches Risiko für Unternehmen dar, insbesondere solche, die LLMs verwenden, die auf proprietären oder lizenzierten Datensätzen geschult sind. Der Verstoß erfolgt nicht auf der Eingangsebene, sondern über die Ausgaben des Modells, was es schwierig macht, zu erkennen, zu prüfen oder zu enthalten. Für Organisationen in regulierten Sektoren wie Gesundheitswesen, Finanzierung oder Recht wirft dies nicht nur Bedenken hinsichtlich der Einhaltung der DSGVO, der HIPAA oder der CCPA auf, sondern führt auch eine neue Risikoklasse ein, bei der legal gesammelte Daten durch Inferenz aufgedeckt werden können.

Letzte Gedanken: LLMs als neue Angriffsfläche

Die laufende Forschung von Cisco und die dunkle Webüberwachung von Talos bestätigen, dass Waffen LLMs immer anspruchsvoller werden, wobei sich ein Preis und ein Verpackungskrieg im dunklen Web entfalten. Die Ergebnisse unterstreichen, dass LLMs nicht nur Werkzeuge am Rande des Unternehmens sind. Sie sind integraler Bestandteil ihres Kerns. Von den Risiken, die mit der Feinabstimmung bis hin zu Lecks für Datensatzvergiftungen und Modellausgaben verbunden sind, sehen Angreifer LLMs als kritische Infrastruktur an.

Der wichtigste Treffer aus dem Bericht von Cisco ist klar: Die statischen Leitplanken reichen nicht mehr aus. CISOS und Sicherheitsleiter müssen in ihrem gesamten IT-Nachlass in Echtzeit Sichtbarkeit gewinnen, kontrovers Tests verbessern und ihren Tech-Stack rationalisieren, um mit diesen sich entwickelnden Bedrohungen Schritt zu halten. Sie müssen erkennen, dass LLMs und Modelle eine dynamische Angriffsfläche darstellen, die immer anfälliger wird, wenn sie fein abgestimmt sind.

Verwandter Artikel
MCP는 도구 및 데이터와 AI 연결을 표준화합니다. 새로운 프로토콜이 나타납니다. MCP는 도구 및 데이터와 AI 연결을 표준화합니다. 새로운 프로토콜이 나타납니다. 인공 지능의 세계로 뛰어 들고 있다면 아마도 다른 AI 모델, 데이터 소스 및 도구를 잘 수행하는 것이 얼마나 중요한지 알았을 것입니다. MCP (Model Context Protocol)가 등장하여 AI 연결을 표준화하는 게임 체인저 역할을합니다. 티
DeepCoder는 14B 오픈 모델로 높은 코딩 효율을 달성합니다 DeepCoder는 14B 오픈 모델로 높은 코딩 효율을 달성합니다 DeepCoder-14B 소개 : Openai의 O3-MINI와 같은 최상위 독점 모델을 갖춘 획기적인 코딩 모델 인 AI와 Agentica의 팀은 Open-Source Coding Models의 새로운 프론티어를 소개했습니다. 이 흥미로운 개발은 FO를 기반으로합니다
Google은 Enterprise AI의 은밀하게 능가합니다. Google은 Enterprise AI의 은밀하게 능가합니다. 불과 1 년 전, Google과 Enterprise AI에 대한 버즈는 중립적 인 것처럼 보였습니다. Transformer와 같은 선구적인 기술에도 불구하고, 기술 거인은 Openai의 바이러스 성공, 의인화의 코딩 능력, Microsoft의 EN에 대한 공격적인 추진에 의해 뒤쳐져있는 것처럼 보였습니다.
Kommentare (30)
0/200
RaymondGarcia
RaymondGarcia 16. April 2025 12:36:53 GMT

Cisco Warns is super scary! I mean, these rogue LLMs like FraudGPT sound like something straight out of a dystopian movie. It's wild how they're changing cyberattacks. Makes me wanna double-check my security settings, no joke! Anyone else feeling a bit paranoid now? 😅

JerryGonzález
JerryGonzález 16. April 2025 12:36:53 GMT

シスコの警告、めっちゃ怖いですね! FraudGPTみたいなLLMが暴走するなんて、まるでディストピア映画みたい。サイバー攻撃が変わってるってのが本当に驚きです。セキュリティ設定を再確認したくなりますね。みなさんもちょっと不安になりませんか?😅

EricRoberts
EricRoberts 16. April 2025 12:36:53 GMT

시스코 경고 정말 무섭네요! FraudGPT 같은 LLM이 날뛰는 건 마치 디스토피아 영화 같아요. 사이버 공격이 변하고 있다는 게 정말 놀랍네요. 보안 설정을 다시 확인하고 싶어지네요. 여러분도 조금 불안해지지 않나요? 😅

AndrewGarcía
AndrewGarcía 16. April 2025 12:36:53 GMT

O aviso da Cisco é assustador! Quer dizer, esses LLMs descontrolados como o FraudGPT parecem saídos de um filme distópico. É louco como estão mudando os ciberataques. Me dá vontade de verificar minhas configurações de segurança, sem brincadeira! Alguém mais se sentindo um pouco paranoico agora? 😅

AnthonyPerez
AnthonyPerez 16. April 2025 12:36:53 GMT

¡La advertencia de Cisco es súper escalofriante! Quiero decir, estos LLMs fuera de control como FraudGPT parecen sacados de una película distópica. Es increíble cómo están cambiando los ciberataques. Me dan ganas de revisar mis configuraciones de seguridad, ¡no es broma! ¿Alguien más se siente un poco paranoico ahora? 😅

JackRoberts
JackRoberts 16. April 2025 21:01:38 GMT

Just tried Cisco Warns and it's scary how accurate it is about rogue AI! Makes you think twice about the future of cybersecurity. The tool itself is a bit clunky to navigate, but the insights are spot on. Definitely a must-have for anyone in the field, but maybe a smoother interface next time? 🤔

Back to Top
OR