Cisco предупреждает: LLMS с тонкой настройкой в 22 раза чаще станет мошенничеством
# cisco
# LLMs
# APIs
# saas
# csco
# goog-2
# msft-2
# nvda-2
# darkgpt
# darkweb
# fraudgpt
# ghostgpt
# zeroday
Оружие в виде больших языковых моделей меняет кибератаки
Ландшафт кибератак претерпевает значительные изменения, обусловленные появлением оружейных больших языковых моделей (LLM). Эти продвинутые модели, такие как FraudGPT, GhostGPT и DarkGPT, перестраивают стратегии киберпреступников и заставляют главных специалистов по информационной безопасности (CISO) пересматривать свои протоколы безопасности. Благодаря возможностям автоматизации разведки, имитации личностей и уклонения от обнаружения, эти LLM ускоряют атаки социальной инженерии в беспрецедентных масштабах.
Доступные всего за 75 долларов в месяц, эти модели адаптированы для наступательного использования, облегчая такие задачи, как фишинг, генерация эксплойтов, обфускация кода, сканирование уязвимостей и валидация кредитных карт. Киберпреступные группы, синдикаты и даже национальные государства используют эти инструменты, предлагая их в виде платформ, наборов и услуг аренды. Подобно легитимным приложениям типа "программное обеспечение как услуга" (SaaS), оружейные LLM поставляются с панелями управления, API, регулярными обновлениями и иногда даже поддержкой клиентов.
VentureBeat внимательно следит за быстрым развитием этих оружейных LLM. По мере роста их сложности различие между платформами разработчиков и наборами для киберпреступлений становится всё более размытым. С падением цен на аренду и лизинг всё больше злоумышленников изучают эти платформы, что знаменует новую эру угроз, управляемых искусственным интеллектом.
Легитимные LLM под угрозой
Распространение оружейных LLM достигло точки, когда даже легитимные LLM подвергаются риску компрометации и интеграции в криминальные цепочки инструментов. Согласно отчёту Cisco Состояние безопасности ИИ, доработанные LLM в 22 раза чаще производят вредоносные результаты, чем их базовые аналоги. Хотя доработка необходима для повышения контекстной релевантности, она также ослабляет меры безопасности, делая модели более уязвимыми для взломов, инъекций промптов и инверсии моделей.
Исследования Cisco подчёркивают, что чем больше модель дорабатывается для производства, тем уязвимее она становится. Основные процессы, связанные с доработкой, такие как непрерывные корректировки, интеграции сторонних разработчиков, кодирование, тестирование и агентная оркестрация, создают новые пути для эксплуатации злоумышленниками. Попав внутрь, злоумышленники могут быстро отравлять данные, захватывать инфраструктуру, изменять поведение агентов и извлекать обучающие данные в больших масштабах. Без дополнительных уровней безопасности эти тщательно доработанные модели могут быстро стать уязвимостями, готовыми к эксплуатации злоумышленниками.
Доработка LLM: обоюдоострый меч
Команда безопасности Cisco провела обширные исследования влияния доработки на несколько моделей, включая Llama-2-7B и специализированные адаптивные LLM от Microsoft. Их тесты охватывали различные сектора, включая здравоохранение, финансы и право. Ключевое открытие заключалось в том, что доработка, даже с чистыми наборами данных, дестабилизирует выравнивание моделей, особенно в строго регулируемых областях, таких как биомедицина и право.
Хотя доработка направлена на улучшение производительности задач, она невольно подрывает встроенные механизмы безопасности. Попытки взлома, которые обычно не проходят против базовых моделей, имеют гораздо более высокую вероятность успеха против доработанных версий, особенно в чувствительных доменах с жёсткими требованиями соответствия. Результаты поразительны: уровень успеха взломов утроился, а генерация вредоносных выходных данных увеличилась на 2200% по сравнению с базовыми моделями. Этот компромисс означает, что, хотя доработка повышает полезность, она также значительно расширяет поверхность атаки.

Коммодитизация вредоносных LLM
Cisco Talos активно отслеживает рост этих чернорыночных LLM, предоставляя информацию об их операциях. Модели, такие как GhostGPT, DarkGPT и FraudGPT, доступны в Telegram и дарквебе всего за 75 долларов в месяц. Эти инструменты предназначены для использования по принципу "подключи и работай" в фишинге, разработке эксплойтов, валидации кредитных карт и обфускации.

В отличие от мейнстримных моделей с встроенными функциями безопасности, эти вредоносные LLM предварительно настроены для наступательных операций и поставляются с API, обновлениями и панелями управления, которые имитируют коммерческие продукты SaaS.
Отравление наборов данных: угроза за 60 долларов для цепочек поставок ИИ
Исследователи Cisco в сотрудничестве с Google, ETH Zurich и Nvidia показали, что всего за 60 долларов злоумышленники могут отравлять базовые наборы данных ИИ без необходимости использования эксплойтов нулевого дня. Используя просроченные домены или тайминг правок в Википедии во время архивирования наборов данных, злоумышленники могут загрязнять всего 0.01% наборов данных, таких как LAION-400M или COYO-700M, значительно влияя на последующие LLM.
Методы, такие как отравление разделённого вида и атаки с опережением, используют присущее доверие к данным, собранным из интернета. Поскольку большинство корпоративных LLM строятся на открытых данных, эти атаки могут масштабироваться незаметно и сохраняться глубоко в конвейерах вывода, представляя серьёзную угрозу для цепочек поставок ИИ.
Атаки декомпозиции: извлечение чувствительных данных
Одно из самых тревожных открытий исследований Cisco — способность LLM раскрывать чувствительные обучающие данные без срабатывания механизмов безопасности. Используя технику декомпозиционного промптинга, исследователи восстановили более 20% избранных статей из The New York Times и The Wall Street Journal. Этот метод разбивает промпты на подзапросы, которые считаются безопасными для защитных барьеров, а затем собирает выходные данные для воссоздания платного или защищённого авторским правом контента.
Этот тип атак представляет значительный риск для предприятий, особенно тех, которые используют LLM, обученные на проприетарных или лицензированных наборах данных. Нарушение происходит не на уровне ввода, а через выходные данные модели, что затрудняет обнаружение, аудит или сдерживание. Для организаций в регулируемых секторах, таких как здравоохранение, финансы или право, это не только вызывает опасения по поводу соответствия GDPR, HIPAA или CCPA, но также вводит новый класс рисков, когда юридически полученные данные могут быть раскрыты через вывод.
Заключительные мысли: LLM как новая поверхность атаки
Продолжающиеся исследования Cisco и мониторинг дарквеба Talos подтверждают, что оружейные LLM становятся всё более сложными, с разворачивающейся войной цен и упаковки в дарквебе. Выводы подчёркивают, что LLM — это не просто инструменты на периферии предприятия; они являются его ядром. От рисков, связанных с доработкой, до отравления наборов данных и утечек выходных данных моделей, злоумышленники рассматривают LLM как критическую инфраструктуру для эксплуатации.
Ключевой вывод из отчёта Cisco ясен: статические барьеры больше не достаточны. CISO и лидеры безопасности должны получить реальную видимость своего ИТ-имущества в реальном времени, усилить тестирование на противодействие и оптимизировать свои технологические стеки, чтобы не отставать от этих развивающихся угроз. Они должны признать, что LLM и модели представляют динамическую поверхность атаки, которая становится всё более уязвимой по мере их доработки.
Связанная статья
Как Оттавская больница использует AI для снижения выгорания врачей на 70%, достижения 97% удовлетворенности пациентов
Как AI трансформирует здравоохранение: Снижение выгорания и улучшение ухода за пациентамиПроблема: Перегрузка врачей и доступ пациентовСистемы здравоохранения по всему миру сталкиваются с двойной проб
Новая статья раскрывает, сколько данных на самом деле запоминают LLM
Сколько на самом деле запоминают модели ИИ? Новое исследование раскрывает удивительные выводыВсе мы знаем, что большие языковые модели (LLM), такие как ChatGPT, Claude и Gemini, обучаются на огромных
Компания Deep Cogito представила первые модели открытого исходного кода и уже лидирует в рейтингах
Deep Cogito выходит с революционными моделями ИИВ прорывном шаге компания Deep Cogito, передовая стартап по исследованию ИИ, расположенная в Сан-Франциско, официально представила с
Комментарии (30)
JerryMoore
25 апреля 2025 г., 8:31:29 GMT+03:00
Cisco Warns를 사용해보니 LLM이 22배나 더 폭주할 수 있다는 사실에 놀랐어요. FraudGPT 뉴스를 보고 정말 소름이 돋았어요. 온라인에서 더 조심해야겠어요. 보안을 강화할 때가 온 것 같아요! 😅
0
RichardJackson
24 апреля 2025 г., 5:08:25 GMT+03:00
このツールはサイバーセキュリティの目覚まし時計ですね!ローグLLMの統計は恐ろしいけど、目を開かせるものです。これらのモデルが武器化される可能性を考えると圧倒されますが、重要な情報です。保護方法についてもっと知りたいですね!😅
0
AndrewGarcía
23 апреля 2025 г., 17:31:51 GMT+03:00
Essa ferramenta é um alerta para a cibersegurança! As estatísticas sobre LLMs desonestos são assustadoras, mas abrem os olhos. É um pouco avassalador pensar como esses modelos podem ser armados, mas é informação crucial. Talvez mais sobre como se proteger contra eles seria ótimo! 😅
0
MatthewGonzalez
23 апреля 2025 г., 9:48:48 GMT+03:00
Essa ferramenta realmente me fez ver como o AI pode ser perigoso! É assustador pensar que esses modelos podem ser usados para ataques cibernéticos. As informações são super detalhadas e bem explicadas, mas às vezes é um pouco técnico demais para mim. Ainda assim, é um conhecimento essencial para quem trabalha com cibersegurança! 😱
0
FrankLopez
22 апреля 2025 г., 3:59:59 GMT+03:00
This tool is a wake-up call for cybersecurity! The stats on rogue LLMs are scary but eye-opening. It's a bit overwhelming to think about how these models can be weaponized, but it's crucial info. Maybe a bit more on how to protect against them would be great! 😅
0
JonathanKing
22 апреля 2025 г., 3:57:04 GMT+03:00
¡Esta herramienta es una llamada de atención para la ciberseguridad! Las estadísticas sobre LLMs rebeldes son aterradoras pero reveladoras. Es abrumador pensar en cómo estos modelos pueden ser armados, pero es información crucial. Quizás un poco más sobre cómo protegerse de ellos sería genial! 😅
0
Оружие в виде больших языковых моделей меняет кибератаки
Ландшафт кибератак претерпевает значительные изменения, обусловленные появлением оружейных больших языковых моделей (LLM). Эти продвинутые модели, такие как FraudGPT, GhostGPT и DarkGPT, перестраивают стратегии киберпреступников и заставляют главных специалистов по информационной безопасности (CISO) пересматривать свои протоколы безопасности. Благодаря возможностям автоматизации разведки, имитации личностей и уклонения от обнаружения, эти LLM ускоряют атаки социальной инженерии в беспрецедентных масштабах.
Доступные всего за 75 долларов в месяц, эти модели адаптированы для наступательного использования, облегчая такие задачи, как фишинг, генерация эксплойтов, обфускация кода, сканирование уязвимостей и валидация кредитных карт. Киберпреступные группы, синдикаты и даже национальные государства используют эти инструменты, предлагая их в виде платформ, наборов и услуг аренды. Подобно легитимным приложениям типа "программное обеспечение как услуга" (SaaS), оружейные LLM поставляются с панелями управления, API, регулярными обновлениями и иногда даже поддержкой клиентов.
VentureBeat внимательно следит за быстрым развитием этих оружейных LLM. По мере роста их сложности различие между платформами разработчиков и наборами для киберпреступлений становится всё более размытым. С падением цен на аренду и лизинг всё больше злоумышленников изучают эти платформы, что знаменует новую эру угроз, управляемых искусственным интеллектом.
Легитимные LLM под угрозой
Распространение оружейных LLM достигло точки, когда даже легитимные LLM подвергаются риску компрометации и интеграции в криминальные цепочки инструментов. Согласно отчёту Cisco Состояние безопасности ИИ, доработанные LLM в 22 раза чаще производят вредоносные результаты, чем их базовые аналоги. Хотя доработка необходима для повышения контекстной релевантности, она также ослабляет меры безопасности, делая модели более уязвимыми для взломов, инъекций промптов и инверсии моделей.
Исследования Cisco подчёркивают, что чем больше модель дорабатывается для производства, тем уязвимее она становится. Основные процессы, связанные с доработкой, такие как непрерывные корректировки, интеграции сторонних разработчиков, кодирование, тестирование и агентная оркестрация, создают новые пути для эксплуатации злоумышленниками. Попав внутрь, злоумышленники могут быстро отравлять данные, захватывать инфраструктуру, изменять поведение агентов и извлекать обучающие данные в больших масштабах. Без дополнительных уровней безопасности эти тщательно доработанные модели могут быстро стать уязвимостями, готовыми к эксплуатации злоумышленниками.
Доработка LLM: обоюдоострый меч
Команда безопасности Cisco провела обширные исследования влияния доработки на несколько моделей, включая Llama-2-7B и специализированные адаптивные LLM от Microsoft. Их тесты охватывали различные сектора, включая здравоохранение, финансы и право. Ключевое открытие заключалось в том, что доработка, даже с чистыми наборами данных, дестабилизирует выравнивание моделей, особенно в строго регулируемых областях, таких как биомедицина и право.
Хотя доработка направлена на улучшение производительности задач, она невольно подрывает встроенные механизмы безопасности. Попытки взлома, которые обычно не проходят против базовых моделей, имеют гораздо более высокую вероятность успеха против доработанных версий, особенно в чувствительных доменах с жёсткими требованиями соответствия. Результаты поразительны: уровень успеха взломов утроился, а генерация вредоносных выходных данных увеличилась на 2200% по сравнению с базовыми моделями. Этот компромисс означает, что, хотя доработка повышает полезность, она также значительно расширяет поверхность атаки.
Коммодитизация вредоносных LLM
Cisco Talos активно отслеживает рост этих чернорыночных LLM, предоставляя информацию об их операциях. Модели, такие как GhostGPT, DarkGPT и FraudGPT, доступны в Telegram и дарквебе всего за 75 долларов в месяц. Эти инструменты предназначены для использования по принципу "подключи и работай" в фишинге, разработке эксплойтов, валидации кредитных карт и обфускации.
В отличие от мейнстримных моделей с встроенными функциями безопасности, эти вредоносные LLM предварительно настроены для наступательных операций и поставляются с API, обновлениями и панелями управления, которые имитируют коммерческие продукты SaaS.
Отравление наборов данных: угроза за 60 долларов для цепочек поставок ИИ
Исследователи Cisco в сотрудничестве с Google, ETH Zurich и Nvidia показали, что всего за 60 долларов злоумышленники могут отравлять базовые наборы данных ИИ без необходимости использования эксплойтов нулевого дня. Используя просроченные домены или тайминг правок в Википедии во время архивирования наборов данных, злоумышленники могут загрязнять всего 0.01% наборов данных, таких как LAION-400M или COYO-700M, значительно влияя на последующие LLM.
Методы, такие как отравление разделённого вида и атаки с опережением, используют присущее доверие к данным, собранным из интернета. Поскольку большинство корпоративных LLM строятся на открытых данных, эти атаки могут масштабироваться незаметно и сохраняться глубоко в конвейерах вывода, представляя серьёзную угрозу для цепочек поставок ИИ.
Атаки декомпозиции: извлечение чувствительных данных
Одно из самых тревожных открытий исследований Cisco — способность LLM раскрывать чувствительные обучающие данные без срабатывания механизмов безопасности. Используя технику декомпозиционного промптинга, исследователи восстановили более 20% избранных статей из The New York Times и The Wall Street Journal. Этот метод разбивает промпты на подзапросы, которые считаются безопасными для защитных барьеров, а затем собирает выходные данные для воссоздания платного или защищённого авторским правом контента.
Этот тип атак представляет значительный риск для предприятий, особенно тех, которые используют LLM, обученные на проприетарных или лицензированных наборах данных. Нарушение происходит не на уровне ввода, а через выходные данные модели, что затрудняет обнаружение, аудит или сдерживание. Для организаций в регулируемых секторах, таких как здравоохранение, финансы или право, это не только вызывает опасения по поводу соответствия GDPR, HIPAA или CCPA, но также вводит новый класс рисков, когда юридически полученные данные могут быть раскрыты через вывод.
Заключительные мысли: LLM как новая поверхность атаки
Продолжающиеся исследования Cisco и мониторинг дарквеба Talos подтверждают, что оружейные LLM становятся всё более сложными, с разворачивающейся войной цен и упаковки в дарквебе. Выводы подчёркивают, что LLM — это не просто инструменты на периферии предприятия; они являются его ядром. От рисков, связанных с доработкой, до отравления наборов данных и утечек выходных данных моделей, злоумышленники рассматривают LLM как критическую инфраструктуру для эксплуатации.
Ключевой вывод из отчёта Cisco ясен: статические барьеры больше не достаточны. CISO и лидеры безопасности должны получить реальную видимость своего ИТ-имущества в реальном времени, усилить тестирование на противодействие и оптимизировать свои технологические стеки, чтобы не отставать от этих развивающихся угроз. Они должны признать, что LLM и модели представляют динамическую поверхность атаки, которая становится всё более уязвимой по мере их доработки.




Cisco Warns를 사용해보니 LLM이 22배나 더 폭주할 수 있다는 사실에 놀랐어요. FraudGPT 뉴스를 보고 정말 소름이 돋았어요. 온라인에서 더 조심해야겠어요. 보안을 강화할 때가 온 것 같아요! 😅




このツールはサイバーセキュリティの目覚まし時計ですね!ローグLLMの統計は恐ろしいけど、目を開かせるものです。これらのモデルが武器化される可能性を考えると圧倒されますが、重要な情報です。保護方法についてもっと知りたいですね!😅




Essa ferramenta é um alerta para a cibersegurança! As estatísticas sobre LLMs desonestos são assustadoras, mas abrem os olhos. É um pouco avassalador pensar como esses modelos podem ser armados, mas é informação crucial. Talvez mais sobre como se proteger contra eles seria ótimo! 😅




Essa ferramenta realmente me fez ver como o AI pode ser perigoso! É assustador pensar que esses modelos podem ser usados para ataques cibernéticos. As informações são super detalhadas e bem explicadas, mas às vezes é um pouco técnico demais para mim. Ainda assim, é um conhecimento essencial para quem trabalha com cibersegurança! 😱




This tool is a wake-up call for cybersecurity! The stats on rogue LLMs are scary but eye-opening. It's a bit overwhelming to think about how these models can be weaponized, but it's crucial info. Maybe a bit more on how to protect against them would be great! 😅




¡Esta herramienta es una llamada de atención para la ciberseguridad! Las estadísticas sobre LLMs rebeldes son aterradoras pero reveladoras. Es abrumador pensar en cómo estos modelos pueden ser armados, pero es información crucial. Quizás un poco más sobre cómo protegerse de ellos sería genial! 😅












