Дом Новости Cisco предупреждает: LLMS с тонкой настройкой в ​​22 раза чаще станет мошенничеством

Cisco предупреждает: LLMS с тонкой настройкой в ​​22 раза чаще станет мошенничеством

16 апреля 2025 г.
RaymondKing
4

Оружие крупные языковые модели изменяют кибератаки

Ландшафт кибератак претерпевает значительную трансформацию, вызванную появлением вооруженных крупных языковых моделей (LLMS). Эти передовые модели, такие как мошенничество, Ghostgpt и DarkGPT, изменяют стратегии киберпреступников и заставляют главных сотрудников информационной безопасности (CISO) переосмыслить свои протоколы безопасности. Благодаря возможности автоматизации разведки, выявления идентичностей и обнаружения уклонения, эти LLM ускоряют атаки социальной инженерии в беспрецедентном масштабе.

Эти модели доступны всего за 75 долларов в месяц, адаптированы для оскорбительного использования, содействия таким задачам, как фишинг, генерация эксплойтов, запутывание кода, сканирование уязвимости и проверка кредитной карты. Группы киберпреступности, синдикаты и даже национальные государства используют эти инструменты, предлагая их в качестве платформ, наборов и лизинговых услуг. Подобно законным приложениям программного обеспечения как услуги (SAAS), вооруженные LLMS поставляются с информационными панелями, API, регулярными обновлениями и иногда даже поддержкой клиентов.

VentureBeat тщательно контролирует быструю эволюцию этих вооруженных сил. По мере роста их изысканности различие между платформами разработчиков и киберпреступностью становится все более размытым. С падением аренды и арендной платы, все больше злоумышленников изучают эти платформы, предвещают новую эру угроз, управляемых искусственным интеллектом.

Законные LLM под угрозой

Распространение вооруженных LLMS достигло точки, когда даже законные LLM подвергаются риску скомпрометирования и интеграции в уголовные наборы. Согласно отчету Cisco о состоянии безопасности AI , тонкие настройки LLMS в 22 раза чаще производят вредные результаты, чем их базовые аналоги. Хотя тонкая настройка имеет решающее значение для повышения контекстуальной значимости, она также ослабляет меры безопасности, что делает модели более восприимчивыми к джейлбрейкам, быстрым инъекциям и инверсии модели.

Исследование Cisco подчеркивает, что чем больше модель уточняется для производства, тем более уязвимым оно становится. Основные процессы, связанные с тонкой настройкой, такие как постоянные корректировки, сторонние интеграции, кодирование, тестирование и агентская оркестровая, создают новые возможности для злоумышленников для эксплуатации. Оказавшись внутри, злоумышленники могут быстро отравить данные, угонять инфраструктуру, изменять поведение агента и извлекать данные обучения в больших масштабах. Без дополнительных слоев безопасности эти тщательно настроенные модели могут быстро стать обязательствами, созревшими для эксплуатации злоумышленниками.

Тонкая настройка LLMS: обоюдоострый меч

Команда безопасности Cisco провела обширные исследования о влиянии точной настройки на несколько моделей, включая Llama-2-7B и Adapt Adapt LLMS Microsoft и Microsoft. Их тесты охватывали различные сектора, включая здравоохранение, финансы и закон. Ключевым выводом было то, что тонкая настройка, даже с чистыми наборами данных, дестабилизирует выравнивание моделей, особенно в высокорегулируемых областях, таких как биомедицина и закон.

Хотя тонкая настройка направлена ​​на повышение производительности задачи, она непреднамеренно подрывает встроенные средства безопасности. Попытки джейлбрейка, которые обычно терпят неудачу против моделей фундамента, добиваются гораздо более высоких показателей против тонких настраиваемых версий, особенно в чувствительных областях со строгими требованиями соответствия. Результаты являются резкими: показатели успеха джейлбрейка утроились, а генерация вредоносной продукции увеличилась на 2200% по сравнению с моделями фундамента. Этот компромисс означает, что, хотя тонкая настройка повышает полезность, он также значительно расширяет поверхность атаки.

Tap достигает до 98% успеха джейлбрейка, превосходя другие методы в LLM с открытым и закрытым исходным кодом. Источник: Cisco State of AI Security 2025, с. 16

Коммодитизация злонамеренных LLMS

Cisco Talos активно отслеживает рост этих LLMS Black-Market, предоставляя представление об их операциях. Такие модели, как Ghostgpt, Darkgpt и Frudgpt, доступны на Telegram и Dark Web всего за 75 долларов в месяц. Эти инструменты предназначены для использования подключаемой игры в фишинге, разработке эксплойтов, проверке кредитных карт и запутывании.

DarkGPT Underground Dashboard предлагает «интеллект без цензуры» и доступ на основе подписки всего за 0,0098 BTC-в качестве злоумышленных LLMS как SaaS потребительского уровня. Источник: Cisco State of AI Security 2025, с. 9

В отличие от основных моделей со встроенными функциями безопасности, эти злонамеренные LLM предварительно сконфигурируются для наступательных операций и поставляются с API, обновлениями и информационными панелями, которые имитируют коммерческие продукты SaaS.

Отравление набором данных: угроза 60 долларов для цепочек поставок искусственного интеллекта

Исследователи Cisco, в сотрудничестве с Google, Eth Zurich и Nvidia, показали, что всего за 60 долларов злоумышленники могут отравить основополагающие наборы данных моделей ИИ без необходимости эксплойтов нулевого дня. Используя срок действия доменов или временных исследований во время архивирования наборов данных, злоумышленники могут загрязнять всего лишь 0,01% наборов данных, таких как Laion-400M или Coyo-700M, что значительно влияет на LLMS.

Такие методы, как отравление разделенным видом и лидерные атаки, используют преимущества неотъемлемого доверия к данным, полным карета. С большинством Enterprise LLM, построенных на открытых данных, эти атаки могут тихо масштабироваться и сохраняться глубоко в трубопроводы по выводу, представляя серьезную угрозу для цепочек поставок искусственного интеллекта.

Атаки разложения: извлечение конфиденциальных данных

Одним из наиболее тревожных результатов исследования Cisco является способность LLMS утекать чувствительные к данным обучения без запуска механизмов безопасности. Используя методику, называемую подсказкой разложения, исследователи реконструировали более 20% избранных статей из New York Times и Wall Street Journal . Этот метод разбивает подсказки на подразделы, которые считаются безопасными ограждениями, а затем собирают выходы для воссоздания платного или авторского права.

Этот тип атаки представляет значительный риск для предприятий, особенно те, которые использовали LLMS, обученные частным или лицензированным наборам данных. Нарушение происходит не на уровне ввода, а через выходы модели, что затрудняет обнаружение, аудит или содержание. Для организаций в регулируемых секторах, таких как здравоохранение, финансы или закон, это не только вызывает обеспокоенность по поводу соответствия GDPR, HIPAA или CCPA, но также вносит новый класс риска, где данные юридически источника могут быть выявлены путем вывода.

Последние мысли: LLMS как новая поверхность атаки

Продолжающиеся исследования Cisco и мониторинг темной веб -сайта Talos подтверждают, что вооруженные LLMS становятся все более сложными, а в темной паутине разворачивается война в цене и упаковке. Результаты подчеркивают, что LLM - это не просто инструменты на краю предприятия; Они являются неотъемлемой частью его ядра. От рисков, связанных с тонкой настройкой, до отравления наборами данных и утечек вывода модели, злоумышленники рассматривают LLMS как критическую инфраструктуру, которая будет использоваться.

Ключевой вывод из отчета Cisco ясен: статических ограждений больше недостаточно. CISO и лидеры безопасности должны получить видимость в режиме реального времени по всему ИТ-имуществом, улучшать состязательные испытания и оптимизировать свой технический стек, чтобы идти в ногу с этими развивающимися угрозами. Они должны признать, что LLM и модели представляют собой динамическую поверхность атаки, которая становится все более уязвимой, поскольку они настраиваются.

Связанная статья
MCP는 도구 및 데이터와 AI 연결을 표준화합니다. 새로운 프로토콜이 나타납니다. MCP는 도구 및 데이터와 AI 연결을 표준화합니다. 새로운 프로토콜이 나타납니다. 인공 지능의 세계로 뛰어 들고 있다면 아마도 다른 AI 모델, 데이터 소스 및 도구를 잘 수행하는 것이 얼마나 중요한지 알았을 것입니다. MCP (Model Context Protocol)가 등장하여 AI 연결을 표준화하는 게임 체인저 역할을합니다. 티
DeepCoder는 14B 오픈 모델로 높은 코딩 효율을 달성합니다 DeepCoder는 14B 오픈 모델로 높은 코딩 효율을 달성합니다 DeepCoder-14B 소개 : Openai의 O3-MINI와 같은 최상위 독점 모델을 갖춘 획기적인 코딩 모델 인 AI와 Agentica의 팀은 Open-Source Coding Models의 새로운 프론티어를 소개했습니다. 이 흥미로운 개발은 FO를 기반으로합니다
Google은 Enterprise AI의 은밀하게 능가합니다. Google은 Enterprise AI의 은밀하게 능가합니다. 불과 1 년 전, Google과 Enterprise AI에 대한 버즈는 중립적 인 것처럼 보였습니다. Transformer와 같은 선구적인 기술에도 불구하고, 기술 거인은 Openai의 바이러스 성공, 의인화의 코딩 능력, Microsoft의 EN에 대한 공격적인 추진에 의해 뒤쳐져있는 것처럼 보였습니다.
Комментарии (30)
RaymondGarcia
RaymondGarcia 16 апреля 2025 г., 12:36:53 GMT

Cisco Warns is super scary! I mean, these rogue LLMs like FraudGPT sound like something straight out of a dystopian movie. It's wild how they're changing cyberattacks. Makes me wanna double-check my security settings, no joke! Anyone else feeling a bit paranoid now? 😅

JerryGonzález
JerryGonzález 16 апреля 2025 г., 12:36:53 GMT

シスコの警告、めっちゃ怖いですね! FraudGPTみたいなLLMが暴走するなんて、まるでディストピア映画みたい。サイバー攻撃が変わってるってのが本当に驚きです。セキュリティ設定を再確認したくなりますね。みなさんもちょっと不安になりませんか?😅

EricRoberts
EricRoberts 16 апреля 2025 г., 12:36:53 GMT

시스코 경고 정말 무섭네요! FraudGPT 같은 LLM이 날뛰는 건 마치 디스토피아 영화 같아요. 사이버 공격이 변하고 있다는 게 정말 놀랍네요. 보안 설정을 다시 확인하고 싶어지네요. 여러분도 조금 불안해지지 않나요? 😅

AndrewGarcía
AndrewGarcía 16 апреля 2025 г., 12:36:53 GMT

O aviso da Cisco é assustador! Quer dizer, esses LLMs descontrolados como o FraudGPT parecem saídos de um filme distópico. É louco como estão mudando os ciberataques. Me dá vontade de verificar minhas configurações de segurança, sem brincadeira! Alguém mais se sentindo um pouco paranoico agora? 😅

AnthonyPerez
AnthonyPerez 16 апреля 2025 г., 12:36:53 GMT

¡La advertencia de Cisco es súper escalofriante! Quiero decir, estos LLMs fuera de control como FraudGPT parecen sacados de una película distópica. Es increíble cómo están cambiando los ciberataques. Me dan ganas de revisar mis configuraciones de seguridad, ¡no es broma! ¿Alguien más se siente un poco paranoico ahora? 😅

JackRoberts
JackRoberts 16 апреля 2025 г., 21:01:38 GMT

Just tried Cisco Warns and it's scary how accurate it is about rogue AI! Makes you think twice about the future of cybersecurity. The tool itself is a bit clunky to navigate, but the insights are spot on. Definitely a must-have for anyone in the field, but maybe a smoother interface next time? 🤔

Лучшие новости
Прорыв в обнаружении лесных пожаров: как новое созвездие спутников может обнаруживать меньшие лесные пожары раньше Настройки для дата -центров США могут разблокировать 76 ГВт новой мощности. Workhelix использует многолетние исследования для руководства предприятиями в приложении искусственного интеллекта Adobe представляет 10 специализированных агентов искусственного интеллекта: открыть для себя их бизнес -приложения ИИ может быть ключом к разблокировке более эффективного государственного сектора Великобритании ИИ Cambium превращает отходы в пиломатериалы NoteBooklm добавляет функцию обнаружения веб -источника Пренебрежение этикой ИИ представляет огромные риски: как реализовать ИИ ответственно OpenAI открывает генератор изображений для всех пользователей Великобритания AI Body переименование в институт безопасности, подписывает MOU с антропным
Более
Back to Top
OR