вариант
Дом
Новости
Исследователь обманывает ИИ в создание хромированных инфостайлеров, несмотря на то, что не хватает навыков кодирования вредоносных программ

Исследователь обманывает ИИ в создание хромированных инфостайлеров, несмотря на то, что не хватает навыков кодирования вредоносных программ

16 апреля 2025 г.
83

Исследователь обманывает ИИ в создание хромированных инфостайлеров, несмотря на то, что не хватает навыков кодирования вредоносных программ

Генеративный ИИ стал обоюдоострым мечом, вызывая столько же споров, сколько и инноваций, особенно в области инфраструктуры безопасности. Cato Networks, ведущий поставщик решений для корпоративной безопасности, пролил свет на новый метод манипуляции чат-ботами ИИ. Их отчет Cato CTRL Threat Report за 2025 год, опубликованный во вторник, подробно описывает, как исследователь без опыта написания вредоносного кода смог обмануть несколько моделей ИИ, включая DeepSeek R1 и V3, Microsoft Copilot и GPT-4o от OpenAI, заставив их создать "полностью функциональные" инфостилеры для Chrome. Эти вредоносные программы предназначены для кражи конфиденциальных данных, таких как пароли и финансовая информация, из браузеров Chrome.

Исследователь применил креативную тактику, названную "Immersive World," чтобы обойти меры безопасности этих систем ИИ. Создав детализированную вымышленную вселенную, в которой каждый инструмент ИИ имел определенные роли, задачи и вызовы, исследователь смог нормализовать ограниченные операции, эффективно обходя существующие протоколы безопасности.

Техника Immersive World

Техника взлома "Immersive World" вызывает особую озабоченность из-за широкого использования чат-ботов, на которых работают эти модели ИИ. Хотя модели DeepSeek известны меньшим количеством защитных механизмов и ранее уже подвергались взлому, тот факт, что Copilot и GPT-4o, поддерживаемые компаниями с мощными командами по безопасности, также оказались уязвимы, подчеркивает слабость путей косвенной манипуляции.

Этай Маор, главный стратег по безопасности Cato, отметил: "Наша новая техника взлома LLM [...] должна была быть заблокирована защитными механизмами генеративного ИИ. Этого не произошло." В отчете Cato также упоминается, что, хотя компания уведомила затронутые стороны, реакции были разными. DeepSeek не ответил, тогда как OpenAI и Microsoft признали выводы. Google, с другой стороны, подтвердил получение информации, но отказался рассматривать код Cato.

Тревожный сигнал для профессионалов в области безопасности

Выводы Cato служат тревожным сигналом для индустрии безопасности, демонстрируя, как даже люди без специальных знаний могут представлять значительную угрозу для предприятий. С учетом того, что барьеры для манипуляции ИИ становятся все ниже, злоумышленникам требуется меньше технических навыков для успешных атак.

Решение, по мнению Cato, заключается в принятии стратегий безопасности на основе ИИ. Сосредоточив обучение в области безопасности на развивающемся ландшафте угроз, основанных на ИИ, команды могут оставаться на шаг впереди. Для получения дополнительных идей о подготовке предприятий к этим вызовам ознакомьтесь с советами эксперта.

Оставайтесь в курсе последних новостей в области безопасности, подписавшись на Tech Today, доставляемую в ваш почтовый ящик каждое утро.

Связанная статья
Anthropic разрешила судебное дело о пиратстве книг, созданных искусственным интеллектом Anthropic разрешила судебное дело о пиратстве книг, созданных искусственным интеллектом Компания Anthropic достигла разрешения значительного спора с американскими авторами по поводу авторских прав, согласившись на предложенное урегулирование коллективного иска, которое позволит избежать
Meta делится доходами с владельцами моделей искусственного интеллекта Llama, говорится в заявлении Meta делится доходами с владельцами моделей искусственного интеллекта Llama, говорится в заявлении Хотя в июле 2023 года генеральный директор Meta Марк Цукерберг подчеркнул, что "продажа доступа" не является бизнес-моделью для моделей ИИ Llama, недавно обнародованные судебные документы показывают,
Разблокируйте 99 % скрытых данных, теперь оптимизированных для искусственного интеллекта Разблокируйте 99 % скрытых данных, теперь оптимизированных для искусственного интеллекта На протяжении многих поколений организации разных отраслей понимали, что накопленная ими информация представляет собой преобразующий актив, способный улучшить взаимодействие с клиентами и сформировать
ThomasYoung
ThomasYoung 21 апреля 2025 г., 7:08:07 GMT+03:00

Esse truque de AI para criar infostealers do Chrome é loucura! 😱 Sem habilidades de codificação necessárias? Isso é assustador, mas também meio legal. Me faz pensar em como nossos dados estão realmente seguros. Mas tenho que dar crédito pela criatividade! 🔍

CharlesJohnson
CharlesJohnson 20 апреля 2025 г., 22:21:57 GMT+03:00

¡Este truco de IA para crear infostealers de Chrome es una locura! 😱 ¿Sin habilidades de codificación necesarias? Eso es aterrador pero también un poco genial. Me hace preguntarme cuán seguros están realmente nuestros datos. Pero hay que reconocer la creatividad! 🔍

GaryWilson
GaryWilson 20 апреля 2025 г., 6:53:10 GMT+03:00

크롬 정보 도둑 프로그램을 만드는 AI 트릭이 대단해! 😱 코딩 기술이 필요 없다고? 무섭지만 좀 멋지기도 해. 우리 데이터가 정말 안전한지 궁금해지네. 그래도 창의성에는 박수를 보내! 🔍

WillGarcía
WillGarcía 19 апреля 2025 г., 0:49:42 GMT+03:00

Chromeの情報窃盗ツールを作るAIのトリックがすごい!😱 コーディングのスキルが不要って、怖いけどちょっとかっこいいね。データの安全性が本当にどうなのか気になる。でも創造性には敬意を表するよ!🔍

LawrenceRodriguez
LawrenceRodriguez 16 апреля 2025 г., 18:09:52 GMT+03:00

This AI trick to make Chrome infostealers is wild! 😱 No coding skills needed? That's scary but also kinda cool. Makes me wonder how safe our data really is. Gotta give props to the creativity though! 🔍

Вернуться к вершине
OR