4 Экспертные советы по обеспечению безопасности для предприятий, чтобы ориентироваться

Киберпреступники в настоящее время используют искусственный интеллект (ИИ) для улучшения каждой стадии их атак. Они используют большие языковые модели (LLMS) для создания высоко персонализированных фишинговых электронных писем, собирая личные данные из социальных сетей и профессиональных сетей. Между тем, генеративные состязательные сети (GAN) используются для производства глубокофального звука и видео, которые могут обмануть многофакторные системы аутентификации. Даже сценарии детей участвуют в действии, используя такие автоматизированные инструменты, как WormGPT для развертывания полиморфных вредоносных программ, которые могут изменить и уклоняться от традиционных методов обнаружения.
Это не просто гипотетические угрозы; Они сейчас происходят. Компании, которые не адаптируют свои стратегии безопасности, столкнутся с волной сложных киберугроз не только в 2025 году, но и за ее пределами.
Хотите остаться впереди в эпоху ИИ? У вас есть два варианта: встроить ИИ в свою деятельность или использовать ИИ для улучшения вашего бизнеса.
Чтобы глубже погрузиться в то, как ИИ меняет безопасность предприятия, я поболтал с Брэдоном Роджерсом, главным офицером на Island и опытным экспертом по кибербезопасности. Мы обсудили развивающийся ландшафт цифровой безопасности, обнаружения ранней угрозы и стратегий подготовки вашей команды к атакам, управляемым искусственным интеллектом. Но сначала давайте подготовим почву с некоторым контекстом.
Почему угрозы кибербезопасности ИИ разные
ИИ дает вредоносных актеров передовыми инструментами, которые делают кибератаки более целенаправленными, убедительными и трудными для обнаружения. Например, сегодняшние генеративные системы ИИ могут просеивать массовые наборы данных личной информации, корпоративных коммуникаций и социальных сетей, чтобы адаптировать фишинговые кампании, которые выглядят так, как будто они из надежных источников. В сочетании с вредоносными программами, которые автоматически адаптируются к мерам безопасности, масштаб и эффективность этих атак взлетают.
Технология DeepFake делает еще один шаг, создавая реалистичный видео и аудиоконтент, позволяя всем, от мошенничества с исполнительным иминическим воздействием до крупномасштабных кампаний дезинформации. Мы видели реальные примеры, такие как кража в 25 миллионов долларов от компании Гонконг, посредством видеоконфессиональной видеоконференции, и многочисленные случаи, когда сгенерированные AI голосовые клипы заставили людей передавать деньги мошенникам.
Автоматизированные кибер-атаки, управляемые ИИ, также ввели системы «установки и установки», которые постоянно ищут уязвимости, приспосабливаются к контрмерам и используют слабые стороны без какого-либо человеческого ввода. Примечательным случаем стал нарушение AWS в 2024 году, где вредоносное ПО на основе AI нанесло на карту сеть, определенные уязвимости и выполнила сложную атаку, которая скомпрометировала тысячи учетных записей клиентов.
Эти инциденты показывают, что ИИ не просто улучшает существующие киберугрозы; Это нерест совершенно новые типы рисков безопасности. Вот как Брэдон Роджерс предлагает решить эти проблемы.
1. Реализация архитектуры нулевого достопримечательностей
Старая модель по периметру безопасности больше не преодолевает ее против AR-усиленных угроз. Архитектура с нулевым дозом следует подходу «никогда не доверять, всегда проверять», гарантируя, что каждый пользователь, устройство и приложение должно быть аутентифицировано и авторизовано перед доступом к ресурсам. Этот метод сводит к минимуму риск несанкционированного доступа, даже если злоумышленники смогут попасть в сеть.
«Компании должны проверить каждого пользователя, устройства и приложения, включая ИИ, прежде чем они могут прикоснуться к критическим данным или функциям», - подчеркивает Роджерс, называя это лучшей стратегией защиты. Постоянно проверяя идентичности и обеспечивая жесткий контроль доступа, предприятия могут сократить поверхность атаки и ограничить ущерб от скомпрометированных счетов.
В то время как ИИ создает новые проблемы, он также привносит мощные защитные инструменты в таблицу. Решения безопасности, управляемые ИИ, могут анализировать огромные объемы данных в режиме реального времени, обнаруживая аномалии и потенциальные угрозы, которые могут упустить традиционные методы. Эти системы могут адаптироваться к новым моделям атаки, предлагая динамическую защиту от кибератаков с AI.
Роджерс предупреждает, что с искусственным искусством в кибер -обороне не следует рассматривать как еще одну особенность. «CISO и лидеры безопасности должны построить ИИ в свои системы с нуля», - говорит он. Интегрируя ИИ в свою инфраструктуру безопасности, организации могут повысить свою способность быстро обнаруживать и реагировать на инциденты, сужая окно возможностей для злоумышленников.
2. Обучать и обучать сотрудников на угрозах, основанных на искусственном интеллекте
Создавая культуру осведомленности о безопасности и устанавливая четкие руководящие принципы для использования инструментов ИИ, компании могут снизить риск внутренних уязвимостей. В конце концов, люди сложны, и часто простые решения работают лучше всего.
«Речь идет не только о том, чтобы отказаться от внешних атак. Речь идет о установке границ для сотрудников, использующих ИИ в качестве« чит -код производительности », - объясняет Роджерс.
Человеческая ошибка по -прежнему является основным слабым местом в кибербезопасности. Поскольку AI, сгенерированные AI, атаки фишинга и социальной инженерии становятся более убедительными, очень важно рассказать сотрудникам об этих развивающихся угрозах. Регулярное обучение может помочь им определить подозрительные действия, такие как неожиданные электронные письма или необычные запросы, которые отрываются от обычных процедур.
3. Мониторинг и регулирование использования ИИ работника
Технологии ИИ широко используются в разных предприятиях, но несанкционированное или некнутрированное использование - то, что известно как «теневой ИИ» - может представить серьезные риски безопасности. Сотрудники могут случайно использовать приложения ИИ без надлежащей безопасности, что приводит к утечкам данных или вопросам соответствия.
«Мы не можем свободно позволить корпоративным данным погрузиться в несанкционированные среды ИИ, поэтому нам нужно найти баланс», - отмечает Роджерс. Политики, которые регулируют инструменты искусственного интеллекта, регулярные проверки и обеспечение того, чтобы все заявки на ИИ соответствовали стандартам безопасности компании, являются ключом к управлению этими рисками.
4. Сотрудничество с ИИ и экспертами по кибербезопасности
Сложность угроз, основанных на искусственном интеллекте, означает, что компании должны работать с экспертами в области ИИ и кибербезопасности. Партнерство с внешними фирмами может дать организациям доступ к новейшим интеллекту угроз, передовым защитным технологиям и специализированным навыкам, которые у них могут не быть собственных.
Атаки с AI требуют сложной защиты, которую часто не могут предоставить традиционные инструменты безопасности. Платформы обнаружения угроз, усиленные AI, безопасные браузеры и контроль доступа с нулевым доступом могут анализировать поведение пользователей, обнаружить аномалии и помешать злонамеренным субъектам получить несанкционированный доступ.
Роджерс отмечает, что инновационные решения для предприятий «являются недостающей частью головоломки безопасности нулевого достопримечательностей. Эти инструменты предлагают глубокие, гранулированные управления безопасности, которые защищают любое приложение или ресурс в государственных и частных сетях».
Эти инструменты используют машинное обучение, чтобы следить за сетевой деятельностью, помечать подозрительные закономерности и автоматизировать реагирование на инциденты, снижая риск атак, сгенерированных AI, проскользнуть в корпоративные системы.
Связанная статья
Microsoft открывает исходный код CLI-редактора на Build
Microsoft делает ставку на open-source на конференции Build 2025На ежегодной конференции Build 2025 Microsoft совершила серьезные шаги в мире open-source, выпустив несколько ключев
OpenAI улучшает ИИ-модель, лежащую в основе Operator Agent
OpenAI выводит Operator на новый уровеньOpenAI представляет масштабное обновление для своего автономного ИИ-агента Operator. В скором времени Operator перейдет на модель o3 — одну
Фонд будущего ИИ Google, возможно, должен действовать осторожно
Инвестиционная инициатива Google в области ИИ: стратегический поворот на фоне регуляторного вниманияОбъявление Google о создании фонда AI Futures Fund является смелым шагом в стрем
Комментарии (5)
JerryMitchell
22 апреля 2025 г., 22:19:14 GMT
This tool is a must-have for any business looking to stay ahead of AI-powered cyber threats in 2025! The tips are super practical and easy to implement. My only gripe is that it could use more real-world examples. Still, it's a solid resource! 👍
0
GregoryWilson
22 апреля 2025 г., 7:56:41 GMT
2025年のAIによるサイバー攻撃に対抗するためのビジネス向けのツールとして、これは必須です!アドバイスが実用的で導入しやすいです。ただ、もう少し実例が欲しいですね。それでも、素晴らしいリソースです!👍
0
MateoAdams
24 апреля 2025 г., 18:37:05 GMT
2025년 AI로 인한 사이버 위협을 대비하기 위한 비즈니스 필수 도구입니다! 팁들이 실용적이고 쉽게 적용할 수 있어요. 다만, 실제 사례가 더 필요할 것 같아요. 그래도 훌륭한 자원이에요! 👍
0
SamuelRoberts
24 апреля 2025 г., 7:31:53 GMT
Esta ferramenta é essencial para qualquer negócio que deseje se proteger contra ameaças cibernéticas alimentadas por IA em 2025! As dicas são super práticas e fáceis de implementar. Minha única reclamação é que poderia ter mais exemplos do mundo real. Ainda assim, é um recurso sólido! 👍
0
ChristopherAllen
23 апреля 2025 г., 3:36:08 GMT
¡Esta herramienta es imprescindible para cualquier negocio que quiera estar preparado para las amenazas cibernéticas impulsadas por IA en 2025! Los consejos son muy prácticos y fáciles de implementar. Mi única queja es que podría tener más ejemplos del mundo real. Aún así, es un recurso sólido! 👍
0
Киберпреступники в настоящее время используют искусственный интеллект (ИИ) для улучшения каждой стадии их атак. Они используют большие языковые модели (LLMS) для создания высоко персонализированных фишинговых электронных писем, собирая личные данные из социальных сетей и профессиональных сетей. Между тем, генеративные состязательные сети (GAN) используются для производства глубокофального звука и видео, которые могут обмануть многофакторные системы аутентификации. Даже сценарии детей участвуют в действии, используя такие автоматизированные инструменты, как WormGPT для развертывания полиморфных вредоносных программ, которые могут изменить и уклоняться от традиционных методов обнаружения.
Это не просто гипотетические угрозы; Они сейчас происходят. Компании, которые не адаптируют свои стратегии безопасности, столкнутся с волной сложных киберугроз не только в 2025 году, но и за ее пределами.
Хотите остаться впереди в эпоху ИИ? У вас есть два варианта: встроить ИИ в свою деятельность или использовать ИИ для улучшения вашего бизнеса.
Чтобы глубже погрузиться в то, как ИИ меняет безопасность предприятия, я поболтал с Брэдоном Роджерсом, главным офицером на Island и опытным экспертом по кибербезопасности. Мы обсудили развивающийся ландшафт цифровой безопасности, обнаружения ранней угрозы и стратегий подготовки вашей команды к атакам, управляемым искусственным интеллектом. Но сначала давайте подготовим почву с некоторым контекстом.
Почему угрозы кибербезопасности ИИ разные
ИИ дает вредоносных актеров передовыми инструментами, которые делают кибератаки более целенаправленными, убедительными и трудными для обнаружения. Например, сегодняшние генеративные системы ИИ могут просеивать массовые наборы данных личной информации, корпоративных коммуникаций и социальных сетей, чтобы адаптировать фишинговые кампании, которые выглядят так, как будто они из надежных источников. В сочетании с вредоносными программами, которые автоматически адаптируются к мерам безопасности, масштаб и эффективность этих атак взлетают.
Технология DeepFake делает еще один шаг, создавая реалистичный видео и аудиоконтент, позволяя всем, от мошенничества с исполнительным иминическим воздействием до крупномасштабных кампаний дезинформации. Мы видели реальные примеры, такие как кража в 25 миллионов долларов от компании Гонконг, посредством видеоконфессиональной видеоконференции, и многочисленные случаи, когда сгенерированные AI голосовые клипы заставили людей передавать деньги мошенникам.
Автоматизированные кибер-атаки, управляемые ИИ, также ввели системы «установки и установки», которые постоянно ищут уязвимости, приспосабливаются к контрмерам и используют слабые стороны без какого-либо человеческого ввода. Примечательным случаем стал нарушение AWS в 2024 году, где вредоносное ПО на основе AI нанесло на карту сеть, определенные уязвимости и выполнила сложную атаку, которая скомпрометировала тысячи учетных записей клиентов.
Эти инциденты показывают, что ИИ не просто улучшает существующие киберугрозы; Это нерест совершенно новые типы рисков безопасности. Вот как Брэдон Роджерс предлагает решить эти проблемы.
1. Реализация архитектуры нулевого достопримечательностей
Старая модель по периметру безопасности больше не преодолевает ее против AR-усиленных угроз. Архитектура с нулевым дозом следует подходу «никогда не доверять, всегда проверять», гарантируя, что каждый пользователь, устройство и приложение должно быть аутентифицировано и авторизовано перед доступом к ресурсам. Этот метод сводит к минимуму риск несанкционированного доступа, даже если злоумышленники смогут попасть в сеть.
«Компании должны проверить каждого пользователя, устройства и приложения, включая ИИ, прежде чем они могут прикоснуться к критическим данным или функциям», - подчеркивает Роджерс, называя это лучшей стратегией защиты. Постоянно проверяя идентичности и обеспечивая жесткий контроль доступа, предприятия могут сократить поверхность атаки и ограничить ущерб от скомпрометированных счетов.
В то время как ИИ создает новые проблемы, он также привносит мощные защитные инструменты в таблицу. Решения безопасности, управляемые ИИ, могут анализировать огромные объемы данных в режиме реального времени, обнаруживая аномалии и потенциальные угрозы, которые могут упустить традиционные методы. Эти системы могут адаптироваться к новым моделям атаки, предлагая динамическую защиту от кибератаков с AI.
Роджерс предупреждает, что с искусственным искусством в кибер -обороне не следует рассматривать как еще одну особенность. «CISO и лидеры безопасности должны построить ИИ в свои системы с нуля», - говорит он. Интегрируя ИИ в свою инфраструктуру безопасности, организации могут повысить свою способность быстро обнаруживать и реагировать на инциденты, сужая окно возможностей для злоумышленников.
2. Обучать и обучать сотрудников на угрозах, основанных на искусственном интеллекте
Создавая культуру осведомленности о безопасности и устанавливая четкие руководящие принципы для использования инструментов ИИ, компании могут снизить риск внутренних уязвимостей. В конце концов, люди сложны, и часто простые решения работают лучше всего.
«Речь идет не только о том, чтобы отказаться от внешних атак. Речь идет о установке границ для сотрудников, использующих ИИ в качестве« чит -код производительности », - объясняет Роджерс.
Человеческая ошибка по -прежнему является основным слабым местом в кибербезопасности. Поскольку AI, сгенерированные AI, атаки фишинга и социальной инженерии становятся более убедительными, очень важно рассказать сотрудникам об этих развивающихся угрозах. Регулярное обучение может помочь им определить подозрительные действия, такие как неожиданные электронные письма или необычные запросы, которые отрываются от обычных процедур.
3. Мониторинг и регулирование использования ИИ работника
Технологии ИИ широко используются в разных предприятиях, но несанкционированное или некнутрированное использование - то, что известно как «теневой ИИ» - может представить серьезные риски безопасности. Сотрудники могут случайно использовать приложения ИИ без надлежащей безопасности, что приводит к утечкам данных или вопросам соответствия.
«Мы не можем свободно позволить корпоративным данным погрузиться в несанкционированные среды ИИ, поэтому нам нужно найти баланс», - отмечает Роджерс. Политики, которые регулируют инструменты искусственного интеллекта, регулярные проверки и обеспечение того, чтобы все заявки на ИИ соответствовали стандартам безопасности компании, являются ключом к управлению этими рисками.
4. Сотрудничество с ИИ и экспертами по кибербезопасности
Сложность угроз, основанных на искусственном интеллекте, означает, что компании должны работать с экспертами в области ИИ и кибербезопасности. Партнерство с внешними фирмами может дать организациям доступ к новейшим интеллекту угроз, передовым защитным технологиям и специализированным навыкам, которые у них могут не быть собственных.
Атаки с AI требуют сложной защиты, которую часто не могут предоставить традиционные инструменты безопасности. Платформы обнаружения угроз, усиленные AI, безопасные браузеры и контроль доступа с нулевым доступом могут анализировать поведение пользователей, обнаружить аномалии и помешать злонамеренным субъектам получить несанкционированный доступ.
Роджерс отмечает, что инновационные решения для предприятий «являются недостающей частью головоломки безопасности нулевого достопримечательностей. Эти инструменты предлагают глубокие, гранулированные управления безопасности, которые защищают любое приложение или ресурс в государственных и частных сетях».
Эти инструменты используют машинное обучение, чтобы следить за сетевой деятельностью, помечать подозрительные закономерности и автоматизировать реагирование на инциденты, снижая риск атак, сгенерированных AI, проскользнуть в корпоративные системы.



This tool is a must-have for any business looking to stay ahead of AI-powered cyber threats in 2025! The tips are super practical and easy to implement. My only gripe is that it could use more real-world examples. Still, it's a solid resource! 👍




2025年のAIによるサイバー攻撃に対抗するためのビジネス向けのツールとして、これは必須です!アドバイスが実用的で導入しやすいです。ただ、もう少し実例が欲しいですね。それでも、素晴らしいリソースです!👍




2025년 AI로 인한 사이버 위협을 대비하기 위한 비즈니스 필수 도구입니다! 팁들이 실용적이고 쉽게 적용할 수 있어요. 다만, 실제 사례가 더 필요할 것 같아요. 그래도 훌륭한 자원이에요! 👍




Esta ferramenta é essencial para qualquer negócio que deseje se proteger contra ameaças cibernéticas alimentadas por IA em 2025! As dicas são super práticas e fáceis de implementar. Minha única reclamação é que poderia ter mais exemplos do mundo real. Ainda assim, é um recurso sólido! 👍




¡Esta herramienta es imprescindible para cualquier negocio que quiera estar preparado para las amenazas cibernéticas impulsadas por IA en 2025! Los consejos son muy prácticos y fáciles de implementar. Mi única queja es que podría tener más ejemplos del mundo real. Aún así, es un recurso sólido! 👍












