

4 Mẹo bảo mật chuyên gia cho các doanh nghiệp để điều hướng các mối đe dọa mạng do AI cung cấp vào năm 2025

Tội phạm mạng hiện đang sử dụng Trí tuệ nhân tạo (AI) để tăng cường mọi giai đoạn của các cuộc tấn công của họ. Họ sử dụng các mô hình ngôn ngữ lớn (LLM) để tạo ra các email lừa đảo được cá nhân hóa cao, thu thập các chi tiết cá nhân từ phương tiện truyền thông xã hội và mạng chuyên nghiệp. Trong khi đó, các mạng đối nghịch (GAN) được sử dụng để tạo ra âm thanh và video Deepfake, có thể lừa các hệ thống xác thực đa yếu tố. Ngay cả những đứa trẻ kịch bản đang tham gia vào hành động, sử dụng các công cụ tự động như Wormgpt để triển khai phần mềm độc hại đa hình có thể thay đổi và tránh các phương pháp phát hiện truyền thống.
Đây không chỉ là các mối đe dọa giả thuyết; Bây giờ họ đang xảy ra. Các công ty không điều chỉnh các chiến lược an ninh của họ sẽ phải đối mặt với một làn sóng các mối đe dọa mạng tinh vi không chỉ vào năm 2025, mà còn hơn thế nữa.
Bạn muốn đi trước trong kỷ nguyên AI? Bạn có hai lựa chọn: Xây dựng AI vào hoạt động của bạn hoặc sử dụng AI để nâng cao doanh nghiệp của bạn.
Để đi sâu hơn về cách AI định hình lại an ninh doanh nghiệp, tôi đã có một cuộc trò chuyện với Bradon Rogers, giám đốc tùy chỉnh tại Island và một chuyên gia an ninh mạng dày dạn kinh nghiệm. Chúng tôi đã thảo luận về cảnh quan phát triển của an ninh kỹ thuật số, phát hiện mối đe dọa sớm và các chiến lược để chuẩn bị cho nhóm của bạn cho các cuộc tấn công điều khiển AI. Nhưng trước tiên, hãy đặt sân khấu với một số bối cảnh.
Tại sao các mối đe dọa an ninh mạng AI khác nhau
AI trang bị cho các diễn viên độc hại với các công cụ tiên tiến làm cho các cuộc tấn công mạng được nhắm mục tiêu, thuyết phục và khó phát hiện hơn. Chẳng hạn, các hệ thống AI thế hệ ngày nay có thể sàng lọc các bộ dữ liệu lớn về thông tin cá nhân, truyền thông doanh nghiệp và phương tiện truyền thông xã hội để điều chỉnh các chiến dịch lừa đảo trông giống như chúng từ các nguồn đáng tin cậy. Khi được kết hợp với phần mềm độc hại tự động thích nghi với các biện pháp bảo mật, quy mô và hiệu quả của các cuộc tấn công này tăng vọt.
Deepfake Technology tiến xa hơn bằng cách tạo nội dung video và âm thanh thực tế, cho phép mọi thứ từ lừa đảo mạo danh điều hành đến các chiến dịch thông tin sai lệch quy mô lớn. Chúng tôi đã thấy các ví dụ trong thế giới thực, giống như một vụ trộm cắp 25 triệu đô la từ một công ty Hồng Kông thông qua một hội nghị video Deepfake, và nhiều trường hợp mà các clip giọng nói do AI tạo ra đã lừa mọi người chuyển tiền để lừa đảo.
Các cuộc tấn công mạng tự động điều khiển AI cũng đã giới thiệu các hệ thống "thiết lập và dữ liệu" liên tục tìm kiếm các lỗ hổng, điều chỉnh các biện pháp đối phó và khai thác các điểm yếu mà không có bất kỳ đầu vào của con người. Một trường hợp đáng chú ý là Vi phạm AWS 2024, trong đó phần mềm độc hại do AI cung cấp mạng, đã xác định các lỗ hổng và thực hiện một cuộc tấn công phức tạp làm tổn hại hàng ngàn tài khoản khách hàng.
Những sự cố này cho thấy AI không chỉ tăng cường các mối đe dọa mạng hiện tại; Đó là sinh sản hoàn toàn các loại rủi ro bảo mật mới. Đây là cách Bradon Rogers gợi ý giải quyết những thách thức này.
1. Thực hiện kiến trúc không tin tưởng
Mô hình chu vi an ninh cũ không cắt giảm nó nữa so với các mối đe dọa được tăng cường AI. Kiến trúc không tin tưởng theo cách tiếp cận "không bao giờ tin cậy, luôn xác minh", đảm bảo rằng mọi người dùng, thiết bị và ứng dụng phải được xác thực và ủy quyền trước khi truy cập tài nguyên. Phương pháp này giảm thiểu rủi ro truy cập trái phép, ngay cả khi những kẻ tấn công quản lý để vào mạng.
"Các công ty cần xác minh mọi người dùng, thiết bị và ứng dụng, bao gồm cả AI trước khi họ có thể chạm vào dữ liệu hoặc chức năng quan trọng", Rogers nhấn mạnh, gọi đây là chiến lược phòng thủ tốt nhất. Bằng cách liên tục xác minh danh tính và thực thi các điều khiển truy cập chặt chẽ, các doanh nghiệp có thể thu nhỏ bề mặt tấn công của họ và hạn chế thiệt hại từ các tài khoản bị xâm phạm.
Trong khi AI đặt ra những thách thức mới, nó cũng mang đến các công cụ phòng thủ mạnh mẽ cho bàn. Các giải pháp bảo mật điều khiển AI có thể phân tích một lượng dữ liệu khổng lồ trong thời gian thực, phát hiện ra sự bất thường và các mối đe dọa tiềm năng mà các phương pháp truyền thống có thể bỏ lỡ. Các hệ thống này có thể thích nghi với các mô hình tấn công mới, cung cấp một biện pháp phòng thủ năng động chống lại các cuộc tấn công mạng do AI cung cấp.
Rogers cảnh báo rằng AI trong phòng thủ không gian mạng không nên được coi là một tính năng khác. "Các CISO và các nhà lãnh đạo an ninh cần xây dựng AI thành hệ thống của họ từ đầu," ông nói. Bằng cách tích hợp AI vào cơ sở hạ tầng bảo mật của họ, các tổ chức có thể tăng khả năng phát hiện và ứng phó với các sự cố một cách nhanh chóng, thu hẹp cơ hội cho những kẻ tấn công.
2. Giáo dục và đào tạo nhân viên về các mối đe dọa điều khiển AI
Bằng cách thúc đẩy văn hóa nhận thức bảo mật và thiết lập các hướng dẫn rõ ràng cho việc sử dụng các công cụ AI, các công ty có thể giảm nguy cơ mắc các lỗ hổng nội bộ. Rốt cuộc, mọi người rất phức tạp, và thường, các giải pháp đơn giản hoạt động tốt nhất.
"Đó không chỉ là để chống lại các cuộc tấn công bên ngoài. Đó còn là về việc thiết lập ranh giới cho nhân viên sử dụng AI làm 'mã gian lận năng suất của họ'", Rogers giải thích.
Lỗi của con người vẫn là một điểm yếu lớn trong an ninh mạng. Khi các cuộc tấn công hiện đại và kỹ thuật xã hội do AI tạo ra sẽ trở nên thuyết phục hơn, điều quan trọng là phải giáo dục nhân viên về các mối đe dọa đang phát triển này. Đào tạo thường xuyên có thể giúp họ phát hiện ra các hoạt động đáng ngờ, như các email bất ngờ hoặc các yêu cầu bất thường phá vỡ các thủ tục thông thường.
3. Giám sát và điều chỉnh việc sử dụng AI của nhân viên
Các công nghệ AI được áp dụng rộng rãi giữa các doanh nghiệp, nhưng việc sử dụng không được bảo vệ hoặc không được giám sát mà được gọi là "Shadow AI", giới thiệu các rủi ro bảo mật nghiêm trọng. Nhân viên có thể vô tình sử dụng các ứng dụng AI mà không cần bảo mật thích hợp, dẫn đến rò rỉ dữ liệu hoặc các vấn đề tuân thủ.
"Chúng tôi không thể để dữ liệu doanh nghiệp chảy tự do vào các môi trường AI không được xác nhận, vì vậy chúng tôi cần tìm sự cân bằng", Rogers lưu ý. Các chính sách chi phối các công cụ AI, kiểm toán thường xuyên và đảm bảo tất cả các ứng dụng AI đáp ứng các tiêu chuẩn bảo mật của công ty là chìa khóa để quản lý các rủi ro này.
4. Hợp tác với AI và các chuyên gia an ninh mạng
Sự phức tạp của các mối đe dọa điều khiển AI có nghĩa là các công ty cần làm việc với các chuyên gia về AI và an ninh mạng. Hợp tác với các công ty bên ngoài có thể cho phép các tổ chức truy cập vào trí thông minh mối đe dọa mới nhất, công nghệ phòng thủ tiên tiến và các kỹ năng chuyên môn mà họ có thể không có trong nhà.
Các cuộc tấn công do AI cung cấp yêu cầu phòng thủ tinh vi mà các công cụ bảo mật truyền thống thường không thể cung cấp. Các nền tảng phát hiện mối đe dọa AI được tăng cường, các trình duyệt an toàn và các điều khiển truy cập Trust không có thể phân tích hành vi của người dùng, phát hiện sự bất thường và ngăn chặn các tác nhân độc hại có quyền truy cập trái phép.
Rogers chỉ ra rằng các giải pháp sáng tạo cho các doanh nghiệp "là phần còn thiếu trong câu đố bảo mật không có sự tin tưởng. Các công cụ này cung cấp các điều khiển bảo mật sâu, sâu để bảo vệ bất kỳ ứng dụng hoặc tài nguyên nào trên các mạng công cộng và tư nhân."
Các công cụ này sử dụng học máy để theo dõi hoạt động mạng, gắn cờ các mẫu đáng ngờ và tự động hóa phản ứng sự cố, giảm nguy cơ các cuộc tấn công do AI tạo ra trượt qua các hệ thống công ty.
Bài viết liên quan
Microsoft mã nguồn mở trình soạn thảo CLI tại Build
Microsoft Dồn Lực Mã Nguồn Mở Tại Build 2025Tại hội nghị Build 2025 năm nay, Microsoft đã có những bước đi lớn trong thế giới mã nguồn mở, phát hành nhiều công cụ và ứng dụng quan
OpenAI nâng cấp mô hình AI của Operator Agent
OpenAI Đưa Operator Lên Tầm Cao MớiOpenAI đang nâng cấp lớn cho trợ lý AI tự động Operator của mình. Những thay đổi sắp tới đồng nghĩa Operator sẽ sớm chạy trên mô hình o3 - một tr
Quỹ tương lai AI của Google có thể phải cẩn trọng trong hoạt động
Chiến Dịch Đầu Tư Mới Của Google Vào AI: Một Sự Điều Chỉnh Chiến Lược Trước Sự Giám Sát Của Cơ Quan Quản LýThông báo gần đây của Google về Quỹ Tương Lai AI đánh dấu một bước đi dũn
Nhận xét (5)
0/200
JerryMitchell
22:19:14 GMT Ngày 22 tháng 4 năm 2025
This tool is a must-have for any business looking to stay ahead of AI-powered cyber threats in 2025! The tips are super practical and easy to implement. My only gripe is that it could use more real-world examples. Still, it's a solid resource! 👍
0
GregoryWilson
07:56:41 GMT Ngày 22 tháng 4 năm 2025
2025年のAIによるサイバー攻撃に対抗するためのビジネス向けのツールとして、これは必須です!アドバイスが実用的で導入しやすいです。ただ、もう少し実例が欲しいですね。それでも、素晴らしいリソースです!👍
0
MateoAdams
18:37:05 GMT Ngày 24 tháng 4 năm 2025
2025년 AI로 인한 사이버 위협을 대비하기 위한 비즈니스 필수 도구입니다! 팁들이 실용적이고 쉽게 적용할 수 있어요. 다만, 실제 사례가 더 필요할 것 같아요. 그래도 훌륭한 자원이에요! 👍
0
SamuelRoberts
07:31:53 GMT Ngày 24 tháng 4 năm 2025
Esta ferramenta é essencial para qualquer negócio que deseje se proteger contra ameaças cibernéticas alimentadas por IA em 2025! As dicas são super práticas e fáceis de implementar. Minha única reclamação é que poderia ter mais exemplos do mundo real. Ainda assim, é um recurso sólido! 👍
0
ChristopherAllen
03:36:08 GMT Ngày 23 tháng 4 năm 2025
¡Esta herramienta es imprescindible para cualquier negocio que quiera estar preparado para las amenazas cibernéticas impulsadas por IA en 2025! Los consejos son muy prácticos y fáciles de implementar. Mi única queja es que podría tener más ejemplos del mundo real. Aún así, es un recurso sólido! 👍
0
Tội phạm mạng hiện đang sử dụng Trí tuệ nhân tạo (AI) để tăng cường mọi giai đoạn của các cuộc tấn công của họ. Họ sử dụng các mô hình ngôn ngữ lớn (LLM) để tạo ra các email lừa đảo được cá nhân hóa cao, thu thập các chi tiết cá nhân từ phương tiện truyền thông xã hội và mạng chuyên nghiệp. Trong khi đó, các mạng đối nghịch (GAN) được sử dụng để tạo ra âm thanh và video Deepfake, có thể lừa các hệ thống xác thực đa yếu tố. Ngay cả những đứa trẻ kịch bản đang tham gia vào hành động, sử dụng các công cụ tự động như Wormgpt để triển khai phần mềm độc hại đa hình có thể thay đổi và tránh các phương pháp phát hiện truyền thống.
Đây không chỉ là các mối đe dọa giả thuyết; Bây giờ họ đang xảy ra. Các công ty không điều chỉnh các chiến lược an ninh của họ sẽ phải đối mặt với một làn sóng các mối đe dọa mạng tinh vi không chỉ vào năm 2025, mà còn hơn thế nữa.
Bạn muốn đi trước trong kỷ nguyên AI? Bạn có hai lựa chọn: Xây dựng AI vào hoạt động của bạn hoặc sử dụng AI để nâng cao doanh nghiệp của bạn.
Để đi sâu hơn về cách AI định hình lại an ninh doanh nghiệp, tôi đã có một cuộc trò chuyện với Bradon Rogers, giám đốc tùy chỉnh tại Island và một chuyên gia an ninh mạng dày dạn kinh nghiệm. Chúng tôi đã thảo luận về cảnh quan phát triển của an ninh kỹ thuật số, phát hiện mối đe dọa sớm và các chiến lược để chuẩn bị cho nhóm của bạn cho các cuộc tấn công điều khiển AI. Nhưng trước tiên, hãy đặt sân khấu với một số bối cảnh.
Tại sao các mối đe dọa an ninh mạng AI khác nhau
AI trang bị cho các diễn viên độc hại với các công cụ tiên tiến làm cho các cuộc tấn công mạng được nhắm mục tiêu, thuyết phục và khó phát hiện hơn. Chẳng hạn, các hệ thống AI thế hệ ngày nay có thể sàng lọc các bộ dữ liệu lớn về thông tin cá nhân, truyền thông doanh nghiệp và phương tiện truyền thông xã hội để điều chỉnh các chiến dịch lừa đảo trông giống như chúng từ các nguồn đáng tin cậy. Khi được kết hợp với phần mềm độc hại tự động thích nghi với các biện pháp bảo mật, quy mô và hiệu quả của các cuộc tấn công này tăng vọt.
Deepfake Technology tiến xa hơn bằng cách tạo nội dung video và âm thanh thực tế, cho phép mọi thứ từ lừa đảo mạo danh điều hành đến các chiến dịch thông tin sai lệch quy mô lớn. Chúng tôi đã thấy các ví dụ trong thế giới thực, giống như một vụ trộm cắp 25 triệu đô la từ một công ty Hồng Kông thông qua một hội nghị video Deepfake, và nhiều trường hợp mà các clip giọng nói do AI tạo ra đã lừa mọi người chuyển tiền để lừa đảo.
Các cuộc tấn công mạng tự động điều khiển AI cũng đã giới thiệu các hệ thống "thiết lập và dữ liệu" liên tục tìm kiếm các lỗ hổng, điều chỉnh các biện pháp đối phó và khai thác các điểm yếu mà không có bất kỳ đầu vào của con người. Một trường hợp đáng chú ý là Vi phạm AWS 2024, trong đó phần mềm độc hại do AI cung cấp mạng, đã xác định các lỗ hổng và thực hiện một cuộc tấn công phức tạp làm tổn hại hàng ngàn tài khoản khách hàng.
Những sự cố này cho thấy AI không chỉ tăng cường các mối đe dọa mạng hiện tại; Đó là sinh sản hoàn toàn các loại rủi ro bảo mật mới. Đây là cách Bradon Rogers gợi ý giải quyết những thách thức này.
1. Thực hiện kiến trúc không tin tưởng
Mô hình chu vi an ninh cũ không cắt giảm nó nữa so với các mối đe dọa được tăng cường AI. Kiến trúc không tin tưởng theo cách tiếp cận "không bao giờ tin cậy, luôn xác minh", đảm bảo rằng mọi người dùng, thiết bị và ứng dụng phải được xác thực và ủy quyền trước khi truy cập tài nguyên. Phương pháp này giảm thiểu rủi ro truy cập trái phép, ngay cả khi những kẻ tấn công quản lý để vào mạng.
"Các công ty cần xác minh mọi người dùng, thiết bị và ứng dụng, bao gồm cả AI trước khi họ có thể chạm vào dữ liệu hoặc chức năng quan trọng", Rogers nhấn mạnh, gọi đây là chiến lược phòng thủ tốt nhất. Bằng cách liên tục xác minh danh tính và thực thi các điều khiển truy cập chặt chẽ, các doanh nghiệp có thể thu nhỏ bề mặt tấn công của họ và hạn chế thiệt hại từ các tài khoản bị xâm phạm.
Trong khi AI đặt ra những thách thức mới, nó cũng mang đến các công cụ phòng thủ mạnh mẽ cho bàn. Các giải pháp bảo mật điều khiển AI có thể phân tích một lượng dữ liệu khổng lồ trong thời gian thực, phát hiện ra sự bất thường và các mối đe dọa tiềm năng mà các phương pháp truyền thống có thể bỏ lỡ. Các hệ thống này có thể thích nghi với các mô hình tấn công mới, cung cấp một biện pháp phòng thủ năng động chống lại các cuộc tấn công mạng do AI cung cấp.
Rogers cảnh báo rằng AI trong phòng thủ không gian mạng không nên được coi là một tính năng khác. "Các CISO và các nhà lãnh đạo an ninh cần xây dựng AI thành hệ thống của họ từ đầu," ông nói. Bằng cách tích hợp AI vào cơ sở hạ tầng bảo mật của họ, các tổ chức có thể tăng khả năng phát hiện và ứng phó với các sự cố một cách nhanh chóng, thu hẹp cơ hội cho những kẻ tấn công.
2. Giáo dục và đào tạo nhân viên về các mối đe dọa điều khiển AI
Bằng cách thúc đẩy văn hóa nhận thức bảo mật và thiết lập các hướng dẫn rõ ràng cho việc sử dụng các công cụ AI, các công ty có thể giảm nguy cơ mắc các lỗ hổng nội bộ. Rốt cuộc, mọi người rất phức tạp, và thường, các giải pháp đơn giản hoạt động tốt nhất.
"Đó không chỉ là để chống lại các cuộc tấn công bên ngoài. Đó còn là về việc thiết lập ranh giới cho nhân viên sử dụng AI làm 'mã gian lận năng suất của họ'", Rogers giải thích.
Lỗi của con người vẫn là một điểm yếu lớn trong an ninh mạng. Khi các cuộc tấn công hiện đại và kỹ thuật xã hội do AI tạo ra sẽ trở nên thuyết phục hơn, điều quan trọng là phải giáo dục nhân viên về các mối đe dọa đang phát triển này. Đào tạo thường xuyên có thể giúp họ phát hiện ra các hoạt động đáng ngờ, như các email bất ngờ hoặc các yêu cầu bất thường phá vỡ các thủ tục thông thường.
3. Giám sát và điều chỉnh việc sử dụng AI của nhân viên
Các công nghệ AI được áp dụng rộng rãi giữa các doanh nghiệp, nhưng việc sử dụng không được bảo vệ hoặc không được giám sát mà được gọi là "Shadow AI", giới thiệu các rủi ro bảo mật nghiêm trọng. Nhân viên có thể vô tình sử dụng các ứng dụng AI mà không cần bảo mật thích hợp, dẫn đến rò rỉ dữ liệu hoặc các vấn đề tuân thủ.
"Chúng tôi không thể để dữ liệu doanh nghiệp chảy tự do vào các môi trường AI không được xác nhận, vì vậy chúng tôi cần tìm sự cân bằng", Rogers lưu ý. Các chính sách chi phối các công cụ AI, kiểm toán thường xuyên và đảm bảo tất cả các ứng dụng AI đáp ứng các tiêu chuẩn bảo mật của công ty là chìa khóa để quản lý các rủi ro này.
4. Hợp tác với AI và các chuyên gia an ninh mạng
Sự phức tạp của các mối đe dọa điều khiển AI có nghĩa là các công ty cần làm việc với các chuyên gia về AI và an ninh mạng. Hợp tác với các công ty bên ngoài có thể cho phép các tổ chức truy cập vào trí thông minh mối đe dọa mới nhất, công nghệ phòng thủ tiên tiến và các kỹ năng chuyên môn mà họ có thể không có trong nhà.
Các cuộc tấn công do AI cung cấp yêu cầu phòng thủ tinh vi mà các công cụ bảo mật truyền thống thường không thể cung cấp. Các nền tảng phát hiện mối đe dọa AI được tăng cường, các trình duyệt an toàn và các điều khiển truy cập Trust không có thể phân tích hành vi của người dùng, phát hiện sự bất thường và ngăn chặn các tác nhân độc hại có quyền truy cập trái phép.
Rogers chỉ ra rằng các giải pháp sáng tạo cho các doanh nghiệp "là phần còn thiếu trong câu đố bảo mật không có sự tin tưởng. Các công cụ này cung cấp các điều khiển bảo mật sâu, sâu để bảo vệ bất kỳ ứng dụng hoặc tài nguyên nào trên các mạng công cộng và tư nhân."
Các công cụ này sử dụng học máy để theo dõi hoạt động mạng, gắn cờ các mẫu đáng ngờ và tự động hóa phản ứng sự cố, giảm nguy cơ các cuộc tấn công do AI tạo ra trượt qua các hệ thống công ty.



This tool is a must-have for any business looking to stay ahead of AI-powered cyber threats in 2025! The tips are super practical and easy to implement. My only gripe is that it could use more real-world examples. Still, it's a solid resource! 👍




2025年のAIによるサイバー攻撃に対抗するためのビジネス向けのツールとして、これは必須です!アドバイスが実用的で導入しやすいです。ただ、もう少し実例が欲しいですね。それでも、素晴らしいリソースです!👍




2025년 AI로 인한 사이버 위협을 대비하기 위한 비즈니스 필수 도구입니다! 팁들이 실용적이고 쉽게 적용할 수 있어요. 다만, 실제 사례가 더 필요할 것 같아요. 그래도 훌륭한 자원이에요! 👍




Esta ferramenta é essencial para qualquer negócio que deseje se proteger contra ameaças cibernéticas alimentadas por IA em 2025! As dicas são super práticas e fáceis de implementar. Minha única reclamação é que poderia ter mais exemplos do mundo real. Ainda assim, é um recurso sólido! 👍




¡Esta herramienta es imprescindible para cualquier negocio que quiera estar preparado para las amenazas cibernéticas impulsadas por IA en 2025! Los consejos son muy prácticos y fáciles de implementar. Mi única queja es que podría tener más ejemplos del mundo real. Aún así, es un recurso sólido! 👍












