4 Consejos de seguridad de expertos para empresas para navegar por amenazas cibernéticas con IA en 2025

Los ciberdelincuentes ahora usan inteligencia artificial (AI) para mejorar cada etapa de sus ataques. Emplean modelos de lenguaje grandes (LLMs) para crear correos de phishing altamente personalizados, recolectando detalles personales de redes sociales y profesionales. Mientras tanto, las redes generativas antagónicas (GANs) se usan para producir audio y video deepfake, que pueden engañar a los sistemas de autenticación multifactor. Incluso los script kiddies están participando, usando herramientas automatizadas como WormGPT para desplegar malware polimórfico que cambia y evade los métodos de detección tradicionales.
Estas no son solo amenazas hipotéticas; están ocurriendo ahora. Las empresas que no adapten sus estrategias de seguridad enfrentarán una ola de ciberamenazas sofisticadas no solo en 2025, sino más allá.
¿Quieres mantenerte adelante en la era de la AI? Tienes dos opciones: integrar AI en tus operaciones o usar AI para mejorar tu negocio.
Para profundizar en cómo la AI está reconfigurando la seguridad empresarial, tuve una charla con Bradon Rogers, el Chief Custom Officer en Island y un experto en ciberseguridad con experiencia. Discutimos el paisaje cambiante de la seguridad digital, la detección temprana de amenazas y estrategias para preparar a tu equipo para ataques impulsados por AI. Pero primero, dejemos el contexto claro.
Por qué las amenazas de ciberseguridad con AI son diferentes
La AI equipa a los actores maliciosos con herramientas avanzadas que hacen los ciberataques más dirigidos, convincentes y difíciles de detectar. Por ejemplo, los sistemas de AI generativa actuales pueden analizar enormes conjuntos de datos de información personal, comunicaciones corporativas y redes sociales para personalizar campañas de phishing que parecen provenir de fuentes confiables. Cuando se combinan con malware que se adapta automáticamente a las medidas de seguridad, la escala y efectividad de estos ataques se dispara.
La tecnología deepfake lleva esto un paso más allá al crear contenido de video y audio realista, permitiendo desde estafas de suplantación de ejecutivos hasta campañas de desinformación a gran escala. Hemos visto ejemplos del mundo real, como un robo de 25 millones de dólares a una empresa de Hong Kong mediante una videoconferencia deepfake, y numerosos casos donde clips de voz generados por AI engañaron a personas para transferir dinero a estafadores.
Los ciberataques automatizados impulsados por AI también han introducido sistemas de "configurar y olvidar" que buscan constantemente vulnerabilidades, se ajustan a las contramedidas y explotan debilidades sin intervención humana. Un caso notable fue la brecha de AWS en 2024, donde un malware impulsado por AI mapeó la red, identificó vulnerabilidades y ejecutó un ataque complejo que comprometió miles de cuentas de clientes.
Estos incidentes muestran que la AI no solo está mejorando las ciberamenazas existentes; está generando tipos completamente nuevos de riesgos de seguridad. Aquí está cómo Bradon Rogers sugiere abordar estos desafíos.
1. Implementar arquitectura de confianza cero
El antiguo modelo de perímetro de seguridad ya no es suficiente contra las amenazas mejoradas por AI. Una arquitectura de confianza cero sigue un enfoque de "nunca confiar, siempre verificar", asegurando que cada usuario, dispositivo y aplicación debe ser autenticado y autorizado antes de acceder a recursos. Este método minimiza el riesgo de acceso no autorizado, incluso si los atacantes logran entrar en la red.
"Las empresas necesitan verificar a cada usuario, dispositivo y aplicación—incluyendo AI—antes de que puedan tocar datos o funciones críticas," enfatiza Rogers, llamando a esto la mejor estrategia de defensa. Al verificar constantemente las identidades y aplicar controles de acceso estrictos, las empresas pueden reducir su superficie de ataque y limitar el daño de cuentas comprometidas.
Aunque la AI plantea nuevos desafíos, también aporta herramientas defensivas poderosas. Las soluciones de seguridad impulsadas por AI pueden analizar enormes cantidades de datos en tiempo real, detectando anomalías y amenazas potenciales que los métodos tradicionales podrían pasar por alto. Estos sistemas pueden adaptarse a nuevos patrones de ataque, ofreciendo una defensa dinámica contra ciberataques impulsados por AI.
Rogers advierte que la AI en la defensa cibernética no debe tratarse como una característica más. "Los CISOs y líderes de seguridad necesitan integrar la AI en sus sistemas desde cero," dice. Al incorporar AI en su infraestructura de seguridad, las organizaciones pueden aumentar su capacidad para detectar y responder a incidentes rápidamente, reduciendo la ventana de oportunidad para los atacantes.
2. Educar y capacitar a los empleados sobre amenazas impulsadas por AI
Al fomentar una cultura de conciencia de seguridad y establecer directrices claras para el uso de herramientas de AI, las empresas pueden reducir el riesgo de vulnerabilidades internas. Después de todo, las personas son complejas, y a menudo, las soluciones simples funcionan mejor.
"No se trata solo de repeler ataques externos. También se trata de establecer límites para los empleados que usan AI como su 'código de trampa de productividad,'" explica Rogers.
El error humano sigue siendo un punto débil importante en ciberseguridad. A medida que los ataques de phishing y de ingeniería social generados por AI se vuelven más convincentes, es crucial educar a los empleados sobre estas amenazas en evolución. La capacitación regular puede ayudarles a detectar actividades sospechosas, como correos inesperados o solicitudes inusuales que rompen con los procedimientos normales.
3. Monitorear y regular el uso de AI por parte de los empleados
Las tecnologías de AI son ampliamente adoptadas en las empresas, pero el uso no autorizado o no monitoreado—lo que se conoce como "AI en la sombra"—puede introducir riesgos de seguridad graves. Los empleados podrían usar aplicaciones de AI sin la seguridad adecuada, lo que lleva a fugas de datos o problemas de cumplimiento.
"No podemos permitir que los datos corporativos fluyan libremente hacia entornos de AI no autorizados, así que necesitamos encontrar un equilibrio," señala Rogers. Las políticas que rigen las herramientas de AI, auditorías regulares y asegurar que todas las aplicaciones de AI cumplan con los estándares de seguridad de la empresa son clave para gestionar estos riesgos.
4. Colaborar con expertos en AI y ciberseguridad
La complejidad de las amenazas impulsadas por AI significa que las empresas necesitan trabajar con expertos en AI y ciberseguridad. Asociarse con firmas externas puede dar a las organizaciones acceso a la inteligencia de amenazas más reciente, tecnologías defensivas de vanguardia y habilidades especializadas que podrían no tener internamente.
Los ataques impulsados por AI requieren defensas sofisticadas que las herramientas de seguridad tradicionales a menudo no pueden proporcionar. Las plataformas de detección de amenazas mejoradas por AI, navegadores seguros y controles de acceso de confianza cero pueden analizar el comportamiento del usuario, detectar anomalías y detener a actores maliciosos de obtener acceso no autorizado.
Rogers destaca que las soluciones innovadoras para empresas "son la pieza que falta en el rompecabezas de la seguridad de confianza cero. Estas herramientas ofrecen controles de seguridad profundos y granulares que protegen cualquier aplicación o recurso en redes públicas y privadas."
Estas herramientas usan aprendizaje automático para monitorear la actividad de la red, marcar patrones sospechosos y automatizar la respuesta a incidentes, reduciendo el riesgo de que los ataques generados por AI se infiltren en los sistemas corporativos.
Artículo relacionado
Reconocimiento de Patrones con IA: Impulsando la Innovación de Sistemas Inteligentes
La Inteligencia Artificial está transformando industrias, pero ¿qué impulsa sus capacidades? El reconocimiento de patrones, la habilidad para detectar estructuras de datos recurrentes, está en el núcl
Programa Agent Pay de Mastercard mejora la búsqueda con IA mediante transacciones fluidas
Las plataformas de búsqueda tradicionales y los agentes de IA suelen requerir que los usuarios cambien de ventana para completar compras tras encontrar productos o servicios.Mastercard está revolucion
Creación de Imágenes Impactantes para el Día de la Independencia con IA: Guía 2025
A medida que se acerca el Día de la Independencia, las imágenes vibrantes capturan la esencia de la libertad y el orgullo nacional. Los generadores de imágenes con IA facilitan la creación de imágenes
comentario (8)
0/200
FredLewis
10 de agosto de 2025 07:00:59 GMT+02:00
This article really opened my eyes to how sneaky cybercriminals are getting with AI! Using LLMs for phishing emails is wild—makes me wonder if my inbox is already compromised. 😅 Businesses better step up their game!
0
DavidGreen
2 de agosto de 2025 17:07:14 GMT+02:00
Super interesting read! AI-powered cyberattacks sound like something out of a sci-fi movie. It's wild how cybercriminals use LLMs for phishing—makes me wonder how businesses can keep up. Any tips for small startups to stay safe? 😬
0
DavidLewis
23 de julio de 2025 07:31:54 GMT+02:00
This article really opened my eyes to how sneaky cybercriminals are getting with AI! 😱 Those personalized phishing emails sound like a nightmare. I wonder how businesses can keep up when AI is making attacks so sophisticated.
0
MateoAdams
24 de abril de 2025 20:37:05 GMT+02:00
2025년 AI로 인한 사이버 위협을 대비하기 위한 비즈니스 필수 도구입니다! 팁들이 실용적이고 쉽게 적용할 수 있어요. 다만, 실제 사례가 더 필요할 것 같아요. 그래도 훌륭한 자원이에요! 👍
0
SamuelRoberts
24 de abril de 2025 09:31:53 GMT+02:00
Esta ferramenta é essencial para qualquer negócio que deseje se proteger contra ameaças cibernéticas alimentadas por IA em 2025! As dicas são super práticas e fáceis de implementar. Minha única reclamação é que poderia ter mais exemplos do mundo real. Ainda assim, é um recurso sólido! 👍
0
ChristopherAllen
23 de abril de 2025 05:36:08 GMT+02:00
¡Esta herramienta es imprescindible para cualquier negocio que quiera estar preparado para las amenazas cibernéticas impulsadas por IA en 2025! Los consejos son muy prácticos y fáciles de implementar. Mi única queja es que podría tener más ejemplos del mundo real. Aún así, es un recurso sólido! 👍
0
Los ciberdelincuentes ahora usan inteligencia artificial (AI) para mejorar cada etapa de sus ataques. Emplean modelos de lenguaje grandes (LLMs) para crear correos de phishing altamente personalizados, recolectando detalles personales de redes sociales y profesionales. Mientras tanto, las redes generativas antagónicas (GANs) se usan para producir audio y video deepfake, que pueden engañar a los sistemas de autenticación multifactor. Incluso los script kiddies están participando, usando herramientas automatizadas como WormGPT para desplegar malware polimórfico que cambia y evade los métodos de detección tradicionales.
Estas no son solo amenazas hipotéticas; están ocurriendo ahora. Las empresas que no adapten sus estrategias de seguridad enfrentarán una ola de ciberamenazas sofisticadas no solo en 2025, sino más allá.
¿Quieres mantenerte adelante en la era de la AI? Tienes dos opciones: integrar AI en tus operaciones o usar AI para mejorar tu negocio.
Para profundizar en cómo la AI está reconfigurando la seguridad empresarial, tuve una charla con Bradon Rogers, el Chief Custom Officer en Island y un experto en ciberseguridad con experiencia. Discutimos el paisaje cambiante de la seguridad digital, la detección temprana de amenazas y estrategias para preparar a tu equipo para ataques impulsados por AI. Pero primero, dejemos el contexto claro.
Por qué las amenazas de ciberseguridad con AI son diferentes
La AI equipa a los actores maliciosos con herramientas avanzadas que hacen los ciberataques más dirigidos, convincentes y difíciles de detectar. Por ejemplo, los sistemas de AI generativa actuales pueden analizar enormes conjuntos de datos de información personal, comunicaciones corporativas y redes sociales para personalizar campañas de phishing que parecen provenir de fuentes confiables. Cuando se combinan con malware que se adapta automáticamente a las medidas de seguridad, la escala y efectividad de estos ataques se dispara.
La tecnología deepfake lleva esto un paso más allá al crear contenido de video y audio realista, permitiendo desde estafas de suplantación de ejecutivos hasta campañas de desinformación a gran escala. Hemos visto ejemplos del mundo real, como un robo de 25 millones de dólares a una empresa de Hong Kong mediante una videoconferencia deepfake, y numerosos casos donde clips de voz generados por AI engañaron a personas para transferir dinero a estafadores.
Los ciberataques automatizados impulsados por AI también han introducido sistemas de "configurar y olvidar" que buscan constantemente vulnerabilidades, se ajustan a las contramedidas y explotan debilidades sin intervención humana. Un caso notable fue la brecha de AWS en 2024, donde un malware impulsado por AI mapeó la red, identificó vulnerabilidades y ejecutó un ataque complejo que comprometió miles de cuentas de clientes.
Estos incidentes muestran que la AI no solo está mejorando las ciberamenazas existentes; está generando tipos completamente nuevos de riesgos de seguridad. Aquí está cómo Bradon Rogers sugiere abordar estos desafíos.
1. Implementar arquitectura de confianza cero
El antiguo modelo de perímetro de seguridad ya no es suficiente contra las amenazas mejoradas por AI. Una arquitectura de confianza cero sigue un enfoque de "nunca confiar, siempre verificar", asegurando que cada usuario, dispositivo y aplicación debe ser autenticado y autorizado antes de acceder a recursos. Este método minimiza el riesgo de acceso no autorizado, incluso si los atacantes logran entrar en la red.
"Las empresas necesitan verificar a cada usuario, dispositivo y aplicación—incluyendo AI—antes de que puedan tocar datos o funciones críticas," enfatiza Rogers, llamando a esto la mejor estrategia de defensa. Al verificar constantemente las identidades y aplicar controles de acceso estrictos, las empresas pueden reducir su superficie de ataque y limitar el daño de cuentas comprometidas.
Aunque la AI plantea nuevos desafíos, también aporta herramientas defensivas poderosas. Las soluciones de seguridad impulsadas por AI pueden analizar enormes cantidades de datos en tiempo real, detectando anomalías y amenazas potenciales que los métodos tradicionales podrían pasar por alto. Estos sistemas pueden adaptarse a nuevos patrones de ataque, ofreciendo una defensa dinámica contra ciberataques impulsados por AI.
Rogers advierte que la AI en la defensa cibernética no debe tratarse como una característica más. "Los CISOs y líderes de seguridad necesitan integrar la AI en sus sistemas desde cero," dice. Al incorporar AI en su infraestructura de seguridad, las organizaciones pueden aumentar su capacidad para detectar y responder a incidentes rápidamente, reduciendo la ventana de oportunidad para los atacantes.
2. Educar y capacitar a los empleados sobre amenazas impulsadas por AI
Al fomentar una cultura de conciencia de seguridad y establecer directrices claras para el uso de herramientas de AI, las empresas pueden reducir el riesgo de vulnerabilidades internas. Después de todo, las personas son complejas, y a menudo, las soluciones simples funcionan mejor.
"No se trata solo de repeler ataques externos. También se trata de establecer límites para los empleados que usan AI como su 'código de trampa de productividad,'" explica Rogers.
El error humano sigue siendo un punto débil importante en ciberseguridad. A medida que los ataques de phishing y de ingeniería social generados por AI se vuelven más convincentes, es crucial educar a los empleados sobre estas amenazas en evolución. La capacitación regular puede ayudarles a detectar actividades sospechosas, como correos inesperados o solicitudes inusuales que rompen con los procedimientos normales.
3. Monitorear y regular el uso de AI por parte de los empleados
Las tecnologías de AI son ampliamente adoptadas en las empresas, pero el uso no autorizado o no monitoreado—lo que se conoce como "AI en la sombra"—puede introducir riesgos de seguridad graves. Los empleados podrían usar aplicaciones de AI sin la seguridad adecuada, lo que lleva a fugas de datos o problemas de cumplimiento.
"No podemos permitir que los datos corporativos fluyan libremente hacia entornos de AI no autorizados, así que necesitamos encontrar un equilibrio," señala Rogers. Las políticas que rigen las herramientas de AI, auditorías regulares y asegurar que todas las aplicaciones de AI cumplan con los estándares de seguridad de la empresa son clave para gestionar estos riesgos.
4. Colaborar con expertos en AI y ciberseguridad
La complejidad de las amenazas impulsadas por AI significa que las empresas necesitan trabajar con expertos en AI y ciberseguridad. Asociarse con firmas externas puede dar a las organizaciones acceso a la inteligencia de amenazas más reciente, tecnologías defensivas de vanguardia y habilidades especializadas que podrían no tener internamente.
Los ataques impulsados por AI requieren defensas sofisticadas que las herramientas de seguridad tradicionales a menudo no pueden proporcionar. Las plataformas de detección de amenazas mejoradas por AI, navegadores seguros y controles de acceso de confianza cero pueden analizar el comportamiento del usuario, detectar anomalías y detener a actores maliciosos de obtener acceso no autorizado.
Rogers destaca que las soluciones innovadoras para empresas "son la pieza que falta en el rompecabezas de la seguridad de confianza cero. Estas herramientas ofrecen controles de seguridad profundos y granulares que protegen cualquier aplicación o recurso en redes públicas y privadas."
Estas herramientas usan aprendizaje automático para monitorear la actividad de la red, marcar patrones sospechosos y automatizar la respuesta a incidentes, reduciendo el riesgo de que los ataques generados por AI se infiltren en los sistemas corporativos.




This article really opened my eyes to how sneaky cybercriminals are getting with AI! Using LLMs for phishing emails is wild—makes me wonder if my inbox is already compromised. 😅 Businesses better step up their game!




Super interesting read! AI-powered cyberattacks sound like something out of a sci-fi movie. It's wild how cybercriminals use LLMs for phishing—makes me wonder how businesses can keep up. Any tips for small startups to stay safe? 😬




This article really opened my eyes to how sneaky cybercriminals are getting with AI! 😱 Those personalized phishing emails sound like a nightmare. I wonder how businesses can keep up when AI is making attacks so sophisticated.




2025년 AI로 인한 사이버 위협을 대비하기 위한 비즈니스 필수 도구입니다! 팁들이 실용적이고 쉽게 적용할 수 있어요. 다만, 실제 사례가 더 필요할 것 같아요. 그래도 훌륭한 자원이에요! 👍




Esta ferramenta é essencial para qualquer negócio que deseje se proteger contra ameaças cibernéticas alimentadas por IA em 2025! As dicas são super práticas e fáceis de implementar. Minha única reclamação é que poderia ter mais exemplos do mundo real. Ainda assim, é um recurso sólido! 👍




¡Esta herramienta es imprescindible para cualquier negocio que quiera estar preparado para las amenazas cibernéticas impulsadas por IA en 2025! Los consejos son muy prácticos y fáciles de implementar. Mi única queja es que podría tener más ejemplos del mundo real. Aún así, es un recurso sólido! 👍












