Navegando amenazas cibernéticas impulsadas por IA en 2025: 4 consejos de expertos en seguridad para empresas
Los ciberdelincuentes están utilizando la inteligencia artificial (IA) en todas las fases de ataque. Los modelos de lenguaje grande (LLMs) pueden redactar correos electrónicos de phishing altamente personalizados al analizar perfiles de redes sociales y profesionales de los objetivos. Además, las redes generativas adversariales (GAN) producen audio y video falsos para eludir la autenticación de múltiples factores. Herramientas automatizadas como WormGPT permiten que usuarios sin experiencia lancen malware polymórfico que evoluciona para evadir la detección basada en firmas.
Estos ataques cibernéticos no son solo una amenaza futura. Las organizaciones que no evolucionen en sus estrategias de seguridad corren el riesgo de ser superadas por un aluvión de amenazas cibernéticas cada vez más sofisticadas en 2025 y más allá.
Para comprender mejor cómo la IA impacta la seguridad empresarial, hablé con Bradon Rogers, vicepresidente de Intel Security y veterano en ciberseguridad empresarial, sobre esta nueva era de seguridad digital, la detección temprana de amenazas y cómo puedes preparar a tu equipo para los ataques habilitados por IA. Pero primero, aquí hay un resumen de lo que se debe esperar.
Por qué las amenazas cibernéticas impulsadas por IA son diferentes
La IA proporciona a los actores maliciosos herramientas sofisticadas que hacen que los ataques cibernéticos sean más precisos, persuasivos y difíciles de detectar. Por ejemplo, los sistemas modernos de IA generativa pueden analizar grandes conjuntos de datos de información personal, comunicaciones corporativas y actividad en redes sociales para crear campañas de phishing hiper-dirigidas que imitan de manera convincente a contactos de confianza y organizaciones legítimas. Esta capacidad, combinada con malware automatizado que se adapta a las medidas defensivas en tiempo real, ha aumentado drásticamente tanto la escala como la tasa de éxito de los ataques.
La tecnología deepfake permite a los atacantes generar contenido de video y audio convincente, facilitando desde el fraude de suplantación de ejecutivos hasta grandes campañas de desinformación. Incidentes recientes incluyen el robo de 25 millones de dólares a una empresa en Hong Kong mediante videoconferencias deepfake y numerosos casos en que se utilizaron clips de voz generados por IA para engañar a empleados y familiares e inducirlos a transferir fondos a los criminales.
Los ataques cibernéticos automatizados impulsados por IA han llevado a la innovación de sistemas de ataque de 'configúralo y olvídalo' que exploran continuamente en busca de vulnerabilidades, se adaptan a las medidas defensivas y explotan debilidades sin intervención humana. Un ejemplo es la violación de seguridad de 2024 de un importante proveedor de servicios en la nube, donde el malware impulsado por IA mapeó sistemáticamente la arquitectura de la red, identificó vulnerabilidades potenciales y ejecutó una compleja cadena de ataque que comprometió miles de cuentas de clientes.
Estos incidentes destacan cómo la IA no solo está ampliando las amenazas cibernéticas existentes, sino que también está creando categorías completamente nuevas de riesgos de seguridad. Aquí están las sugerencias de Rogers para enfrentar el desafío.
1. Implementar una arquitectura de confianza cero
El perímetro de seguridad tradicional ya no es suficiente ante amenazas potenciadas por IA. Una arquitectura de confianza cero opera bajo el principio de "nunca confiar, siempre verificar", asegurando que cada usuario, dispositivo y aplicación esté autenticado y autorizado antes de acceder a los recursos. Este enfoque minimiza el riesgo de acceso no autorizado, incluso si un atacante logra infiltrarse en la red.
"Las empresas deben verificar cada usuario, dispositivo y aplicación --incluyendo IA-- antes que accedan a datos o funciones críticas", subraya Rogers, señalando que este enfoque es el "mejor curso de acción" de una organización. Al verificar continuamente identidades y hacer cumplir estrictos controles de acceso, las empresas pueden reducir la superficie de ataque y limitar el daño potencial de cuentas comprometidas.
Si bien la IA presenta desafíos, también ofrece poderosas herramientas de defensa. Las soluciones de seguridad impulsadas por IA pueden analizar grandes cantidades de datos en tiempo real, identificando anomalías y amenazas potenciales que los métodos tradicionales podrían pasar por alto. Estos sistemas pueden adaptarse a patrones de ataque emergentes, proporcionando una defensa dinámica contra ataques cibernéticos potenciados por IA.
Rogers añade que la IA, al igual que los sistemas de defensa cibernética, nunca debe ser tratada como una característica incorporada. "Es momento de que los CISOs y líderes de seguridad construyan sistemas con IA desde cero", dice. Integra la IA en su infraestructura de seguridad para mejorar la capacidad de detectar y responder a incidentes rápidamente, reduciendo así la oportunidad de ataque para los infractores.
2. Educar y formar a los empleados sobre amenazas impulsadas por IA
Las organizaciones pueden reducir el riesgo de vulnerabilidades internas fomentando una cultura de conciencia de seguridad y proporcionando pautas claras sobre el uso de herramientas de IA. Los humanos son complejos, por lo que las soluciones simples son a menudo las mejores.
"No se trata solo de mitigar ataques externos. También se trata de proporcionar límites para los empleados que utilizan IA como un 'código de trucos para productividad'", afirma Rogers.
El error humano sigue siendo una vulnerabilidad significativa en la ciberseguridad. A medida que los ataques de phishing y de ingeniería social generados por IA se vuelven más convincentes, es aún más crucial educar a los empleados sobre estas amenazas en evolución. Las sesiones de capacitación regulares pueden ayudar al personal a reconocer actividades sospechosas, como correos electrónicos o solicitudes inesperadas que se desvían de los procedimientos rutinarios.
3. Monitorear y regular el uso de IA por parte de los empleados
La accesibilidad de las tecnologías de IA ha llevado a su adopción generalizada en diversas funciones empresariales. Sin embargo, el uso no autorizado o no monitoreado de IA --a menudo llamado "IA sombría"-- puede introducir riesgos de seguridad significativos. Los empleados pueden utilizar inadvertidamente aplicaciones de IA que carecen de las medidas de seguridad adecuadas, lo que podría dar lugar a fugas de datos o problemas de cumplimiento.
"No podemos permitir que los datos corporativos fluyan libremente en entornos de IA no autorizados, por lo que debe establecerse un equilibrio", explica Rogers. Implementar políticas que regulen las herramientas de IA, llevar a cabo auditorías frecuentes y garantizar que todas las aplicaciones de IA cumplan con los estándares de seguridad de la organización son esenciales para mitigar estos riesgos.
4. Colaborar con expertos en IA y ciberseguridad
La complejidad de las amenazas impulsadas por IA requiere colaboración con expertos que se especializan en IA y ciberseguridad. Asociarse con empresas externas puede brindar a las organizaciones acceso a la inteligencia de amenazas más reciente, tecnologías defensivas avanzadas y habilidades especializadas que pueden no estar disponibles internamente.
Los ataques impulsados por IA requieren contra-medidas sofisticadas que las herramientas de seguridad tradicionales a menudo carecen. Las plataformas de detección de amenazas mejoradas por IA, navegadores seguros y controles de acceso de confianza cero analizan el comportamiento del usuario, detectan anomalías y evitan que los actores maliciosos ganen acceso no autorizado.
Rogers destaca que las soluciones innovadoras para la empresa "son un eslabón perdido en el marco de seguridad de confianza cero. Estas herramientas proporcionan controles de seguridad profundos y granulares que protegen sin esfuerzo cualquier aplicación o recurso en redes públicas y privadas."
Estas herramientas aprovechan el aprendizaje automático para monitorear continuamente la actividad de la red, marcar patrones sospechosos y automatizar la respuesta a incidentes, reduciendo así el riesgo de que los ataques generados por IA infiltren los sistemas corporativos.
IA, ciberseguridad, empresas, seguridad