Por  Insight UK / 26 Aug 2025 / Temas: Artificial Intelligence (AI)
Durante años, la narrativa de la ciberseguridad ha estado dominada por una única y omnipresente amenaza: la crisis de competencias. Reclutadores luchando por un talento escaso, equipos de seguridad al límite y una lucha constante por seguir el ritmo de un panorama de amenazas en constante evolución.
Ha sido una tarea difícil. Pero está emergiendo una nueva realidad, que sugiere que estamos dejando atrás la crisis de capacidades para adentrarnos en algo mucho más profundo: una crisis de estrategia.
El problema no es solo encontrar suficientes expertos en ciberseguridad; se trata de si nuestro enfoque actual de la ciberseguridad es fundamentalmente adecuado para su propósito en un mundo cada vez más impulsado por la IA.
No nos equivoquemos, el déficit de competencias sigue afectando. Nuestra última investigación muestra que un asombroso 76% de las organizaciones están sintiendo esta presión, con casi la mitad (47%) informando de un impacto operativo severo o significativo.
No se trata de una simple molestia, sino que está retrasando y quitando prioridad a iniciativas cibernéticas cruciales para más de la mitad de las empresas (57%). El coste de contratar personal con experiencia (68%) y la falta de candidatos cualificados (65%) son los principales responsables.
Pero el verdadero reto reside ahora en el tipo de competencias que nos faltan. Se trata menos de trabajo operativo y más de supervisión estratégica: los arquitectos de seguridad en la nube, los gurús de la detección de amenazas, los expertos en gobernanza y cumplimiento y, sobre todo, los que pueden gestionar la compleja danza entre humanos y máquinas. El déficit de competencias es mayor en estas funciones estratégicas y de alto nivel.
La IA se presenta a menudo como una solución milagrosa y, aunque su potencial es inmenso, su plena integración en ciberdefensa aún está en sus primeros pasos. Sólo una de cada cinco organizaciones ha integrado o desplegado realmente la IA a gran escala, y aún menos (un mero 7%) están ejecutando sistemas autónomos de IA verdaderamente avanzados.
Entonces, ¿por qué dudar? En gran medida se reduce a la confianza. Mientras que el 57% de las organizaciones expresa cierta confianza en los resultados de la IA autónoma, sólo un pequeño 15% se muestra «extremadamente confiado». ¿Las principales preocupaciones? El temor a resultados imprecisos (52%), el sesgo inherente (40%) y el eterno problema de la «caja negra»: la falta de transparencia en la forma en que la IA llega a sus conclusiones (39%). No se trata de preocupaciones triviales, sino que exigen una atención seria.
Sin embargo, este es el punto crucial: La IA no está aquí para sustituir a nuestros equipos de seguridad. Está aquí para aumentarlos. Piense en la IA como un potente multiplicador de fuerzas, capaz de automatizar tareas repetitivas, desenterrar conocimientos más profundos y permitir respuestas a la velocidad del rayo. Puede revolucionar el trabajo de nuestros Centros de Operaciones de Seguridad (SOC) y potenciar la seguridad de las aplicaciones, ayudando así a cerrar esa persistente brecha de competencias. Las organizaciones que lleven a cabo correctamente la transformación de la IA verán sus ciberdefensas considerablemente reforzadas y su talento humano libre para centrarse en tareas estratégicas de mayor valor.
Para acelerar realmente la adopción de la IA y aprovechar su poder, debemos abordar de frente la barrera de la confianza. Esto implica:
Priorizar una gobernanza sólida: Es primordial contar con estructuras claras de gobernanza de la IA, que definan las funciones, las responsabilidades y los umbrales de supervisión humana. Todas las iniciativas de IA deben someterse a un control de sesgos y seguridad desde el principio.
Adoptar la IA Explicable (XAI): Tenemos que ir más allá de las «cajas negras». Los enfoques XAI dan prioridad a la transparencia, haciendo comprensibles los procesos de toma de decisiones de la IA y fomentando la confianza de los usuarios.
Fomentar una Cultura de Seguridad Psicológica: Invertir en la alfabetización en IA de toda la organización y promover la transparencia puede ayudar a los empleados a ver la IA como una herramienta de mejora, no como una amenaza. Necesitamos entornos en los que los sistemas de IA puedan cuestionarse y perfeccionarse abiertamente.
Asociaciones Estratégicas para la Implementación: La implementación de la IA a gran escala es compleja. Asociarse con especialistas externos experimentados puede proporcionar los profundos conocimientos técnicos y las metodologías probadas necesarias para acelerar la adopción al tiempo que se mitigan los riesgos.
La crisis de competencias en ciberseguridad se ha convertido en una crisis de estrategia. Las organizaciones que prosperarán serán aquellas que inviertan de forma holística en su personal, adopten potentes plataformas impulsadas por IA y forjen alianzas profundas y estratégicas. Al hacerlo, no solo protegerán sus negocios, sino que potenciarán su capacidad para innovar, crecer y liderar en un mundo que cambia rápidamente.