
Los deepfakes cada vez más realistas, capaces de modificarse en tiempo real, y la automatización del cibercrimen se perfilan como las principales amenazas digitales de 2026. La inteligencia artificial generativa y los agentes autónomos marcarán el escenario tanto para la defensa como para los atacantes, según previsiones de la firma de seguridad Kaspersky.
El panorama de la ciberseguridad en 2026 estará fuertemente influenciado por la inteligencia artificial. Esta tecnología reforzará las capacidades de protección. Al mismo tiempo, ampliará el alcance y la sofisticación de los ataques informáticos.
Estas conclusiones surgen del informe Kaspersky Security Bulletin 2025 Statistics, que reúne proyecciones sobre tendencias clave para el próximo año. Entre ellas destaca la consolidación de los deepfakes como una herramienta de alto riesgo.
Los deepfakes utilizan inteligencia artificial para manipular imágenes, audio y video con un nivel de realismo cada vez mayor. El informe señala que el mayor avance se dará en el audio. Los programas serán más simples de usar. No exigirán conocimientos técnicos. Esto aumentará el potencial de uso malicioso.
Las plataformas sociales y servicios digitales ya cuentan con sistemas que detectan contenido generado por inteligencia artificial y lo etiquetan. El objetivo es advertir a los usuarios. Sin embargo, Kaspersky advierte que no existen criterios uniformes y que muchas etiquetas actuales se eliminan con facilidad.
Ante esta situación, la empresa prevé que en 2026 surjan nuevas iniciativas técnicas y normativas orientadas a cerrar esta brecha y limitar los abusos.
Uno de los avances más preocupantes será la capacidad de alterar rostros o voces en tiempo real durante una videollamada. Esta modalidad permitirá a los cibercriminales aumentar el realismo de los engaños y ejecutar ataques dirigidos con mayor efectividad.
El informe también resalta el crecimiento de los modelos de código abierto, cuyo rendimiento ya se acerca al de los modelos cerrados. A diferencia de estos últimos, carecen de controles y mecanismos de protección sólidos. Esto facilita su uso tanto legítimo como malicioso.
En la práctica, los atacantes ya logran correos falsos altamente elaborados, suplantación visual de marcas y sitios de phishing con apariencia profesional. De forma paralela, grandes empresas normalizan el uso de contenido generado por inteligencia artificial en su publicidad. Esto dificulta distinguir entre lo auténtico y lo manipulado.
La inteligencia artificial abarcará toda la cadena de ataque. Se utilizará para escribir código, buscar vulnerabilidades y desplegar malware. Además, los delincuentes intentarán ocultar el rastro del uso de esta tecnología para complicar los análisis forenses.
En contraste, Kaspersky señala que la inteligencia artificial también será una aliada clave para los equipos de ciberseguridad. Las herramientas basadas en agentes podrán escanear de forma continua la infraestructura empresarial y detectar fallas de seguridad.
Estos sistemas ofrecerán información contextual lista para análisis, lo que reducirá la carga operativa de los especialistas. A la vez, las defensas adoptarán interfaces en lenguaje natural, que permitirán ejecutar acciones mediante instrucciones simples sin recurrir a comandos técnicos complejos.
*La creación de este contenido contó con la asistencia de inteligencia artificial. La fuente de esta información es de una agencia de noticias y revisada por un editor para asegurar su precisión. El contenido no se generó automáticamente.
