
Arrancó la contienda electoral y esta vez tendremos un actor nuevo: la inteligencia artificial (IA), usada para influir en las elecciones con contenido masivo. Ya ocurrió en India, Pakistán, Brasil y Eslovaquia, donde se crearon contenidos sintéticos, como deepfakes o bots.
Los deepfakes manipulan imágenes, audios o videos para hacer parecer reales hechos que nunca ocurrieron. Los bots escriben comentarios y mensajes simulando ser personas reales.
El problema no es solo que estas herramientas han evolucionado tanto que es difícil reconocer el contenido falso del verdadero, sino que los procesos de detección y verificación son lentos y pueden no llegar al mismo público que recibió el contenido falso.
Cuando antes costaba miles de dólares adulterar audio o video, ahora cuesta centavos. El fin será el mismo que en esos países: desprestigiar candidatos y manipular la opinión popular. Un ejemplo es el del bromista ruso Vovan, que usó deepfakes en tiempo real para hacerse pasar por líderes políticos y desacreditarlos. En India, crearon deepfakes de celebridades criticando al primer ministro, Narendra Modi, durante las elecciones del 2024. Y, así, hay decenas de ejemplos en otros países.
En Costa Rica, el impacto podría ser mayor por la alta penetración de WhatsApp, que alcanza un 83% según Mobile Growth Association. Ahí, a diferencia de otras redes sociales, la viralización es controlada por los propios usuarios, que suelen reforzar las creencias del grupo sin cuestionarlas.
Si bien hay iniciativas que buscan combatir estos contenidos falsos, las personas tienden a desconfiar de esa detección. Esa erosión de la confianza pública puede agravar la radicalización que estamos viendo. No se trata solo de política. Se trata de nuestra capacidad de creer en lo que vemos y escuchamos.
Los bots, por su lado, crean contenido en texto y ahora no solo comentan: también responden con una personalidad predefinida, lo que hace más difícil reconocer que es contenido falso. Miles de bots pueden alterar sondeos y análisis digitales, influyendo así en la opinión pública.
Identificar de manera automatizada comentarios generados por bots no es trivial, especialmente con la sofisticación de herramientas disponibles hoy. Por ejemplo, la compañía X/Twitter, con sus vastos recursos técnicos y financieros, sigue en una lucha activa contra ellos.
Todo esto podría impactar la democracia, la cohesión social e inclusive la legitimidad electoral en un país que ya muestra pérdida de confianza institucional. También incrementará la desconfianza en las noticias y la polarización.
Asimismo, el “dividendo del mentiroso” saltará a la luz. Eso es cuando un político aprovecha la desconfianza en el contenido público para desestimar pruebas auténticas, apuntando a la posibilidad de que se trata de generación de contenido falso.
¿Qué podemos hacer ante este enorme riesgo? Tres posibles frentes: soluciones tecnológicas, regulaciones y vigilancia personal.
En el primer factor, del lado de la creación del contenido (Google, OpenAI) se está trabajando en la creación de marcas de agua “invisibles” para indicar que es contenido generado con IA. Sin embargo, muchos de estos algoritmos son abiertos y por ende, cualquier persona –no solo las grandes empresas– puede utilizarlos y así no implementar estos mecanismos.
Del lado de la detección y verificación del contenido, las plataformas sociales (Facebook, X) tienen mecanismos para reportar y combatir contenido falso según sus políticas. Sin embargo, los canales privados (como chats de WhatsApp) podrían, y tal vez deberían, quedar exentos de este monitoreo.
El ámbito regulatorio afronta el mismo dilema que las armas: las leyes no detienen a quienes deciden violarlas. Si bien podemos copiar lo bueno de las regulaciones de países como Estados Unidos o la Unión Europea, estas aplican nada más para “jugadores legales” como partidos políticos, proveedores de tecnología y medios de comunicación; los “jugadores ilegales” no las seguirán.
Entendiendo esa limitante estructural sobre la prevención, se debe trabajar en marcos regulatorios para actuar sobre la ilegalidad, una vez cometida. Un marco de leyes robusto contra el cibercrimen debe reconocer estas nuevas técnicas y permitir al Estado actuar de manera ágil.
El último y más importante frente es la vigilancia personal: informarnos, verificar y no reproducir contenido dudoso. Ante mensajes sensacionalistas, debemos sospechar y comprobar su origen –que algo parezca oficial no lo hace real– y apoyarnos en redes de verificación para evitar propagar desinformación que erosiona la confianza pública y la democracia.
tewar93@gmail.com
Walter Montes es director de Ingeniería de Software y cofundador de Primera Línea.