La amenaza de la IA persuasiva

En un futuro no muy lejano, la inteligencia artificial generativa impulsará nuevos sistemas con capacidad de persuadir en nombre de una persona o entidad

Este artículo es exclusivo para suscriptores (3)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Ingrese a su cuenta para continuar disfrutando de nuestro contenido


Este artículo es exclusivo para suscriptores (2)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Este artículo es exclusivo para suscriptores (1)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

¿Qué hace falta para que una persona cambie de opinión? La inteligencia artificial generativa está cada vez más imbuida en los sistemas de servicio al cliente —pensemos en las llamadas telefónicas aparentemente humanas o en los chatbots en línea—, de manera que es un interrogante ético que debe abordarse de manera amplia.

La capacidad de hacer cambiar a alguien de opinión mediante un discurso razonado está en el corazón de la democracia. Una comunicación clara y eficaz forma la base de la deliberación y de la persuasión, que son esenciales para resolver intereses enfrentados. Pero la persuasión tiene un costado oscuro: los motivos falsos, las mentiras y la manipulación cognitiva, un comportamiento malicioso que la IA podría facilitar.

En un futuro no tan lejano, la IA generativa podría permitir la creación de nuevas interfaces de usuario capaces de persuadir en nombre de cualquier persona o entidad con los medios para crear un sistema de esas características.

Al apalancar bases de conocimiento privadas, estos modelos especializados ofrecerían diferentes verdades que compiten con base en su capacidad para dar respuestas convincentes a un grupo objetivo, esto es, una IA para cada ideología.

Lo que vendría después seguramente sería una ola de ingeniería social asistida por IA y una competencia cada vez mayor que haría que a los malos actores les resultara más fácil y más barato diseminar desinformación y llevar a cabo estafas.

Inseguridad epistémica

La aparición de la IA generativa, en consecuencia, alimenta una crisis de inseguridad epistémica. La respuesta política inicial fue garantizar que los seres humanos sepan que están interactuando con la IA.

En junio, la Comisión Europea instó a las grandes empresas tecnológicas a empezar a etiquetar los textos, los videos y los audios creados o manipulados por herramientas de IA, mientras que el Parlamento Europeo está presionando para que se incorpore una regla similar en la inminente Ley de IA. Esta conciencia, sostiene el argumento, impedirá que seamos engañados por un agente artificial, no importa lo convincente que sea.

Sin embargo, alertar a la gente sobre la presencia de IA no necesariamente la resguardaría de la manipulación. Allá por los años sesenta, el experimento con el chatbot Eliza en el MIT demostró que la gente puede formar conexiones emocionales con un programa informático con características antropomórficas, sentir empatía por él y atribuirle procesos de pensamiento humano —en este caso, patrones de lenguaje natural— a pesar de que se le advierta de que es una entidad no humana.

Los seres humanos tendemos a desarrollar un vínculo emocional fuerte con nuestras creencias, lo que luego dificulta nuestra capacidad para evaluar una evidencia contradictoria de manera objetiva.

Asimismo, muchas veces buscamos información que respalde, y no que cuestione, nuestras opiniones. Nuestro objetivo debería ser llevar a cabo una persuasión reflexiva, a través de la cual presentamos argumentos y consideramos cuidadosamente nuestras creencias y valores para alcanzar un acuerdo o un desacuerdo bien fundamentado.

Pero, esencialmente, generar conexiones emocionales con otros puede aumentar nuestra predisposición a la manipulación, y sabemos que los seres humanos pueden hacer estos tipos de conexiones aun con chatbots que no están diseñados para eso.

Cuando finalmente se creen chatbots que puedan conectarse emocionalmente con los seres humanos, se crearía una nueva dinámica arraigada en dos problemas de larga data del discurso humano: el riesgo asimétrico y la reciprocidad.

Mal preparados para la IA

Imaginemos que una compañía tecnológica crea un chatbot persuasivo. Un agente con estas características asumiría esencialmente cero riesgo —tanto emocional como físico— en su intento de convencer a los demás.

En cuanto a la reciprocidad, existen muy pocas posibilidades de que el chatbot que lleva a cabo la persuasión tenga alguna capacidad de ser persuadido. Es más probable que un individuo pueda hacer que el chatbot conceda un punto en el contexto de su interacción limitada, lo que luego se interioriza para su entrenamiento.

Esto haría que la persuasión activa —que se trata de inducir un cambio de opinión, no de alcanzar un acuerdo momentáneo— sea ampliamente inviable.

En resumidas cuentas, estamos desgraciadamente mal preparados para la diseminación de sistemas de IA persuasivos. Muchos líderes industriales, entre ellos OpenAI, la empresa detrás de ChatGPT, han tomado conciencia sobre su amenaza potencial. Pero la conciencia no se traduce en un marco de gestión del riesgo integral.

No se puede inocular de manera eficaz a una sociedad contra la IA persuasiva, ya que eso exigiría hacer que cada persona fuera inmune a este tipo de agentes, una tarea imposible. Asimismo, todo intento por controlar y etiquetar las interfaces de la IA resultaría en que los individuos transfirieran información a nuevos dominios, no muy diferente de copiar texto producido por ChatGPT y pegarlo en un correo electrónico. Los propietarios de los sistemas, por lo tanto, serían responsables de rastrear la actividad de los usuarios y evaluar las conversiones.

Pero la IA persuasiva no tiene por qué ser generativa en su naturaleza. Un amplio rango de organizaciones, individuos y entidades ya han impulsado sus capacidades persuasivas para alcanzar sus objetivos. Consideremos el uso por parte de actores estatales de propaganda informática, que implica manipular la información y la opinión pública para promover intereses y agendas nacionales.

Mientras tanto, la evolución de la persuasión informática ha brindado a la industria de tecnología publicitaria un modelo de negocios lucrativo. Este campo pujante demuestra el poder de las tecnologías persuasivas a la hora de forjar el comportamiento de los consumidores y subraya el papel significativo que pueden desempeñar en cuanto a impulsar las ventas y alcanzar objetivos comerciales.

Lo que une a estos diversos actores es el deseo de mejorar sus capacidades persuasivas. Esto refleja el panorama cada vez más amplio de la influencia impulsada por la tecnología, con todas sus implicaciones sociales, políticas y económicas conocidas y desconocidas. En tanto la persuasión se vaya automatizando, un marco ético y regulatorio integral se vuelve imperativo.

Mark Esposito, asociado responsable de políticas en el University College London, es profesor adjunto en la Universidad de Georgetown, profesor en la Escuela Internacional de Negocios Hult y coautor de The Great Remobilization: Strategies and Designs for a Smarter Global Future (MIT University Press, 2023). Josh Entsminger cursa el doctorado en Innovación y Políticas Públicas en el Instituto UCL para la Innovación y el Propósito Público. Terence Tse, cofundador y director ejecutivo de Nexus FrontierTech, es profesor en la Escuela Internacional de Negocios Hult y coautor de The Great Remobilization: Strategies and Designs for a Smarter Global Future (MIT University Press, 2023).

© Project Syndicate 1995–2024