Página quince: Nos debemos un debate sobre el uso de datos conductuales

Las tecnologías digitales, los datos del comportamiento humano y la toma de decisiones algorítmicas desempeñarán un papel cada vez más crucial para tratar las crisis futuras

Este artículo es exclusivo para suscriptores (3)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Ingrese a su cuenta para continuar disfrutando de nuestro contenido


Este artículo es exclusivo para suscriptores (2)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Este artículo es exclusivo para suscriptores (1)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

BERLÍN– Pocas semanas después de la aparición de los primeros casos de covid‑19 fuera de China, Corea del Sur lanzó un sistema para la publicación de los perfiles y movimientos exactos de personas contagiadas.

Otros países asiáticos y europeos no tardaron en desarrollar sistemas propios de “seguimiento y rastreo” con diversos grados de éxito y de preocupación por las cuestiones éticas involucradas.

El fuerte impulso a tomar estas medidas fue comprensible: si sistemas en funcionamiento pueden salvar miles de vidas ¿por qué no usarlos?

Pero en la urgencia por combatir la pandemia, las sociedades prestaron poca atención a dos cuestiones: ¿Cómo fue posible introducir esos sistemas en tan poco tiempo y qué viene a continuación?

---

Es verdad que el régimen de seguimiento y rastreo de Corea del Sur ya generó bastante debate. Al principio la discusión se centró en los límites éticos cruzados por el sistema al enviar por mensaje de texto a otros residentes locales los movimientos exactos de personas con diagnóstico de covid‑19, lo cual implicaba revelar, por ejemplo, su asistencia a bares con karaokes, alojamientos temporales o clubes frecuentados por gais.

Pero otro aspecto destacado del sistema surcoreano es que vincula la ubicación de los teléfonos móviles con historiales de viaje, datos sanitarios, grabaciones de cámaras de circuito cerrado operadas por la policía y datos de tarjetas de crédito.

Luego esta información es analizada en un centro de datos creado en el contexto de las “ciudades inteligentes” surcoreanas.

Se dice que este sistema, al eliminar procedimientos de autorización burocráticos, ha reducido de un día a solo diez minutos los tiempos necesarios para el rastreo de contactos.

Los defensores de la privacidad y seguridad digital llevan años alertando acerca de la interconexión de fuentes separadas de datos en poder de entidades públicas y privadas.

Pero la pandemia demostró por primera vez la facilidad con que esos flujos de datos pueden centralizarse y vincular al instante, no solo en Corea del Sur, sino en todo el mundo.

La verdad incómoda es que llevamos bastante tiempo creando una infraestructura que permite la recolección mundial de datos conductuales íntimos.

Shoshana Zuboff señala que este “capitalismo de vigilancia” nació con la ampliación de las competencias estatales en materia de seguridad después de los ataques terroristas del 11 de setiembre del 2001 en Estados Unidos.

Modelos de negocios basados en datos impulsaron el desarrollo de los elementos clave de esta infraestructura: teléfonos inteligentes, sensores, cámaras, dinero digital, biométricas y aprendizaje automático.

Por su conveniencia y eficiencia (la promesa de poder hacer más con menos), las tecnologías digitales conquistaron un sinnúmero de usuarios, tanto individuales como empresariales. Pero la rapidez y el entusiasmo con que las adoptamos nos dejaron poco tiempo y escasas razones para pensar en lo que sucedería al unir todos los puntos.

Aunque los medios suelen calificar las herramientas tecnológicas aplicadas a la pandemia como “de avanzada”, lo cierto es que no tienen casi nada de nuevo, salvo quizá el hecho de haberse vuelto más visibles.

Muchas empresas establecidas dependen del rastreo (individual y mundial) de movimientos de las personas. Cabe mencionar los informes de movilidad que publica Google en relación con la covid‑19, con una variedad impresionante de datos individuales, municipales y nacionales, que muestran quién se queda en casa, quién va a trabajar y cómo han cambiado estas pautas de conducta con las medidas de confinamiento.

Lo mismo puede decirse de los datos referidos a lo que compramos y a nuestras acciones individuales y grupales. El rastreo masivo de pautas de conducta individuales es tan esencial para la automatización que las medidas de confinamiento por la pandemia (las cuales alcanzan a más de 4.000 millones de personas), al confundir a los modelos de inteligencia artificial y aprendizaje automático, han alterado el funcionamiento de los algoritmos de detección de fraudes y de los sistemas de gestión de cadenas de suministro.

Esta repentina visibilidad pública de los datos conductuales puede ser ocasión para una toma de conciencia; así como las revelaciones de Edward Snowden expusieron la vigilancia de llamadas por Skype y correos electrónicos en nombre del antiterrorismo, y el escándalo de Cambridge Analytica en el Reino Unido puso de manifiesto la venta y el uso de datos personales con fines de publicidad política ultraselectiva.

En particular, la crisis de la covid‑19 podría revelar la capacidad de los datos conductuales para contar historias relacionadas con lo que hacemos cada minuto del día y la importancia que esto tiene.

Pero en vez de eso, hemos aceptado estas tecnologías porque las vemos (por lo menos mientras dura esta crisis) como orientadas al mayor bien común, pasando por alto al hacerlo la cuestión de si son eficaces.

Pero cuando los límites entre la salud privada y la salud pública se vuelvan cada vez más borrosos, es posible que no pensemos lo mismo en relación con las concesiones que se nos está pidiendo hacer.

Tal vez no seamos tan tolerantes del seguimiento de datos conductuales si implica la vigilancia constante de elecciones de estilo de vida personales en aras del bien colectivo.

Algunas tecnologías posibles para el futuro pospandemia, como las herramientas de vigilancia en el lugar de trabajo o los pasaportes sanitarios digitales permanentes, supondrían una dura prueba para nuestros sistemas de valores y generarían intensos desacuerdos culturales y políticos en relación con qué tecnologías deben usarse y cuáles no.

Aunque sería fácil presentar todo el debate en términos de vigilancia y privacidad, no son las únicas cuestiones fundamentales en juego.

La recolección masiva de datos de conducta íntimos, además de su utilidad para las grandes empresas, también puede servir para la modelización predictiva, la emisión de alertas tempranas y la creación de sistemas de fiscalización y control nacional y mundial.

Además, es probable que el futuro traiga nuevas crisis, por ejemplo desastres naturales, hambrunas y más pandemias, cuya predicción, mitigación y manejo dependerán cada vez más de las tecnologías digitales, de los datos sobre la conducta de las personas y de la toma de decisiones algorítmica.

De modo que las sociedades tendrán que confrontar preguntas difíciles en relación con el manejo de desafíos que exceden las libertades civiles y con los sesgos nocivos, la discriminación y las desigualdades que las tecnologías de recolección de datos dejan al descubierto.

Tendremos que decidir a quién pertenecerá el conocimiento basado en datos de conducta y de qué manera se usará al servicio del interés público.

Habrá que ser conscientes de que la identidad de quienes tomen decisiones sobre la base de esos datos, y las ideas políticas que los motiven, suponen la creación de nuevas formas de poder con amplios efectos sobre nuestras vidas.

Ahora que confiamos cada vez más en el big data como herramienta para la solución de grandes problemas, la pregunta más significativa no es qué es posible hacer con estas tecnologías, sino más bien qué usos consideramos admisibles. Y si no nos hacemos esa pregunta, otros la responderán en nuestro lugar.

Stephanie Hankey: directora ejecutiva de la ONG internacional Tactical Tech.

© Project Syndicate 1995–2020