Desafíos éticos de la inteligencia artificial

Debido a que los datos biométricos son únicos, como la huella digital o el ADN, la preocupación social por el uso y custodia de la información va en aumento

Este artículo es exclusivo para suscriptores (3)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Ingrese a su cuenta para continuar disfrutando de nuestro contenido


Este artículo es exclusivo para suscriptores (2)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Este artículo es exclusivo para suscriptores (1)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

El periódico La Nación, en su editorial del 27 de julio, hizo énfasis en la necesidad de utilizar tecnología, como la inteligencia artificial, para mejorar la seguridad ciudadana. Mediante el aprendizaje automático, o machine learning, y del aprendizaje profundo, o deep learning, es factible identificar con precisión comportamientos anómalos en las vías públicas, sin necesidad de que haya una persona detrás de las cámaras de seguridad evaluando los distintos escenarios de riesgo.

Efectivamente, las ventajas económicas y operativas de la vigilancia con analítica de video están bien documentadas. Incluso, quienes diseñan este tipo de aplicaciones tecnológicas aseguran que es posible enseñar a los dispositivos a ser mucho más intuitivos acerca de lo que filman y analizan en tiempo real.

Gracias al aprendizaje profundo, estos dispositivos de seguridad van mucho más allá de la videovigilancia tradicional, ya que con la analítica de video es posible hacer predicciones de lo que ocurra, identificar situaciones de peligro potencial y ayudar a la disuasión y prevención de riesgos.

Muchos de estos sistemas de videovigilancia utilizan lectores biométricos. Con nuestro consentimiento o sin él, los lectores recogen y procesan nuestros rasgos físicos, fisiológicos o neuronales, así como patrones de conducta, mediante dispositivos o sensores.

Debido a que los datos biométricos son únicos, como la huella digital o el ADN, la preocupación social por el uso y custodia de la información va en aumento.

Las distintas organizaciones civiles, que lideran campañas de oposición a la vigilancia biométrica, denuncian si es válido, por ejemplo, que la policía nos incluya en una lista de sospechosos por la forma en la que caminamos, o si es ético que, en función de nuestra orientación sexual, paguemos más por nuestro seguro médico.

No obstante, siguen siendo las personas y no las máquinas las que deciden, en primera instancia, dónde están los problemas y cuál es la lógica que se debe utilizar para resolverlos a través de la tecnología.

Discriminación algorítmica

Joy Buolamwini probablemente sintió un vacío en el estómago cuando descubrió que su cara, la de una mujer ghanesaestadounidense, no era familiar para el sistema de reconocimiento facial del Instituto de Tecnología de Massachusetts o MIT, por sus siglas en inglés.

Tras muchos intentos infructuosos en el laboratorio, Joy decidió burlar el sistema informático. Se plantó frente a la pantalla de la computadora con una inquietante máscara blanca, similar a la que utilizan los simpatizantes de Anonymous,y, a continuación, el sistema detectó el rostro. Estupefacta, comprobó que el algoritmo funcionaba con la tez clara, aunque fuera la de una máscara, y no con su piel oscura y humana.

Este tipo de errores informáticos se conocen como sesgos algorítmicos, y son más o menos frecuentes en el laboratorio.

La mejor manera de explicar qué es un sesgo algorítmico es con un ejemplo sencillo. La mayoría de los asistentes virtuales que funcionan con inteligencia artificial, como Alexa de Amazon y Siri de Apple,utilizan por defecto nombres y voces femeninas, y tienen un estilo de comunicación sumiso, complaciente e incluso seductor. En este caso, el sesgo algorítmico es de género, y refuerza estereotipos muy tóxicos sobre las mujeres.

La experiencia de Joy Buolamwini con el reconocimiento facial se narra en el documental Coded Bias o Sesgo codificado, disponible en Netflix. Sin ánimo de hacer spoiler, este documental reflexiona sobre el impacto social de la inteligencia artificial, ya que los algoritmos matemáticos no son infalibles.

Los algoritmos no se codifican solos. Hay seres humanos implicados en la recolección de datos y en el entrenamiento de los algoritmos. Detrás del machine learning y del deep learning, hay una persona o grupo de personas que supervisan el aprendizaje, al menos hasta que la máquina finalmente deduce, con base en determinados patrones, cuál es el resultado óptimo para un problema específico.

Esta fue la epifanía que Buolamwini tuvo detrás de la máscara: los sesgos algorítmicos son, a fin de cuentas, una proyección de nuestros sesgos cognitivos.

Sesgos cognitivos

En psicología, el sesgo cognitivo se define como una interpretación errónea y sistemática de la información disponible, que puede ser consciente o inconscientemente. Esta interpretación, que en ocasiones se disfraza de verdad objetiva, ejerce influencia en cómo procesamos los pensamientos, emitimos juicios y tomamos decisiones.

Como las personas no somos moralmente neutras, los expertos en inteligencia artificial coinciden en que el mayor reto de su trabajo consiste en eliminar los sesgos y conseguir que los algoritmos tengan garantías para no discriminar.

Esto se alcanza mediante pautas mínimas, como considerar cuidadosamente el componente interpretativo detrás de la ciencia de datos, monitorear constantemente los sistemas en busca de sesgos y conformar equipos de trabajo diversos y equitativos, con presencia de hombres y mujeres.

También hay quienes opinan que las personas que construyen y desarrollan servicios de inteligencia artificial deben asumir un juramento tecnocrático, es decir, un código ético con obligaciones, similar al juramento hipocrático que realizan los médicos.

Esto es particularmente relevante para los sistemas de inteligencia artificial calificados de alto riesgo, como son los de administración de justicia, que llevan a cabo análisis de riesgo delictivo. O los sistemas de salud pública, donde se establecen priorizaciones de intervenciones médicas, como listas de espera para un trasplante.

Preocupación mundial

En el 2021, los Estados miembros de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) aprobaron la primera norma internacional sobre ética en materia de inteligencia artificial.

Esta norma establece valores y principios comunes para construir la infraestructura jurídica necesaria que garantice un desarrollo saludable de la inteligencia artificial. Algunos de los temas que incluye tienen que ver con la protección de datos y la prohibición de utilizar marcadores sociales y vigilancia biométrica masiva. La Unesco considera que son altamente intrusivos y vulneran los derechos humanos y las libertades fundamentales de las personas.

La Nación tiene toda la razón cuando afirma que establecer un vínculo entre inteligencia artificial y seguridad ciudadana “no es como soplar y hacer botellas”. Sin embargo, la afirmación se queda corta si considera solamente la vertiente económica del uso de las tecnologías disruptivas con ese fin y deja por fuera el poder que estas tienen para automatizar nuestro lado oscuro.

manuelaurena@gmail.com

La autora cuenta con 15 años de experiencia internacional en las Naciones Unidas y la Unión Europea. Oriunda de la zona de los Santos, trabaja como consultora internacional en sostenibilidad aplicada a la industria agroalimentaria. Lectora asidua y fiel seguidora del músico canadiense Neil Young. Siga a Manuela en Facebook y Linkedln.