Inteligencia artificial en automóviles: la disyuntiva cultural en un choque

¿Qué debería hacer el sistema de inteligencia artificial de un vehículo que lo obliga a matar a un niño o un anciano?

Este artículo es exclusivo para suscriptores (3)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Ingrese a su cuenta para continuar disfrutando de nuestro contenido


Este artículo es exclusivo para suscriptores (2)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Este artículo es exclusivo para suscriptores (1)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Si un vehículo autónomo va por una carretera y se encuentra ante una falla en los frenos que lo obliga a matar a un niño o un anciano ¿Qué debería hacer el sistema de inteligencia artificial? Para algunas personas, la respuesta es: atropellar al peatón de mayor edad. Sin embargo, para aquellos que tienen una cultura de culto por la ancianidad, como los asiáticos, opinarán lo opuesto. Y el mismo ejercicio se podría realizar pensando, por ejemplo, si el automóvil debería matar a perros que están cruzando la calle, o a las personas que están dentro del vehículo, ¿y si se debe elegir entre priorizar entre un grupo de hombres u otro de mujeres?

Esta conclusión se puso de manifiesto en una investigación realizada por el Instituto Tecnológico de Massachusetts (MIT) para la cual, a través del juego Moral Machine, entrevistaron a 40 millones de personas, de 233 países, para comprender las prioridades éticas colectivas en diferentes culturas y, tal y como se esperaba, quedó demostrado que el origen sociocultural, demográfico y el nivel económico influyen en las opiniones vinculadas con la ética y la moral.

Al momento de presentar los resultados, el estudio concluye que en países como Francia, Canadá, Reino Unido, Estados Unidos y Suecia los participantes prefieren salvar a los jóvenes; mientras que en China y Japón, prefieren lo contrario. Por otra parte, los sondeados de los países menos desarrollados son más tolerantes con los peatones que están cruzando con el semáforo en rojo.

La investigación marca que la reacción del coche autónomo depende de los algoritmos de Inteligencia Artificial (IA) que contenga y de lo que se espera en cada país respecto al vehículo. Este ejemplo no es excepcional: lo mismo podría ocurrir cuando se diseña un chatbot en función de cómo debe conversar en función del perfil de su interlocutor humano, entre muchísimos otros casos.

Cómo definir la ética de los algoritmos

La ética es una construcción social compleja y contingente, modulada por factores históricos, culturales, políticos y filosóficos, que establece un marco de referencia para la conducta y obra de los sujetos basándose en preceptos e imaginarios socialmente legítimos.

Los entrevistados consultados por La Nación coinciden: La IA exige una reflexión social profunda y acciones decididas acerca de la creación y promoción de pautas éticas que regulen los nuevos desarrollos tecnológicos velando por la protección integral de las personas. El problema es cómo lograrlo siendo que tales normas no son universales.

“Los algoritmos son creados por personas, y como tales, estos individuos tienen sus propias cuestiones éticas”, sostiene Mariano Baca Storni, CEO & Fundador de Inclusión, una firma tecnológica que desarrolla chatbots con IA y genera modelos de deep learning para mejorar las cosechas del campo. Lejos de este postulado, la inmensa mayoría de los expertos en IA son hombres caucásicos, con lo cual están creando algoritmos sesgados que siguen su patrón de pensamiento.

Como punto de partida, el experto propone que, en lugar de pensar en esta tecnología como una herramienta para resolver las ineficiencias de los humanos, habría que pensarla para potenciar sus capacidades. El ejemplo de esto sería el siguiente: los chatbots están diseñados para reemplazar a la persona de atención al cliente. En vez de esto, el propósito debería ser crearlo para que sirva como asistente del empleado con el objetivo de que éste pueda atender mejor a los consumidores y, por ende, pueda venderles más.

El rol del Estado

“Sería un error adoptar la IA bajo criterios globales para resolver situaciones locales puesto que impactaría directamente en la usabilidad del dispositivo tecnológico, generando pérdidas económicas y conflictos sociales debido a la no adecuación entre la técnica y el contexto. En este caso cabe imaginar qué pasaría si se insertase, sin mediaciones, un auto autónomo chino al tránsito de hora pico de la Ciudad de Buenos Aires”, ejemplifica Pedro Orden, licenciado en Sociología, investigador especialista en nuevas tecnologías, presidente del Colegio de Sociólogo de la Provincia de Buenos Aires y coordinador del Núcleo de Innovación Social (NIS).

Las empresas son las que más están invirtiendo en IA y lo hacen con un fin de lucro, algo que no coincide con la ética universal. Por este motivo, Baca Storni dice que es fundamental que esta tecnología sea considerada como una política de Estado, y que los algoritmos se apliquen por cultura, de forma tal que un coche autónomo funcione de una manera en Argentina y de otra en India. "Así como los Estados regulan el sistema bancario y el de aviación, entre tantos otros, también deberían establecer pautas en la creación de los algoritmos, ya que tampoco podemos partir, como postulan algunos, de los Derechos Humanos, porque éstos tampoco son del todo universales", sentencia el CEO de Inclusión.

De igual forma piensa Fabio Rua, director de Gobierno & Asuntos Regulatorios para IBM Latinoamérica: "Cada país debería tener una estrategia nacional para inteligencia artificial. No existe un modelo único para ser replicado, pero sí considero que todas deberían incluir los diferentes aspectos de la política de IA: investigación científica, desarrollo de talentos, habilidades y educación, adopción de los sectores públicos y privado, estándares y regulaciones, infraestructura de datos y digital, y por supuesto, ética e inclusión".

A nivel de la sociedad, un fenómeno recurrente es el desconocimiento con respecto a las nociones más básicas sobre IA, aunque la utilicemos a diario, y Rua considera que esta situación es crítica porque la sociedad debería ser la principal responsable de delimitar la frontera ética de la IA. "Si vamos a utilizar la IA para ayudar a tomar decisiones importantes es clave que podamos explicar cómo llegamos a esa decisión", reflexiona.

Lejos de ser un tema que pueda resolverse de forma simple, Orden sostiene que la regulación sobre los esquemas de actuación ética que rijan la inteligencia artificial requiere un pacto social entorno a la preservación de la vida. Y, retomando la explicación de Baca Storni con respecto al rol que están teniendo las compañías sobre este tema, concluye: "Dejar en manos de las empresas dicho desafío tendría serias consecuencias para el conjunto social y los sistemas democráticos puesto que decidirían en nombre de las mayorías actores privados guiados por una lógica estrictamente comercial".

Por todo esto, la conclusión que se desprende es que la definición nodal de los protocolos y algoritmos éticos requiere de una tarea de construcción colectiva donde el Estado y parte a la ciudadanía organizada sobre sus principales instituciones, trabaje para buscar puntos de acuerdo con el campo político, económico, cultural, científico y religioso.