Mark Esposito , Terence Tse , Joshua Entsminger y Aurélie Jean. 21 abril

CAMBRIDGE– En los últimos años, el estudio Máquina moral del MIT ha relevado las preferencias públicas con respecto a cómo deberían comportarse las aplicaciones de inteligencia artificial en diferentes entornos. Una conclusión a partir de los datos es que cuando un vehículo autónomo se topa con un escenario de vida o muerte, la manera en que uno piense que debería responder depende en gran medida del lugar de dónde uno proviene y lo que sabe sobre los peatones o los pasajeros involucrados.

Por ejemplo, en una versión para el vehículo sin chofer del clásico “dilema del tranvía”, algunos podrían preferir que el auto atropellara a un asesino convicto y no que lastimara a otros, o que atropellara a un ciudadano mayor antes que a un niño. Sin embargo, otros podrían decir que el auto simplemente debería tirar los dados para evitar una discriminación impulsada por los datos.

Por lo general, estas disyuntivas están reservadas para los tribunales o para las investigaciones policiales después del hecho. Pero en el caso de los vehículos autónomos, las decisiones se tomarán en cuestión de milisegundos, y esto no alcanza para llegar a una decisión informada. Lo que importa no es lo que sabemos nosotros, sino lo que sabe el auto. La pregunta, entonces, es qué información deberían tener los vehículos autónomos sobre la gente que los rodea. ¿Debería permitirse que las empresas ofrecieran sistemas éticos diferentes en busca de una ventaja competitiva?

Consideremos el siguiente escenario: un auto de China tiene estándares de fabricación diferentes a los de uno de Estados Unidos, pero es transportado a Estados Unidos y usado allí. Ese vehículo hecho por chinos y un carro fabricado en Estados Unidos van camino a una colisión inevitable. Si el conductor del auto chino tiene preferencias éticas diferentes que el conductor del auto estadounidense, ¿qué sistema debería prevalecer?

Más allá de las diferencias culturales en las preferencias éticas, también debemos considerar las diferencias en las regulaciones de datos en los diversos países. Un vehículo fabricado por chinos, por ejemplo, podría tener acceso a datos de condición social, lo que le permite a su algoritmo de toma de decisiones incorporar información adicional con la cual no cuentan los fabricantes de Estados Unidos. Datos más ricos conducirían a mejores decisiones y más consistentes, pero ¿debería esa ventaja permitir que un sistema se imponga a otro?

Claramente, antes de que los vehículos autónomos copen las rutas en masa, tendremos que establecer dónde recae la responsabilidad por la toma de decisiones algorítmica, ya sea en las autoridades municipales, los gobiernos nacionales o las instituciones multilaterales.

Es más, necesitaremos nuevos marcos para gobernar esta intersección de los negocios y el Estado. Lo que está en juego no es solo lo que los vehículos autónomos hagan en escenarios extremos, sino cómo las empresas van a interactuar con diferentes culturas en el desarrollo y puesta en operación de algoritmos de toma de decisiones.

Es fácil imaginar que todos los fabricantes de vehículos autónomos no harán más que publicitar sistemas éticos que pongan en primer lugar la vida del conductor por sobre las otras cosas, o que permitan al usuario modificar sus propios marcos éticos.

Para impedir esta “tragedia de los comunes”, tendrán que existir marcos para establecer comunicación y coordinar decisiones entre los vehículos autónomos. Pero al desarrollar este tipo de sistemas en los diferentes contextos culturales, los responsables de las políticas y los empresarios se enfrentarán a nociones culturales muy diferentes respecto de la soberanía, la privacidad y la autonomía individual.

Lo anterior plantea desafíos adicionales porque los sistemas de inteligencia artificial no toleran la ambigüedad. Diseñar una aplicación de inteligencia artificial desde cero exige una especificidad profunda; para bien o para mal, esos sistemas solo hacen lo que uno les dice que hagan, lo cual significa que las empresas, los gobiernos y otros proveedores tendrán que hacer elecciones explícitas cuando codifican los protocolos de respuesta para diferentes situaciones.

Sin embargo, antes de que eso suceda, los responsables de las políticas tendrán que establecer el alcance de la responsabilidad algorítmica para determinar qué decisiones, si las hay, deberían quedar en manos de las empresas o los individuos.

Las que caigan dentro de la esfera del Estado tendrán que ser debatidas. Y dado que estas cuestiones éticas y morales no tienen respuestas fáciles, es poco probable que surja un consenso. A no ser que haya una resolución definitiva, necesitaremos crear sistemas que por lo menos faciliten la comunicación entre los vehículos autónomos y arbitren disputas algorítmicas e incidentes automovilísticos.

Dada la necesidad de especificidad al diseñar los algoritmos de toma de decisiones, es razonable que se necesite un organismo internacional para fijar los estándares de acuerdo con qué dilemas morales y éticos se resuelvan. Los vehículos autónomos, después de todo, son apenas una aplicación de la toma de decisiones algorítmica. De cara al futuro, los estándares de responsabilidad algorítmica tendrán que ser gestionados en muchos dominios.

En definitiva, la primera pregunta que debemos decidir es si las empresas tienen derecho a diseñar marcos éticos alternativos para la toma de decisiones algorítmica. Podríamos decir que no.

En una era de inteligencia artificial, algunos componentes de las cadenas de valor globales terminarán siendo automatizados como algo natural, momento en el cual ya no serán considerados zonas en las que las empresas busquen una ventaja competitiva. El proceso para determinar y juzgar una responsabilidad algorítmica debería ser una de esas áreas. De una u otra manera, se tomarán decisiones. Es mejor que esto suceda de manera uniforme y del modo más democrático posible.

Mark Esposito: profesor de Negocios y Economía con nombramientos en la Hult International Business School y en la Universidad de Harvard, es uno de los fundadores de Nexus Frontier Tech y miembro de la Escuela de Gobierno Mohammed bin Rashid en Dubái y de la Judge Business School en Cambridge. Terence Tse: profesor en la ESCP Europe Business School en Londres, es cofundador de Nexus FrontierTech.

Joshua Entsminger: es un investigador en Nexus FrontierTech y miembro sénior en la Ecole des Ponts Center for Policy and Competitiveness.

Aurélie Jean: científica informática, es fundadora de In Silico Veritas, asesora del Boston Consulting Group y colaboradora externa del Ministerio de Educación de Francia.

© Project Syndicate 1995–2019