Robot asesinos: Campaña mundial para prohibir el desarrollo de estas máquinas

Red de Seguridad Humana en Latinoamérica y el Caribe (Sehlac) clama en Buenos Aires por poner freno a cualquier intento de producirlos

Este artículo es exclusivo para suscriptores (3)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Ingrese a su cuenta para continuar disfrutando de nuestro contenido


Este artículo es exclusivo para suscriptores (2)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Este artículo es exclusivo para suscriptores (1)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Buenos Aires. (La Nación/ GDA). De Terminator a Robocop o los Transformers, los robots asesinos ya son personajes rutinarios de la filmografía de ciencia ficción.

Pero todo indica que, sin necesariamente adoptar un aspecto humano, esas figuras de pesadilla podrían estar más cerca de lo que imaginamos de hacerse realidad.

Para impedirlo, se inició en Buenos Aires la segunda reunión (antecedida por otra del año pasado en Berlín) que promueve un acuerdo internacional para prohibir el desarrollo de armas autónomas.

“Los robots asesinos (killer robots) son sistemas que tienen la capacidad de seleccionar y atacar un objetivo sin intervención humana", explica Pía Devoto, coordinadora de la Red de Seguridad Humana en Latinoamérica y el Caribe (Sehlac) y organizadora del encuentro.

"Es terrible, pero las investigaciones que están haciendo algunos países, como Estados Unidos, Rusia, Corea del Sur, Israel y Francia van en esa dirección”.

Ya en 2015, celebridades como el físico Stephen Hawking; el mítico creador de la Apple II, Steve Wozniak, y el multimillonario emprendedor Elon Musk dirigida al gobierno británico para prohibir el uso de la inteligencia artificial con fines bélicos.

Se calcula que en el mundo hay alrededor de 3.000 expertos en robótica e Inteligencia Artificial y más de 200 empresas que dominan esa tecnología.

“La campaña ahora tiene 300 activistas –cuenta Devoto, que hace muchos años trabaja en temas internacionales de control de armas, en especial en lo referente a las minas antipersonales–. A Buenos Aires vinieron 120 desde más de 40 países. Estamos impulsando un acuerdo internacional para la prohibición. Queremos que nuestros países se conviertan en campeones de la prevención de estas armas”.

Mientras algunos argumentan que el uso de máquinas inteligentes reduciría las bajas humanas, lo cierto es que tienen aristas controversiales difíciles de soslayar.

“El problema más grande es ético -subraya Devoto-, pero también está el vacío legal. ¿Como haría un arma completamente autónoma para respetar el principio de distinción, proporcionalidad y necesidad militar del derecho internacional? ¿Si uno de estos dispositivos iniciara un acto de guerra ilícito, a quién se le adjudicaría la responsabilidad? Los sistemas de software tienen sesgos. La máquina no tiene la posibilidad de distinguir entre un combatiente, un herido, alguien indefenso o que se está entregando”.

Para complicar aun más la situación, a diferencia de las armas nucleares, las materias primas necesarias para construirlas no exigen grandes inversiones ni son difíciles de obtener.

Tomar cartas en el asunto

“El objetivo de la campaña es crear conciencia de que estas armas son posibles y tanto o más peligrosas que las nucleares; incluso podrían pensarse armas nucleares inteligentes -agrega Vanina Martínez, investigadora en IA del Instituto de Ciencias de la Computación (UBA/Conicet) que comenzó a interesarse en el tema en 2015-. Ya se vieron informes de Rusia y China donde se advierten desarrollos. Es posible pensar en un sistema de reconocimiento facial y agregárselo a un arma. Además, muchos de estos modelos de IA son de código abierto”.

“La tecnología no es neutral -destacó Laura Nolan, exingeniera de Google que renunció a la compañía por haber sido asignada a un proyecto para mejorar la tecnología de drones militares de los Estados Unidos-. El uso de software para situaciones de conflicto no es seguro ni razonable. Esos sistemas no entienden reglas abstractas, es imposible programar todo el contenido del derecho humano internacional para que luego lo interpreten automáticamente. Si bien se desarrollan en la actualidad modelos de aprendizaje automático a partir de la experiencia, las máquinas no entenderían el contexto ni lograrían comprender situaciones particulares que se dan con los humanos en escenarios de conflicto, sobre todo porque podrían atacar a población civil sin tener en cuenta su condición. Estoy en contra de este tipo de sistemas y creo que la comunidad científica, y nosotras, como mujeres investigadoras, debemos tomar cartas en el asunto”.

La activista africana Sylvie Ndongmo agregó: “Estamos viendo un aumento constante de la inversión en la carrera armamentista. Desde este campaña se entiende que los robots asesinos también son una cuestión de género.”

Copyright Grupo de Diarios América - GDA/La Nación/Argentina