Cinco colosales desastres de la Inteligencia Artificial dejan dudas sobre su eficacia

La habilidad de comunicación de esta tecnología no siempre garantiza efectividad o seguridad para los usuarios, tal como evidencian casos recientes

Este artículo es exclusivo para suscriptores (3)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Ingrese a su cuenta para continuar disfrutando de nuestro contenido


Este artículo es exclusivo para suscriptores (2)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Este artículo es exclusivo para suscriptores (1)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

La popularidad del ChatGPT de OpenAI reabrió la discusión sobre los alcances reales de la Inteligencia Artificial (IA) y las consecuencias de su uso. Experiencias recientes prueban que, a pesar del progreso logrado por los desarrolladores de estas herramientas, los riesgos persisten. Estos son algunos casos recientes:

Racismo: Tay era un bot de conversación para Twitter de la empresa Microsoft, lanzado el 23 de marzo de 2016. Causó controversia por enviar mensajes ofensivos y fue retirado a 16 horas del lanzamiento.

Sus intercambios eran racistas y cargados de contenido sexual en respuesta a otros usuarios. Ejemplos de algunos tuits de Tay ese día incluían: “Bush generó el 11/9 y Hitler habría hecho un trabajo mejor que el mono que tenemos ahora”. Microsoft empezó a eliminar los mensajes, pero debió liquidar a Tay ese día.

Sexismo: En octubre de 2018, se reveló que el gigante del comercio minorista Amazon eliminó una herramienta secreta de reclutamiento basada en IA, debido a prejuicios hacia las mujeres. El equipo a cargo había creado programas en 2014 para revisar currículos de solicitantes de empleo con el fin de mecanizar la búsqueda del mejor talento.

Sin embargo, su nuevo sistema no calificaba a los candidatos para trabajos de desarrollador de software y otros puestos técnicos de manera neutral en cuanto al género, porque los modelos informáticos fueron entrenados para examinar según patrones en los currículos remitidos a la empresa en los últimos 10 años. La mayoría provino de hombres; un reflejo del dominio masculino en la industria tecnológica.

Congresistas y delincuentes: Amazon también es responsable de un error de reconocimiento facial grave. Creó un sistema de IA para detectar delincuentes en función de su rostro pero, cuando se puso a prueba con un lote de fotos de miembros del Congreso, probó ser incorrecto y tener prejuicios raciales.

Durante el ejercicio, la tecnología emparejó incorrectamente a 28 miembros del Congreso con personas que habían sido arrestadas, lo que equivale a una tasa de error del 5% entre los legisladores. Además, identificó mal y de manera desproporcionada a congresistas afrodescendientes y latinos como personas buscadas por la Policía. Amazon nunca aclaró si fue una falla con el reconocimiento de rostros no blancos o si los datos de entrenamiento estaban sesgados. O ambos.

Costoso error predictivo: Debido a la pandemia, el mercado inmobiliario sufrió cambios drásticos. Esta situación provocó que modelos de aprendizaje automático (IA) para predecir precios de viviendas fallaran. Lo anterior llevó a la empresa Zillow, un mercado de bienes raíces en línea, a cerrar parte de sus operaciones, en noviembre del 2021.

Uno de sus algoritmos se descarriló respecto a valoraciones de propiedades, lo cual condujo a la empresa a reducir el valor estimado de las casas que compró ese año por un monto de $500 millones. Esto le produjo pérdidas por $550 millones, por lo cual debió despedir al 25% de sus empleados para compensar el impacto en su negocio.

Demanda por pérdida: En junio del 2019, un magnate inmobiliario de Hong Kong compró un sistema de IA para manejar una parte de su dinero, con el fin de aumentar sus fondos. Sin embargo, el robot siguió perdiendo hasta $20 millones cada día. Para reclamar una parte de su dinero, el magnate Samathur Li Kin-kan demandó a la firma que le brindó el servicio por $23 millones.

En el caso, se indicó que la empresa exageró las capacidades de su tecnología K1 en lo que es considerado el primer ejemplo registrado de acción judicial por pérdidas debido a inversiones automatizadas.