
Una investigación que sistemas de inteligencia artificial pueden captar valores culturales al observar comportamientos humanos en situaciones colaborativas. El hallazgo surgió de un estudio de la Universidad de Washington que indicó que principios como el altruismo y la cooperación varían según el entorno social, por lo que estos modelos no operan de manera neutra.
El análisis señaló que la IA aprendió patrones culturales mediante ejemplos directos, un proceso comparable al aprendizaje infantil dentro de una comunidad. La investigación se publicó el 9 de diciembre en la revista PLOS One.
Los autores explicaron que no existe un conjunto único de valores aplicable a todas las culturas. Por esa razón, propusieron un sistema capaz de detectar qué aprecia cada grupo social mediante la observación de acciones humanas.
La iniciativa se inspiró en estudios previos sobre niños de 19 meses criados en hogares latinos y asiáticos. Esas investigaciones indicaron que esos menores mostraron mayor altruismo que los de otros contextos. El equipo buscó reproducir esta lógica en sistemas artificiales.
Un experimento basado en juego cooperativo
Para poner a prueba la hipótesis, los científicos reclutaron 300 adultos. Entre ellos, 190 se identificaron como caucásico y 110 como latinos. Cada uno jugó una versión adaptada del videojuego cooperativo Overcooked.
El objetivo consistió en preparar y entregar la mayor cantidad posible de sopas. Los participantes observaron otra cocina en desventaja. Ese espacio lo ocupó un bot que solicitó ayuda. Las personas podían donar ingredientes, aunque esa decisión redujo su rendimiento.
El grupo latino ayudó más al bot que el grupo caucásico. Los modelos de IA entrenados con los datos de cada población aprendieron ese patrón. Al jugar, los agentes basados en datos latinos mostraron mayor altruismo y distribuyeron más recursos.
Verificación del aprendizaje
Los investigadores desarrollaron un segundo escenario para confirmar si la IA captó un valor general y no una estrategia específica del juego. En esta prueba, los agentes debían decidir si donaban parte de su dinero a una persona con necesidad.
Los sistemas entrenados con información latina resultaron más propensos a donar. La técnica utilizada fue aprendizaje por refuerzo inverso (IRL), método que permitió a la IA inferir objetivos y valores a partir de acciones humanas sin recibir recompensas explícitas.
Los científicos compararon este enfoque con la forma en que los padres enseñan valores mediante ejemplos cotidianos, no mediante órdenes repetidas.
Proyección y desafíos
El equipo afirmó que la metodología podría escalarse. Empresas tecnológicas podrían ajustar modelos de IA con datos culturales antes de implementarlos en diversas regiones. No obstante, los especialistas indicaron que se requieren más estudios para evaluar el desempeño en contextos reales que mezclen múltiples culturas y valores contradictorios.
Los autores destacaron que comprender cómo una IA incorpora perspectivas culturales resulta un desafío clave para el desarrollo de sistemas responsables.
*La creación de este contenido contó con la asistencia de inteligencia artificial. La fuente de esta información es de un medio del Grupo de Diarios América (GDA) y revisada por un editor para asegurar su precisión. El contenido no se generó automáticamente.
