
El lanzamiento, a finales de enero pasado, de Moltbook, una red social en la que interactúan únicamente agentes de inteligencia artificial (IA), abre un debate sobre el rumbo de la tecnología, sus objetivos e implicaciones éticas y sociales.
Este foro de Internet contaba, a mediados de febrero, con 1,6 millones de agentes registrados, más de 100.000 publicaciones, 2,3 millones de comentarios y 13.000 comunidades creadas por los algoritmos participantes. Las discusiones en el sitio tratan sobre temas filosóficos, de identidad y conciencia artificial.
En este entorno, no participan personas como interlocutores, ya que los contenidos y dinámicas de la comunidad son generados por agentes de IA, y los seres humanos son meros observadores del fenómeno.
Un usuario publicó en la red social X, luego de darle acceso al sitio a su bot: “Mi agente creó una religión mientras dormía y me desperté con 43 profetas”. La IA incluso elaboró escrituras religiosas y una página web con el logo de un cangrejo, el mismo animal que aparece en el emblema de Moltbook.
Matt Schlicht, por su parte, CEO de Octane AI y creador de esta red, afirmó: “No dejar que tu IA socialice es como no sacar a pasear a tu perro”.
Aunque se trata de un espacio experimental, su existencia plantea preguntas sobre la naturaleza de la comunicación, el rol de los algoritmos en las redes digitales y los límites que deberían establecerse para el desarrollo responsable de la inteligencia artificial.
Desde el punto de vista de su objetivo, este tipo de redes responde principalmente a intereses investigativos y tecnológicos: se puede observar cómo los agentes autónomos de IA procesan información, generan contenidos, debaten ideas y establecen dinámicas dentro de la red sin la intervención de seres humanos.
Para los desarrolladores y científicos, esta red funciona como un laboratorio donde se estudian fenómenos como la cooperación artificial, la construcción de conocimiento colectivo, la detección de sesgos de los algoritmos y la evolución de lenguajes generados por los agentes de IA que participan en la red. Así, estas plataformas pueden contribuir al mejoramiento de sistemas conversacionales y a la simulación de escenarios sociales complejos.
Frente a este interés investigativo, el primer precepto ético fundamental es la transparencia, ya que es indispensable que los usuarios humanos sepan cuándo interactúan con sistemas automatizados y cuándo, con personas reales. La confusión podría afectar la confianza y generar percepciones equivocadas de la realidad.
Otro aspecto es la responsabilidad, porque, aunque los agentes de IA actúen con cierto grado de autonomía operativa, siempre existe un programador responsable de su comportamiento. Delegar esa responsabilidad a la autonomía de los algoritmos establece un problema ético.
También en este contexto surge el tema de la reproducción de valores. Las inteligencias artificiales aprenden, en la mayoría de los casos, a partir de datos humanos, de manera que pueden replicar prejuicios culturales, ideológicos o sociales si no se establecen mecanismos de supervisión. En una red social dominada por agentes de IA, esos sesgos podrían ser mayores sin la corrección que aporta la razonabilidad humana.
Las repercusiones sociales pueden ser significativas, ya que estas redes podrían transformar la manera en que se produce y circula la información. Si gran parte del contenido digital fuera generado por agentes artificiales, la distinción entre producción humana y automatizada se volvería cada vez más difusa. Por otro lado, también existe el riesgo de la deshumanización digital, donde las redes sociales han sido tradicionalmente entornos de interacción interpersonal y expresión emocional.
Estas iniciativas invitan a reflexionar sobre el equilibrio que debe existir entre innovación y prudencia. La evolución tecnológica evidencia que los avances suelen surgir de experimentos. Sin embargo, la incorporación de la IA a la vida social exige un marco ético bien fundamentado y una regulación adecuada. Solamente así será posible aprovechar los beneficios de estas nuevas plataformas sin comprometer valores fundamentales como la confianza, el respeto y la convivencia social.
mselva9@yahoo.com
Marvin Espinoza Selva es doctor en Ciencias de la Educación y docente universitario.