Tecnología

Experimento secreto de Facebook tiene su lado positivo

Actualizado el 27 de julio de 2014 a las 03:00 pm

Tecnología

Experimento secreto de Facebook tiene su lado positivo

Rellene los campos para enviar el contenido por correo electrónico.

This picture loads on non-supporting browsers.
Estudiar la forma en que usamos las redes sociales puede proporcionar información sobre la conducta humana. (Darren Abate/Invision for Facebook/AP)

The New York Times

La reciente revelación de Facebook, de que había hecho llegar alguna información noticiosa a unos 700,000 usuarios, como parte de un experimento psicológico realizado en 2012 inadvertidamente, puso al descubierto lo que muy pocas compañías de tecnología reconocen:que poseen amplios poderes para vigilar de cerca, probar e incluso dar forma a nuestro comportamiento.

El estudio encontró que mostrar a la gente mensajes un poco más felices causa que las personas hagan publicaciones más felices, y mensajes más tristes provocan publicaciones más tristes. Su publicación desató un torrente de indignación por parte de personas que encontraron espeluznante que Facebook jugara con las emociones de los usuarios incautos.

Debido a que el estudio se realizó en colaboración con académicos, también pareció que viola normas largamente observadas sobre proteger a que las personas se conviertan en sujetos de experimentos sin haber dado su consentimiento al ser informadas. Varias agencias de privacidad europeas han comenzado a examinar si las leyes de privacidad locales fueron violadas por el estudio.

Pero puede haber otras maneras de ver el estudio de Facebook y su publicación. Por un lado, estudiar la forma en que usamos las redes sociales puede proporcionar información importante sobre algunos de los misterios más profundos de la conducta humana.

Facebook y gran parte del resto de la web son fructíferas placas de Petri de contacto social, y muchos investigadores en ciencias sociales creen que mediante el análisis del comportamiento de la gente en línea se puede ser capaz de averiguar por qué y cómo se extienden las ideas a través de los grupos, cómo se forman sus derechos políticos, puntos de vista, y lo que les persuade a actuar sobre ellos, e incluso por qué y cómo se enamoran las personas.

La mayoría de las compañías de Internet realizan extensos experimentos en los usuarios para probar productos y para otros fines empresariales, pero Facebook, debe reconocerse, ha sido inusualmente avanzado en trabajar en equipo con académicos interesados en investigar cuestiones que no son inmediatamente pertinentes para el negocio de Facebook. Esos esfuerzos ya han producido hallazgos importantes en las ciencias sociales.

Pero hay otro beneficio al fomentar las investigaciones en Facebook: Es solo mediante la comprensión del poder de las redes sociales, que la gente puede empezar a defenderse de sus posibles abusos.

El último estudio de Facebook demostró que puede influir en los estados emocionales de las personas; ¿no está contento de saberlo? Los críticos que argumentan desde hace tiempo que Facebook es demasiado poderoso y que tiene que ser regulado o supervisado, pueden ahora apuntar a un estudio propio de Facebook como evidencia.

Después de la protesta en contra de la investigación de Facebook, veremos menos estudios de la empresa y el resto de la industria de tecnología. Eso sería una lástima.

''Sería un tanto devastador’', dijo Tal Yarkoni, investigador de psicología de la Universidad de Texas en Austin, que trabaja en métodos para el estudio de grandes conjuntos de datos. ''Hasta ahora, si conocía a la persona correcta en Facebook y se elaboraba una pregunta interesante, un investigador realmente podía conseguir colaboradores en Facebook para trabajar en problemas interesantes. Pero Facebook no tiene que hacer eso. Tienen mucho que perder y casi nada que ganar con la publicidad’'.

Si ha sido elegido para un experimento de Google o Facebook, por lo general, nunca lo sabrá. Los usuarios que son puestos en grupos experimentales son seleccionados al azar, generalmente sin su conocimiento o permiso expreso.

Mientras que Facebook dice que las personas están de acuerdo en este tipo de pruebas cuando se inscriben en el sitio, los usuarios no son notificados adicionalmente cuando están incluidos en un estudio.

Un problema es que, obtener el consentimiento puede complicar los resultados experimentales.

''Facebook podría lanzar una solicitud a la gente para que acepte cada prueba, pero podría estropear totalmente los resultados, porque las personas estarían seleccionándose a sí mismas en la prueba’', dijo Yarkoni. (Las ciencias sociales que no están en internet y las investigaciones médicas se enfrentan a un problema similar.)

Gran parte de las investigaciones que Facebook y Google llevan a cabo para mejorar sus propios productos, son secretas. Algunas no lo son. Google ha reconocido que cada año ha efectuado alrededor de 20,000 experimentos con los resultados de las búsquedas en el sitio. Alguna vez probó 41 tonos de azul en su sitio, cada tono sirvió a un grupo diferente, solo para ver qué tonalidad obtuvo el mayor compromiso por parte de los usuarios.

En los últimos años, Facebook ha ampliado lo que llama su equipo de Ciencias de Datos, para llevar a cabo un mayor número de estudios públicos. La compañía dice que la misión del equipo es alterar nuestra comprensión de la psicología humana y de la comunicación mediante el estudio del lugar de encuentro más importante del mundo. Hasta el momento, ha producido varias ideas loables.

En 2012, el equipo de Ciencias de Datos publicó un estudio que analizó a más de 250 millones de usuarios; los resultados derribaron la teoría de ''la burbuja de filtro’', el ancestral miedo de que las redes en línea nos dan noticias que refuerzan nuestras creencias, encerrándonos en nuestras propias cámaras de eco. Al igual que el nuevo estudio sobre las emociones de la gente, ese experimento también quitó algunos mensajes publicados por las personas.

En otro experimento, Facebook dividió al azar a 61 millones de usuarios estadounidenses en tres áreas en la jornada electoral en el 2010, y mostró a cada grupo un mensaje distinto, no partidista, para salir a votar (o ningún mensaje en absoluto).

Los resultados mostraron que ciertos mensajes incrementaron significativamente la tendencia de la gente a votar – no sólo en las personas que utilizan Facebook, sino incluso en sus amigos que no lo usan.

Zeynep Tufekci, profesora asistente en la Escuela de Información y Ciencias de la biblioteca, de la Universidad de Carolina del Norte, señala que muchos de estos estudios sirven para poner en relieve el impresionante poder de Facebook sobre nuestras vidas.

''Leí eso y dije: 'Espera, Facebook controla las elecciones’'', dijo.. ''Si son capaces de empujarnos a votar, podrían empujar a algunos de nosotros en forma individual, y sabemos que pueden saber si usted es un republicano o un demócrata – y las elecciones se deciden por un par de cientos de miles de votantes en un puñado de estados. Así que el tipo de poder que tienen para provocar tendencias es un poder real’'.

Tufekci ha hecho un conmovedor llamado a las armas en contra de Facebook, Google y otros gigantes de la web, debido a su poder para dar forma a lo que hacemos en el mundo. Su argumento es totalmente loable.

Pero si cada estudio que muestra el poder de Facebook es recibido con protestas por su poder, Facebook y otros sitios no divulgarán ninguna investigación sobre cómo funcionan. ¿Y no es mejor saber su poder, y tratar de defenderse de él, a que nunca sea descubierto?

  • Comparta este artículo
Tecnología

Experimento secreto de Facebook tiene su lado positivo

Rellene los campos para enviar el contenido por correo electrónico.

Ver comentarios
Regresar a la nota