El Explicador

¿Podría Facebook censurar a políticos ticos durante las elecciones?

Facebook ya usó su facultad de silenciar y castigar a personajes públicos que comparten noticias falsas deliberadamente, o que incitan a la violencia y al odio.

El Explicador | ¿Podría Facebook censurar a políticos ticos durante las elecciones?

¿Qué ha pasado con Facebook?

A mediados de 2020, Facebook creó al Oversight Board, una junta de supervisión de contenido con personas especializadas que no trabajan para Facebook. Son 40 miembros provenientes de diferentes países del mundo y representantes de diferentes disciplinas y orígenes. La idea surgió de un académico de Harvard y fue apoyada por Mark Zuckerberg desde 2018. Según CNET, un medio dedicado a la tecnología, se supone que esta junta funciona como un juzgado independiente.

Ojo: los miembros del Oversight Board no son moderadores de contenido de Facebook, sino un consejo experto que tiene como misión robustecer y apoyar el “derecho a la libre expresión” de los más de 2.700 millones de usuarios de la red social.

De hecho, vos y yo podemos quejarnos de Facebook con estos expertos, enviando una aplicación aquí: enviar aplicaciones aquí. Por lo general, lo que hacen es analizar y hasta revertir decisiones de Facebook que tienen que ver con libertad de expresión, como por ejemplo, que la empresa haya borrado un post.

Pues bien, ya que tenemos contexto, vayamos a la noticia:

Hasta el próximo 8 de febrero, el Oversight Board recibirá comentarios públicos de todo el mundo, acerca de la decisión de Facebook de suspender indefinidamente las cuentas del expresidente Donald Trump en esa red social y en Instagram, también parte del grupo Facebook. (La empresa las suspendió por considerar que Trump incitó a la violencia durante el ataque al Capitolio en Washington DC, el pasado 6 de enero).

Hasta ahora, desde su conformación oficial en mayo de 2020, el Oversight Board revirtió cuatro decisiones de moderación de contenido de Facebook, haciendo que publicaciones borradas sean restauradas.

Como es normal, a raíz de casos como el escándalo Facebook-Cambridge Analytica, o lo expuesto en el documental The Social Dilemma (2020), hay dudas sobre cuán independiente será este Oversight Board, y cuánto poder tendrá sobre Facebook.

En el caso de Trump, no solamente Facebook suspendió o removió sus cuentas oficiales, sino que otras redes como Twitter, Snapchat, Reddit y Tik Tok también lo hicieron.

Pero como menciona The Wall Street Journal en este podcast recomendado, incluso quienes consideran que silenciar al expresidente fue apropiado para evitar más violencia tras el 6 de enero, reconocen que la demostración de poder tan vertical de las grandes redes sociales (‘Big Tech’), resulta incómoda. Básicamente, estas empresas pueden “desaparecer” a alguien del debate público.

A continuación nos preguntamos si esta facultad de silenciar a personajes públicos que comparten noticias falsas deliberadamente, o que incitan a la violencia y al odio a través de sus redes, podría impactar futuras elecciones, no solamente en Estados Unidos (EE.UU.) sino también en países como Costa Rica.

¿Lo que le hicieron a Donald Trump puede convertirse en algo normal? ¿Puede impactar a Costa Rica?

Eduardo Ulibarri, exembajador de Costa Rica ante la Organización de Naciones Unidas (ONU) y experto en política internacional, cree que más bien a Facebook le sirve que exista contenido divisorio, controversial. No solo le sirve: más bien lo promueve.

Según Ulibarri, estamos ante dos problemas concatenados:

Problema #1: “Un modelo de negocios que es contrario a la salud del debate público, porque más bien estimula la confrontación de los mensajes en aras de crear ‘engagement’ del público con esas plataformas. Y al crear esa participación, tienen más datos, tienen mayor riqueza, y pueden vender más información física a los anunciantes”.

Problema #2: “Que de una decisión privada surje la potestad de evitar o impedir que una persona pueda o no pueda participar del debate público”.

A pesar de ser empresas privadas, opina Ulibarri, Facebook y Twitter son la arena de discusión pública en este momento en el mundo, no solamente en EE.UU.

Para Ulibarri, tanto Facebook como Twitter --y otras redes sociales-- tienen como parte de su modelo de negocios estimular, poner en el primer lugar de la atención de sus usuarios, los mensajes más emotivos, más confrontativos, más prejuiciosos.

“Su modelo de negocios estimula y depende en gran medida del tipo de comunicación que, llevada a sus extremos, puede conducir a lo que hizo Trump antes y durante el día del ataque al Capitolio”.

“Lo que creo que deberían hacer es modificar sus modelos de negocios, que sea un modelo de negocios menos perverso, menos dependiente de las emociones más básicas, más primitivas y a veces más destructivas de los seres humanos. Y depender menos de estimular eso para generar involucramiento del público y por ende aumentar la riqueza de info personal que luego pueden vender”, analiza Ulibarri.

El castigo de Facebook a Trump fue, en parte, porque el exmandatario incitó a la violencia con la difusión de mentiras; de desinformación. Desde que se supo que Joe Biden era el presidente electo de EE.UU., Trump se encargó de diseminar desde todas sus tribunas que él era víctima de un supuesto fraude electoral; afirmación que su equipo legal nunca pudo demostrar.

Para César Bravo, máster en ciberseguridad e inventor líder del Comité Latinoamericano de Patentes, las noticias falsas son uno de los mayores peligros a los que se enfrenta la sociedad actualmente.

En Costa Rica se han conocido casos recientes de personajes públicos o políticos, que difunden información falsa en Facebook y otras redes.

Un estudio realizado en la Universidad de Oxford, Reino Unido, encontró que “políticos y troles manipulan la opinión en Costa Rica con estrategias rudimentarias de ‘fakenews’. Entre los ejemplos que citan están estos dos:

--Las encuestas que la campaña del excandidato Fabricio Alvarado divulgó previo a la segunda ronda de las elecciones presidenciales del 2018, sin revelar que dichos estudios se hicieron por encargo del partido político.

--La vez que el sitio Diario La Carta, ligado a Francisco Prendas, presidente del partido Nueva República, difundió una noticia falsa sobre una supuesta decisión del gobierno de aumentar la tasa del impuesto sobre el valor agregado (IVA) de un 13% a un 16%.

César Bravo lamenta que es básicamente “imposible” que empresas como Facebook puedan monitorear todas las noticias o informaciones, y determinar si son falsas o no. Lo que puede hacer es crear alianzas con medios de comunicación independientes y verificados, para luchar contra esa propagación de mentiras. Sin embargo, es difícil lograr resultados notorios.

“Uno de los principales problemas de las noticias falsas es su rápida propagación en redes sociales. Ya que a veces se borra el post original pero puede haber miles de copias que siguen siendo compartidas por otros usuarios”, subraya César Bravo.

El flujo de publicaciones es inmenso, y es virtualmente imposible que moderadores humanos impidan la difusión de desinformación. Para eso hay algoritmos automatizados, pero lo que unos llaman ‘noticias falsas’ o ‘mentiras’, puede no serlo para otras personas. O sea que de igual forma los algoritmos tienen una tarea difícil en caso de que Facebook quiera meterse de lleno en este tema. No es algo sencillo de automatizar.

Eduardo Ulibarri subraya, por ejemplo, que ya existen algoritmos que detectan fotos de desnudos y los borran automáticamente, notificando a quien los publicó. No se puede hacer lo mismo con la desinformación. Al menos no con esa efectividad.

El doctor en Gobierno y Políticas Públicas, Carlos Murillo, también analista de política internacional, no cree que Facebook expanda decisiones como la de suspender las cuentas a Donald Trump hacia países como Costa Rica. Para naciones como la nuestra, Murillo promueve más bien que la regulación del contenido que difunden personajes públicos provenga de las leyes locales.

“Creo que en el caso de EE.UU. sí. Pero no en los otros países. Lo que resulta preocupante por el ataque masivo a la democracia desde las redes sociales. Aquí se pasa otro filo o frontera: ¿hasta dónde llega la libertad en las redes sociales e Internet? En mi criterio, no puede ser ilimitada. Yo tengo obligaciones como miembro de una comunidad. Si uno como ciudadano tiene obligaciones, con más razón la deben tener los líderes políticos, pero ya sabés que eso no sucede, y que algunos usan las noticias falsas para su beneficio, incluso económico, cuando se vuelven virales. En Costa Rica debería legislarse en materia político-electoral ese asunto”.

Queda por verse qué decisiones tomará el Oversight Board en cuanto a devolverle o no las cuentas a Donald Trump. Y queda por ver cuánta independencia le dará Facebook a los 40 miembros de ese consejo supervisor.

Por ahora, el Oversight Board solo ha revertido cuatro decisiones de Facebook, de cinco analizadas. Podés leer los fallos detenidamente aquí. Según la información disponible, se trata de publicaciones de usuarios que no necesariamente son personajes públicos como Donald Trump. Por eso la importancia del precedente que pueda --o no-- sentar este consejo después del 8 de febrero.

Ojo: un grupo de 25 personas, parte de la oenegé llamada The Citizens, del Reino Unido, creó el Real Facebook Oversight Board, alegando que la junta creada por Facebook no es confiable. De hecho, ellos no están de acuerdo con los primeros fallos.

Fabrice Le Lous

Fabrice Le Lous

Periodista francés radicado en Centroamérica. Becario ICFJ. Exeditor en La Prensa (Nicaragua). Autor del blog El Explicador, un nuevo formato para comprender noticias nacionales e internacionales.