Anuncio

Facebook implementó una prohibición radical sobre QAnon. ¿Funcionará?

In this Aug. 2, 2018 photo, a man holding a Q sign waits in line to enter a campaign rally with President Donald Trump
En esta foto del 2 de agosto de 2018, David Reinert con un letrero en forma de Q espera con otros para ingresar a un mitin de campaña del presidente Trump en Wilkes-Barre, Pensilvania.
(AP Photo/Matt Rourke, File)

En su decisión de política de contenido más radical hasta la fecha, Facebook implementó una prohibición total de las páginas, grupos y cuentas de Instagram relacionados con QAnon, este martes. La acción representa una fuerte escalada contra los proveedores de la vasta teoría de la conspiración que afirma sin fundamento que un misterioso grupo de demócratas y otras élites adoradoras de Satanás manejan una red de tráfico sexual infantil.

En agosto pasado, la compañía remarcó que eliminaría las cuentas de contenido y los grupos asociados con QAnon solo cuando hablaran de violencia potencial. Esa política inicial llevó a la empresa a dar de baja 790 grupos de QAnon y restringir 1.950 adicionales relacionados con la conspiración.

Facebook parece estar avanzando rápidamente en el cumplimiento de la nueva prohibición. Tres grupos centrados en QAnon identificados por The Times, que estaban en línea la semana pasada -incluido uno llamado “🇺🇸🎖🎖POTUS | W • W • G • 1 • W • G • A [Q] 🎖🎖🇺🇸”- ya no estaban disponibles el martes después del anuncio.

Anuncio

En una publicación de blog del martes, Facebook destacó que aunque las publicaciones de QAnon pueden no promover directamente la violencia, a menudo están vinculadas con “diferentes formas de daño en el mundo real”. La compañía citó un aluvión de afirmaciones falsas en las últimas semanas por parte de los seguidores de QAnon de que los incendios forestales que azotaron la costa oeste fueron iniciados por miembros de entidades anarquistas de izquierda como Antifa, lo cual desvió la atención de los funcionarios locales hacia la importante tarea de controlar el fuego y proteger a los residentes.

La compañía también señaló que comenzó a orientar a los usuarios a recursos creíbles de seguridad infantil cuando buscan hashtags que fueron cooptados por partidarios de QAnon, como #SaveTheChildren, que se refiere a la falsa afirmación de los teóricos de la conspiración de menores secuestrados como parte de una supuesta red de trata de personas.

Pero la iniciativa podría haberse implementado un poco tarde. QAnon era un movimiento marginal cuando comenzó, en complicados puestos de 4Chan, en 2017. El movimiento creció enormemente en estos años, pasó a un primer plano en 2020 y anima ahora la política de derecha.

Si bien Reddit y YouTube tomaron medidas anteriormente contra QAnon, Twitter y Facebook no habían cerrado o puesto límites a las cuentas vinculadas a QAnon hasta este verano.

Un ejecutivo de Reddit declaró a The Atlantic el mes pasado que la compañía no había hecho ningún esfuerzo para mantener a QAnon fuera de la plataforma. En cambio, los canales donde los seguidores se vinculaban fueron eliminados en medio de una represión más amplia contra el acoso y el discurso de odio. Reddit descartó en marzo de 2018 uno de los canales originales relacionados con la conspiración, r/CBTS_stream, por su incitación a la violencia, y en septiembre de ese año prohibió un foro principal de teorías de la conspiración de QAnon que tenía alrededor de 70.000 suscriptores.

El portavoz de YouTube, Alex Joseph, señaló por correo electrónico que la compañía eliminó decenas de miles de videos y canales relacionados con QAnon por violar las políticas de odio y acoso del sitio desde 2018. A principios de 2019, la empresa también tenía como objetivo reducir las recomendaciones de videos que hacen referencia a teorías de conspiración relacionadas con QAnon.

Facebook ha intentado sin mucho éxito instituir políticas anteriores de manera integral. Con su gesto de agosto pasado buscó limitar el alcance de las páginas y cuentas de QAnon, incluso cuando no podía prohibirlas. Aún así, el propio algoritmo de la empresa seguía recomendando a los usuarios grupos que discutían la teoría y estos continuaron creciendo e incorporando cientos de nuevos miembros, según una investigación del New York Times, publicada en septiembre pasado.

Desde esa prohibición, los grupos de QAnon idearon formas de ser menos explícitos en sus referencias a la teoría de la conspiración para escapar de las sanciones de la empresa. “Facebook ayudó a la comunidad de QAnon a crecer exponencialmente y se negó a tomar medidas apropiadas a principios de este año, cuando hubiera sido importante”, destacó Angelo Carusone, presidente de la organización de vigilancia sin fines de lucro Media Matters for America, en un comunicado.

Carusone destacó también que la empresa había fallado en su anterior medida, lo cual dio a la comunidad de QAnon una advertencia y “tiempo suficiente” para cambiar los nombres de los grupos y las descripciones de las páginas.

La Cámara de Representantes de Estados Unidos aprobó una resolución bipartidista la semana pasada para condenar la teoría de la conspiración. Los principales demócratas del Senado, incluido el senador estadounidense Mark R. Warner (D-Virginia), pidieron a Trump que rechace el movimiento, pero no tuvieron éxito. Lejos de ello, el presidente elogió a los seguidores de QAnon por apoyarlo.

“Me complace ver que Facebook toma medidas contra esta teoría y movimiento de la conspiración dañinos y cada vez más peligrosos”, destacó Warner en un comunicado. “En última instancia, la prueba real será ver si Facebook en verdad toma medidas para hacer cumplir estas nuevas políticas; hemos visto en una miríada de otros contextos, incluso con respecto a las milicias de derecha como los Boogaloos, que Facebook falla repetidamente en hacer cumplir políticas existentes”.

Para leer esta nota en inglés haga clic aquí

Anuncio