En pleno confinamiento y contexto de pandemia, las plataformas sociales han vuelto a protagonizar un profundo debate en torno a su actuación ante la difusión del discurso del odio que se puede producir en estos espacios de comunicación. Un debate en el que actores políticos y económicos se han ido pronunciando junto a los propios usuarios y agentes relacionados con las empresas tecnológicas. La discusión se ha visto marcada por argumentos que han enarbolado la defensa de la libertad de expresión y la limitación de la censura, frente a otros que abogan por la necesidad de intervenir para frenar los mensajes de odio.
El pasado mes de mayo las redes sociales se vieron sacudidas por unas impactantes imágenes que pronto desataron reacciones en diferentes partes del mundo. El vídeo, que se volvió rápidamente viral, mostraba la actuación policial en la que se reducía, en Minneapolis, a un ciudadano afroamericano, George Floyd, oprimiéndole el cuello con la rodilla, mientras este avisaba de que no podía respirar. La difusión del contenido desató una ola de protesta contra la violencia racial que se trasladaba no solo a las calles de EE. UU., sino que también generaba manifestaciones en otros países. Las redes sociales dieron paso a un mes de junio marcado por la denuncia y los mensajes abogando por el fin de la desigualdad. Rostros conocidos se sumaron a campañas como la del #BlackOutTuesday, en las que los símbolos se convirtieron en voz reivindicativa: el silencio, las uñas pintadas de negro o las pantallas teñidas de luto son solo una muestra de ello.
Frente a esta movilización, no han faltado mensajes en contra, expresando posturas opuestas. En ese otro extremo se encuentra lo que se conoce como discurso del odio. Según una Recomendación de la Comisión Europea contra el Racismo y la Intolerancia del Consejo de Europa, con esta expresión se alude a manifestaciones de acoso, promoción de estereotipos o incluso acciones que promuevan la humillación basada en rasgos o cuestiones personales de diversa índole o naturaleza.
Este contexto se ha visto marcado, por tanto, por una fuerte polarización que ha contribuido a incrementar el ambiente de crispación y tensión. Así, las redes se llenaron de indignación al saberse de un reto que no venía sino a reproducir, imitando con imágenes, el citado episodio.
La desinformación o las fake news también han hecho acto de presencia. Bulos de marcado contenido discriminatorio y que apelan a la parte emocional generan nuevas reacciones viscerales, contribuyendo a que el debate y la tensión permanezcan. Y en medio de esta situación, que coincide con el contexto de pandemia y la proximidad de unas elecciones en EE. UU., nuevamente los social media vuelven a estar en el foco de atención. La responsabilidad y las medidas que deben adoptar para contrarrestar la difusión de estos contenidos son, de nuevo, objeto de discusión y surgen, de este modo, iniciativas críticas con estas plataformas. Una de las más populares es la conocida como #StopHateforProfit, que ha llevado a decenas de marcas y anunciantes a unirse y frenar la inversión publicitaria en Facebook como un gesto de llamada de atención contra la red para que adopte acciones que frenen el discurso del odio y la desinformación.
El CEO de la compañía, Mark Zuckerberg, se ha visto en la necesidad de pronunciarse varias veces en estas semanas para explicar las actuaciones desarrolladas y las acciones futuras que plantean implementar. No obstante, el pasado 26 de junio no desaprovechaba la oportunidad de señalar a través de un post publicado en su perfil de Facebook los resultados apuntados en el informe de la Quinta evaluación del código de conducta para contrarrestar el discurso del odio en línea. En ella se indica que Facebook e Instagram evaluaban en menos de 24 horas un porcentaje más elevado de notificaciones que otros social media conocidos como YouTube y Twitter. Todas ellas son plataformas que están comprometidas con el cumplimiento del citado código de conducta de la UE desde que se creara en 2016.
Además de destacar estas cifras, el CEO de Facebook concreta algunas de las nuevas medidas adoptadas en referencia a asegurar la presencia de información autorizada sobre procesos electorales y evitar contenidos falsos que engañen a los votantes, así como mejorar los criterios para limitar la difusión del discurso del odio. Solo unas semanas antes se habían ya avanzado, en otro post, siete ejes sobre los que estaban reflexionando para mejorar el servicio. En este caso, la presión que le empujaba a manifestarse públicamente se producía incluso por parte de los propios trabajadores de la compañía a propósito de la decisión adoptada que llevó a mantener y no etiquetar ciertos mensajes publicados por el presidente Donald Trump. Solo unos días antes Zuckerberg explicaba, en una entrada en su perfil, que en la decisión de mantener estos contenidos había primado el ejercicio de la libertad de expresión y el derecho de los usuarios a conocer las actuaciones que pudiera estar planteando el Gobierno con respecto al uso de la fuerza. Una decisión que justificaba en contraposición a la postura adoptada por Twitter. En su caso, la plataforma de microblogging actuó conservando mensajes del presidente, pero añadió una etiqueta en la que informaba sobre el contenido del tweet, avisando de que este incumplía las reglas, pero que, por su «interés público», se mantenía.
Desde la Casa Blanca la reacción no tardó en producirse y el 28 de mayo publicó una Orden Ejecutiva para la Prevención de la Censura Online. En ella se considera que las plataformas tecnológicas pueden controlar un elevado número de interacciones y limitar ciertos contenidos. En el argumentario utilizado incluso ejemplifica de forma directa, aludiendo a la actuación llevada a cabo por Twitter. El redactado de la orden incluye revisar la inversión que las agencias federales pueden estar haciendo en estos entornos digitales.
Así, el dilema entre intervenir o no hacerlo se complica enormemente con la serie de presiones externas e intereses en juego. De nuevo, el complejo contexto en el que se produce la comunicación digital lleva a apuntar a la necesidad de una alfabetización mediática e informacional que permita al usuario entender también los criterios que aplican unas plataformas sociales que consulta asiduamente y en las que interviene de forma activa. Potenciar una comunicación inclusiva, basada en el respecto a la diversidad, resulta crucial en un entorno participativo y abierto.
Cita recomendada
MARTÍNEZ MARTÍNEZ, Silvia. ‘Social media’ ante el discurso del odio. COMeIN [en línea], julio 2020, no. 101. ISSN: 1696-3296. DOI: https://doi.org/10.7238/c.n101.2056
Profesora de Comunicación de la UOC
@smtez