Pandemia y control de la desinformación

Con el covid-19 también llego una pandemia de desinformación en las redes sociales.

8 de abril de 2020 

El covid-19 trajo también una pandemia de desinformación en las redes sociales. Teorías de la conspiración, curas milagrosas, tratamientos alternativos o experimentales y bendiciones sanadoras están a la orden del día. Los límites entre la información y la opinión se desdibujan y las redes sociales toman medidas de emergencia que, sin embargo, dejan muchos cuestionamientos en términos de libertad de expresión.

En marzo, Twitter, Facebook y YouTube eliminaron videos publicados por el presidente de Brasil, Jair Bolsonaro, donde invitaba a la gente a romper la cuarentena y hablaba de la hidroxicloroquina (un medicamento usado en el tratamiento de la malaria) como un remedio efectivo para el virus. Twitter también eliminó un trino de Rudy Giuliani, abogado personal de Donald Trump, en el que sostenía que este tratamiento era “100 por ciento efectivo”; eliminó un trino de Nicolás Maduro en el que proponía un tratamiento casero para el virus y bloqueó temporalmente la cuenta de la revista conservadora The Federalist, luego de borrarle un trino que hacía link a una publicación en la sugería tratar la pandemia a través de la infección voluntaria de personas. ¿Son estos bloqueos censura, un intento por evitar la propagación del coronavirus o un poco de ambas?

Desde hace años, estas plataformas se han enfrentado a la exigencia constante de que controlen los contenidos publicados por sus usuarios. Sin embargo, esta demanda genera dos inconvenientes: (i) uno de regulación: se encarga a las plataformas de definir los límites de la libertad de expresión y (hoy en día) de determinar qué coincide y qué no con el paradigma científico del momento y (ii) otro de implementación: la aplicación efectiva de las normas de las plataformas para el control de los millones de publicaciones que se hacen a diario en internet es imposible.

Conscientes del inmenso (y costoso) esfuerzo técnico y humano que entraña la implementación de las normas, y reacias a asumir el rol de jueces de la verdad, las plataformas han sido laxas y cautelosas con el control de la desinformación. Por ejemplo, Twitter no tenía reglas específicas al respecto en su plataforma –enfocándose en la actividades de las cuentas antes que en los contenidos– y Facebook había confiado principalmente en el trabajo de fact-checkers externos… hasta ahora.

Twitter tuvo que correr a ajustar sus reglas para afrontar la contingencia, pasando de no tener ninguna política sobre desinformación a una estrategia agresiva, más estricta que la de Facebook. Ahora, la red prohíbe el contenido que tenga el claro objetivo de hacer un llamado a la acción que pueda representar un riesgo directo para la salud de las personas y que vaya en contra de lo indicado por “fuentes autorizadas de información de salud pública global y local”. Pero la norma es tan ambigua que no aclara quién podría ser una fuente autorizada de información y qué pasa cuando hay contradicciones entre ellas (Bolsonaro vs. la OMS o Bolsonaro vs. su propio ministro de salud, por ejemplo).

Entre otras cosas, Twitter ya no permite negar las recomendaciones de las autoridades sanitarias (“el distanciamiento social no es efectivo”); describir tratamientos “ineficaces”, incluso si se hace en forma de broma o si son inofensivos (en Facebook sí se permiten, pero se le añaden alertas y se reduce su visibilidad) o negar datos científicos sobre el contagio durante el periodo de incubación.

En otras medidas, Facebook ha decidido prohibir todos los anuncios publicitarios para la venta de tapabocas, gel y toallitas desinfectantes y kits de prueba del coronavirus. Por su parte, en una medida drástica, Google no está permitiendo ningún anuncio que incluya palabras relacionadas con el virus, incluso si son beneficiosos para los usuarios o que aporten información de interés público, como anuncios sobre canales de donación.

Las plataformas actúan como si hubiera consenso sobre asuntos claves del contagio. Por ejemplo, mientras la gente clamaba por la prohibición de los vuelos internacionales, la OMS desaconsejaba el cierre de fronteras. Iniciando la pandemia, nos decían que sólo las personas contagiadas debían usar tapabocas; hoy se dice que todos debemos hacerlo. Los expertos tampoco parecen estar de acuerdo en si el virus se propaga por el aire o no y ni qué decir sobre la efectividad de los tapabocas hechos en casa, recomendados por el Centro para el Control y Prevención de Enfermedades de Estados Unidos.

Para dificultar las cosas, miles de personas que trabajan en la implementación de las normas de las redes sociales (es decir, revisando y eliminando posibles contenidos infractores) también se están yendo a sus casas a cumplir con el distanciamiento social. En consecuencia, las plataformas tienen que confiar más y más en sus herramientas de inteligencia artificial para tomar esta clase de decisiones. El reto es grande: hay que eliminar contenidos prohibidos, sin perjudicar información de interés público, fiándose de algoritmos que no entienden de contexto y que hay que ajustar en tiempo récord.

Las frustraciones y los errores no se han hecho esperar. En marzo, Facebook bloqueó centenares de publicaciones legítimas relacionadas con el coronavirus, luego de ser erróneamente marcadas como spam. Más recientemente, el sistema de Facebook amenazó con bloquear a personas que están organizando grupos para la producción de tapabocas caseros, pero luego la red social aclaró que todo se trató de un error de su tecnología de inteligencia artificial. Además, la red social no sólo ha pedido paciencia a los usuarios por errores y demoras, sino que también ha dicho que probablemente no revisará las apelaciones de los usuarios a sus decisiones de moderación.

En la clásica discusión sobre moderación de contenidos en internet, siempre está la pregunta de si queremos realmente encargar a las plataformas de determinar qué es admisible y qué no. Sin embargo, los cambios acontecidos durante los últimos días dejan nuevas preguntas. Es usual que en tiempos de emergencia los Estados implementen normas que luego se establezcan permanentemente. Por estos días se habla mucho de las tecnologías de vigilancia que quedarán instaladas y operando después de la emergencia. ¿Pasará lo mismo con las nuevas reglas de control del discurso después de la pandemia?

Así mismo, desarrolladas las tecnologías de inteligencia artificial para atender la contingencia, ¿hasta qué punto se seguirá apostando por ellas, en vez del control humano que puede entender de contexto? Pareciera que nuestra palabras están destinadas a ser controladas por máquinas.

Finalmente, las medidas tomadas por las plataformas están afectando expresiones legítimas, ¿hasta dónde se sacrificará la libertad de expresión?

Este artículo fue publicado en La Silla Vacía 

 

 

@linterna

contacto@linternaverde.co