Cómo abordar la infodemia: Tres desafíos y una (posible) solución, co-creada con TED

5 de Octubre de 2021

Internet + RRSS nos dan la posibilidad de crear comunidades y conversar con personas de todo el mundo, de informarnos y conocer muchísimas problemáticas sociales antes invisibilizadas. Sin embargo, Internet también es un lugar donde se expanden cada vez más rápido las noticias falsas y en donde miles de personas son víctimas de acoso o de discursos de odio.

Lorena Moscovich, Jefa de Experimentación PNUD Argentina @lmoscovich

Olivia Sohr, Directora de Impacto y Nuevas Iniciativas, Chequeado, Argentina @olisohr
 

Gracias a Internet y las redes sociales, podemos aprender, crear comunidades, conversar con personas de todo el mundo y enterarnos de miles de noticias y tendencias locales y globales segundos después de que ocurran. Además, nos permiten conocer problemáticas sociales, muchas invisibilizadas para la opinión pública. Sin embargo, Internet también es un lugar donde se expanden cada vez más rápido las desinformaciones y donde miles de personas son víctimas de acoso o discursos de odio.

Los peligros están claros. ¿Su solución? No tanto.

Las posibles soluciones para contrarrestar los contenidos nocivos que circulan en Internet tienen al menos tres desafíos: evitar amplificarlos al intentar moderarlos o, cuando es el caso, desmentirlos; lograr que las personas escuchen las correcciones aun cuando vengan de quienes piensan distinto a ellas; y disponer de herramientas de control de los contenidos sin atentar contra la libertad de expresión.

¿Cuál sería la alternativa más efectiva para frenar la infodemia? Empezando por lo último, ningún esfuerzo de los gobiernos o de la sociedad civil será suficiente si los usuarios de Internet y las audiencias en general no participan en la tarea de velar por la calidad del contenido que circula. Por un lado, porque es un fenómeno masivo y, por el otro, porque es preciso garantizar la indispensable pluralidad de voces en esa tarea.

En segundo lugar, muchas veces sucede que en el anhelo de expresar la información correcta se les da mayor difusión a las desinformaciones. Esto se observa cuando las correcciones circulan mucho menos y en públicos diferentes de aquellos que originalmente las consumieron. Por eso, los chequeadores están siempre desarrollando nuevas estrategias para que los chequeos lleguen a quienes estuvieron expuestos a la desinformación. Y también hay evidencia de que los chequeos pueden hacer que menos personas compartan la desinformación y, por lo tanto, tenga un menor alcance.   De todas maneras, es necesario tener herramientas alternativas que complementen a los chequeos.

Por último, la hipótesis es que con mayor información sobre los tipos de contenidos que circulan -algo imposible de hacer por una sola persona o incluso un equipo, pero muy factible a partir de la inteligencia colectiva de cientos de ellas-, si los chequeos se multiplican, se podrían contrarrestar los sesgos de las audiencias cuando desconfían de la objetividad de un único emisor. De este modo, estarían dispuestas a prestar atención a las desinformaciones y sus chequeos, lo que resultaría en estrategias exitosas para mitigar estos peligros de Internet.

Para satisfacer los tres requisitos descriptos, se necesitaría una herramienta que le dé a cualquier persona de cualquier lugar del mundo, la posibilidad de monitorear la web garantizando la libertad de expresión de todos. Así, sería posible categorizar los contenidos en valiosos o dañinos, y generar información masiva y anónima según la escala de desinformaciones que circulan. Como resultado, se podría identificar una mayor cantidad de contenidos perjudiciales y denunciarlos.

Afortunadamente, ¡esta herramienta ya existe! Fue desarrollada por la organización internacional TED. Se trata de una extensión que se instala en el navegador y permite, con tan solo unos clics, marcar un contenido como valioso o dañino. Y, si fuese dañino, poder señalar si se considera que es contenido falso, discurso de odio o acoso.

Pero todo desarrollo de esta índole necesita un testeo. Para ello, se realizó un acuerdo con la red global de Laboratorios de Aceleración del Programa de las Naciones Unidas para el Desarrollo (PNUD) a fin de hacer pruebas pilotos y adaptaciones en diferentes países. La infodemia es un tema de gran preocupación para PNUD a nivel global, otras agencias como UNICEF y la Organización Mundial de la Salud (OMS), y, por supuesto, para el secretariado de la ONU que emprendió la campaña Verified.

El Laboratorio de Argentina, Co_Lab fue responsable de la adaptación para el público de habla hispana y su prototipado. Junto con Chequeado y TEDxRiodelaPlata, llevamos adelante una de estas pruebas piloto. Para darle un foco a la iniciativa, se definió una estrategia, que también contó con el apoyo de UNICEF y del Centro de Información de las Naciones Unidas, centrada en la desinformación que circula sobre las vacunas contra el COVID-19. Las razones de la selección del tema fueron su preponderancia en la discusión pública durante el período de prueba de la herramienta (mayo-julio 2021) y la cantidad de desinformación que circula sobre las vacunas dado que sabemos, por experiencias anteriores, que la desinformación puede disuadir a las personas de vacunarse.

La prueba piloto a pequeña escala permitió adaptar la herramienta al público de habla hispana, generar -tras dos seminarios- una discusión pública sobre los sesgos más usuales cuando consumimos contenidos que pueden ser desinformaciones y sobre las herramientas para contrapesarlo.

🟧🟦  POR UNA INTERNET MAS SANA: Caja de herramientas para evitar la  desinformación, reconocer los discursos de odio y casos de acoso

En este proceso, aprendimos mucho sobre cómo pensar en sistemas colectivos de monitoreo de los contenidos que circulan en la web. Decenas de personas se sumaron al lanzamiento para ser agentes activos en la mejora de la web y usar sus conocimientos para mejorar las discusiones colectivas.

Mediante campañas en las redes sociales, invitamos a personas a descargar la extensión y categorizar contenidos. 150 personas descargaron la extensión en los días que duró la prueba, pero no todas la utilizaron para categorizar los contenidos. Fue posible reunir unas 70 categorizaciones. Estas identificaron principalmente mentiras o manipulación, en segundo lugar, ideas valiosas, luego contenidos que generan división o miedo, y, por último, hubo solo unos pocos casos de acoso o abuso.

Entre las lecciones de la prueba, encontramos que la extensión en sí es un mecanismo simple aunque tiene algunas dificultades para el ingreso, ya que no todos suelen utilizarlas en su navegador web. No obstante, determinamos que, una vez instalada, es fácil de usar y atractiva, y permite hacer las categorizaciones muy rápido. Una idea que surgió con fuerza fue la posibilidad de adaptar la herramienta para su uso en celulares y así incluir a los cientos de miles de usuarios que navegan por este medio

El anonimato puede tener mucho potencial para llamar la atención sobre desinformaciones, dado que permite evitar los sesgos en la interpretación de estas denuncias, y proteger los datos personales. Sin embargo, limita las posibilidades de comunicación con los participantes y la creación de una comunidad. Además, dificulta la retroalimentación sobre los sesgos que también pueden influir en el tipo de categorizaciones y las muestras de impacto que podrían surgir del proyecto, que podrían dar un incentivo extra para que las personas continúen usando esta herramienta Otro desafío es incentivar a los usuarios para seguir con las categorizaciones una vez instalada la extensión, ya que la participación tendió a bajar a lo largo de la prueba.

Más allá de estas limitaciones, el potencial que puede tener el análisis colectivo de los contenidos que circulan es enorme porque permite multiplicar los categorizadores y el número de posteos, a la vez que preserva la identidad de los participantes. Dada la cantidad de información que circula en la web, y el interés identificado en grandes grupos de personas por tener un rol activo en mejorar la discusión pública, es posible que se pueda lograr un trabajo colectivo que ayude a potenciar lo mejor de la web y a mitigar sus aspectos dañinos, sin afectar la libertad de expresión.

Esta primera prueba nos permitió adaptar una herramienta de chequeo participativo para el público local. Aunque la participación fue baja, este primer piloto nos permitió conocer cómo funciona este tipo de trabajo colaborativo y contar con algunas lecciones para proyectos que puedan implementarse en el futuro.