Analizamos cuáles son las razones que hacen difícil la tarea de discernir entre la información real y la falso y lo susceptibles que somos las personas a creer en las noticias falsas.

Cada nuevo día se publica una enorme cantidad de noticias y contenidos que compiten por captar nuestra atención. Estos abarcan los más diversos temas, desde política, salud, deportes, cambio climático, hasta la guerra en Ucrania. La cantidad interminable de información que está disponible instantáneamente como artículos de noticias, clips de video, fotos u otros medios en sitios web de noticias, redes sociales, televisión, radio y otras fuentes puede, y suele, ser abrumadora. ¿Es una sorpresa que tantos de nosotros tengamos problemas para lidiar con la sobrecarga de información que llega desde el mundo digital y para discernir entre lo que es real y ficción?

Últimamente gran parte del ciclo de noticias a nivel global se ha centrado en el conflicto en Ucrania. Comenzó con imágenes satelitales de movimientos del ejército alertando del riesgo de una posible invasión rusa. Luego, en la madrugada del 24 de febrero, comenzaron a llegar imágenes espeluznantes desde Ucrania a medida que los ciudadanos se dirigían a las redes sociales para publicar videos y fotos de tanques rodando por las calles y misiles que caían del cielo, dejando destrucción a su paso.

Desde entonces, todos hemos sido capaces de ver la guerra a través de nuestros teléfonos a un nivel de detalle nunca antes visto; no es por nada que la guerra ha sido apodad la “primera guerra TikTok”. El pueblo de Ucrania puede utilizar el alcance de plataformas como TikTok, Twitter e Instagram para mostrar al mundo lo que están pasando. De hecho, casi de la noche a la mañana algunas de estas aplicaciones pasaron de mostrar videos de baile a utilizarse para difundir escenas de guerra y llamados para obtener apoyo humanitario, lo cual atrajo innumerables opiniones y acciones en el proceso. No obstante, ambos lados de la guerra tienen acceso a estas plataformas, lo que derivó en que se convierta en un campo de batalla digital para tratar de influir a millones de personas en todo el mundo.

¿Pero siempre sabemos lo que realmente estamos mirando?

En 2008, tras su exitosa cobertura de la Copa Mundial de la FIFA 2006 que incluyó videos y fotos tomadas por los aficionados al fútbol, CNN lanzó iReport, un sitio web de “periodistas ciudadanos”. Entonces, cualquier persona podía subir su propio contenido en línea para la gran audiencia. En ese momento, Susan Gran, vicepresidenta ejecutiva de CNN News Service, garantizó que a partir de ese momento “la comunidad decidirá qué es noticia”, aclarando que las publicaciones serían “completamente no investigadas”.

La creencia de CNN se basaba en la idea de que el periodismo ciudadano es “emocional y real”. En 2012 se habían publicado 100.000 artículos, de los cuales 10.789 habían sido “examinados para la CNN, lo que significa que se verificaron los hechos y se aprobó su difusión”. Pero, ¿eso significa que los otros 89.211 eran reales? CNN iReport se cerró en 2015. Saltamos hasta 2022 y la desinformación es uno de los mayores problemas que enfrenta la sociedad a nivel global.

Lo que creemos no es necesariamente real

Según una investigación del MIT que se publicó en 2018 y analizó las noticias compartidas en Twitter, “la información falsa llega significativamente más lejos, se mueve más rápido, penetra de forma más profundo y su alcance es mayor que la verdad”. Incluso al eliminar los bots y considerar solo las interacciones humanas reales. Los resultados son sorprendentes hasta el punto de que concluyeron que “la información falsa tenía un 70% más de probabilidades de ser retuiteadas que la verdad”.

Un puñado de razones explican nuestra compleja realidad social. De hecho, al final del día, el problema subyacente puede ser algo de lo que todos somos víctimas: el sesgo cognitivo. Si bien puede ser útil para nuestra vida diaria, aunque solo sea permitiéndonos recordar procesos previamente aprendidos y reconocer situaciones familiares, puede dejarnos susceptibles ante los atajos mentales y puntos ciegos. Una conversación entre dos personas de ambos lados de la guerra en Ucrania es un claro ejemplo: ambas partes creen que están actuando racionalmente y se acusan mutuamente de ser parciales y de no comprender las complejidades de la realidad. A partir de este punto, cada uno estará más abierto a consumir noticias que confirmen su perspectiva – incluso si la noticia es falsa.

Lectura recomendada: Deepfakes: ¿estamos preparados para su impacto? 

Si bien generalmente nos rodeamos de personas con las que compartimos las mismas visiones del mundo, en las redes sociales esta tendencia es aún más pronunciada y nos hace muchos más propensos a tomar partido en una discusión. En línea se nos presenta una realidad filtrada, construida por un algoritmo que da forma a nuestra circunstancia virtual y nos alimenta con validación, sean cuales sean las ideas que tengamos. En las redes sociales, estamos dentro de nuestra propia burbuja, el lugar donde siempre tenemos la razón. Una denunciante de Facebook, Frances Haugen, dijo en el Parlamento Británico que “la ira y el odio es la forma más fácil de crecer en Facebook”.

Sin embargo, la desinformación no es una moda del siglo XXI. La propaganda, la desinformación y las noticias falsas han polarizado la opinión pública a lo largo de la historia. La diferencia es que, hoy en día, las noticias falsas se producen de forma instantánea y son fáciles de compartir.

Un artículo reciente publicado por Nature reflexionó sobre la experiencia de la pandemia de 1918 y los riesgos que podría tener un brote futuro. La autora, Heidi Larson, profesora de antropología en la London School of Hygiene and Tropical Medicine, predijo que “el próximo gran brote no será debido a la falta de tecnologías preventivas”, sino “el diluvio de información conflictiva, desinformación e información manipulada en las redes sociales”.

Trolls y bots lideran el frente

En 2018, cuando Larson escribió sobre difundir información errónea, utilizó un término con el que todos nos familiarizamos recientemente: super-spreaders o supercontagiador, al igual que con los virus. Una imagen que explica cómo los trolls en Internet “causan estragos publicando deliberadamente comentarios polémicos e incendiarios”.

Pero mientras algunos de ellos son solo personas aburridas usando el manto de invisibilidad de internet, otros se dedican a esto como un trabajo, inflamando la opinión pública y perturbando los procesos sociales y políticos.

Esta fue también una de las conclusiones de dos investigadores de Oxford que descubrieron varios ejemplos de cómo tanto el gobierno como las empresas privadas administran “tropas cibernéticas organizadas”. Estos batallones de trolls y bots utilizan las redes sociales para moldear las mentes de las personas y amplificar “voces e ideas marginales al inflar el número de likes, compartidos y retweets”.

Entonces,¿cómo lidian las redes sociales con esto?

Más difícil que conocer a las personas detrás de las noticias falsas es entender lo que podemos hacer para gestionar el contenido publicado en las plataformas en línea. Según escribió The New Yorker en 2019, durante la última década Facebook rechazó las acusaciones que señalaban que la red social era responsable filtrar contenido, en lugar de tratar el sitio como un espacio en blanco donde la gente puede compartir información. Desde entonces, las noticias falsas no solo han afectado los resultados de las elecciones, sino que también han perjudicado a las personas en la vida real.

Twitter, Telegram y YouTube también han sido muy criticados por su forma de actuar ante contenido engañoso, con algunos gobiernos que solicitan más responsabilidad e incluso considerando la posibilidad de impulsar la regulación de estos servicios para la difusión de contenido prohibido o ideas falsas y extremistas.

En enero de 2022, los sitios web de verificación de hechos de todo el mundo se dirigieron a YouTube con una carta abierta, alertando a la plataforma de video más grande del mundo de la necesidad de tomar medidas decisivas, principalmente “proporcionando contextos y ofreciendo rectificaciones”, en lugar de solamente eliminar el contenido de video. En la carta también se abordaba la necesidad de “actuar contra los reincidentes” y aplicar esos esfuerzos “en idiomas diferentes del inglés”.

¿Qué puede hacerse?

Larson afirma que “ninguna estrategia funciona sola”, sugiriendo una mezcla entre las campañas educativas y el dialogo. Y, mientras algunos países tienen buenos resultados en alfabetización digital y educación, otros no. La disparidad es grande, pero todos convergemos en el mismo espacio virtual compartido donde nadie quiere dialogar, escuchar o comprometerse realmente.

Pero si las personas con conocimientos digitales son “más propensas a detectar con éxito la diferencia entre noticias verdaderas y falsas”, todos tienen la misma probabilidad de compartir noticias falsas debido a lo simple e inmediato que es “un clic”. Esta fue la conclusión de otro estudio reciente del MIT, que aboga por otros tipos de herramientas.

Aquí es donde entran las plataformas de verificación de hechos, investigando y evaluando la calidad de la información incluida en una noticia o en una publicación viral en las redes sociales. Sin embargo, incluso estos recursos tienen sus propias limitaciones. Como la realidad no siempre es sencilla, la mayoría de estos sitios web siguen un indicador tipo barómetro que va desde “falso” a “mayormente falso”, “mayormente verdadero” a “verdadero”. Del mismo modo, la validez de esta investigación también puede ser desacreditada por aquellos que no ven sus ideas confirmadas, dando a las falsificaciones una esperanza de vida casi infinita.

No obstante, también tenemos un papel que desempeñar cuando se trata de discernir lo real de lo falso, y en el contexto de una guerra, este trabajo individual adquiere una importancia aún mayor.

Fuente noticia: https://www.welivesecurity.com/
Fuente foto: freepik.es