6 de diciembre de 2018

E

El algoritmo del miedo y la desinformación

por Luis Serrano

Nuestra condición de ciudadano hiperconectado nos ha convertido en hipermanipulables. Compartimos causas y símbolos en una misma comunidad. Consumimos información en un filtro burbuja propiciando la desinformación y mayor polarización. Además, el contenido que compartimos en los límites nos ha vuelto fácilmente manipulables.

 

El poder real reside en la creación de un relato intersubjetivo que sea capaz de entrelazar a una masa entorno a una causa común cuyos líderes conectores han sido capaces de sellar una fuerte afinidad a través de símbolos. Estos símbolos les reconocen a todos como parte de una misma tribu aunque ninguno de ellos se haya visto o vaya a encontrarse nunca, hablen idiomas diferentes y estén a miles de kilómetros de distancia.

De esa manera, si queremos entender cómo fuerzas antagónicas pugnan entre sí para dirimir una disputa en red llegando a provocar una brutal colisión con un efecto real sobre las personas, las marcas, el debate mediático, o la conversación política, debemos ser capaces, como señala el historiador israelí, Yuval Noah Hariri, de “descifrar las ficciones que dan sentido al mundo”1. En ese sentido es preciso entender cómo el pegamento simbólico que entrelaza una causa común es capaz de contagiarse a velocidad global a través, unas veces de ficciones, y otras a lomo de un proceso de desinformación y odio que se cimenta en sociedades en red altamente polarizadas. La propia idiosincrasia del algoritmo en red propicia, como señaló en su día Eli Pariser2, una suerte de filtro burbuja que profundiza en su ignorancia a lomos del sesgo de confirmación.

Es preciso entender cómo el pegamento simbólico que entrelaza una causa común es capaz de contagiarse a velocidad global a través, unas veces de ficciones, y otras a lomo de un proceso de desinformación y odio que se cimenta en sociedades en red altamente polarizadas

Estamos antes otra consecuencia más de nuestra condición de ciudadano cíborg ya descrita por la ciber antropóloga Amber Case. Nuestra condición de ciudadano hiperconectado, y nuestro constante deseo de consumir más y más información sesgada en el seno de nuestra propia burbuja, nos genera tal “infoxicación” que impide la necesaria sedimentación cognitiva. La “infoxicación” propicia que en el seno de nuestra comunidad de creencias intersubjetivas estemos predispuestos a aceptar como válida casi cualquier información que confirme nuestro marco de creencias pasando por alto cualquier básica barrera profiláctica contra la desinformación.

A estas alturas de comunión de creencias intersujetivas en el seno de nuestra comunidad, la polarización está servida y ninguna creencia extramuros tendrá muchas posibilidades de romper nuestra burbuja. Así las cosas, cuando ambas burbujas de signo contrario chocan en la red, la colisión se vuelve radical y extremadamente peligrosa.

Al fin y a la postre, son los relatos que se articulan entorno a una causa común los que permiten cooperar a miles de personas que no se conocen y que sí comulgan en la misma causa y se aglutinan alrededor de la misma simbología.

Compartiendo contenido en los límites

Llegados a este punto cabe preguntarse hasta qué punto los creadores de la burbuja informativa en la que nos sumergimos en red son conscientes de los efectos que la misma está teniendo en potenciar el sesgo de confirmación, la desinformación y, consecuentemente, la polarización. El pasado 14 de noviembre el New York Times arremetía con dureza contra Mark Zuckerberg y Facebook acusándoles de enfrentarse ante sus últimas crisis “negando, retrasando y deflectando”. Al día siguiente Facebook se defendía explicando cuál es su plan para luchar contra la desinformación.

Lo más curioso del plan fue el reconocimiento explícito que hicieron “desincentivar el contenido límite”. Zuckerberg señaló que, independientemente de dónde traces la línea, las personas siempre interactuamos más con el contenido que más cerca se encuentra de estar prohibido. Como se puede ver en un gráfico al que curiosamente no añaden valores:

¿Pero qué es esto del contenido límite para Facebook? Como explica Hugo Sáez en un hilo de Twitter que público días después, Zuckerberg “enumera varias categorías: clickbait, desinformación, fotos cercanas a la desnudez y publicaciones de tono ofensivo. Las personas nos vemos muy atraídas por ese tipo de contenido y eso hace que se convierta en viral.”

La idea es que Facebook sabía perfectamente lo que estaba pasando y cómo actuaban sus usuarios pero no hizo nada por evitarlo sencillamente porque necesitaba que estos pasasen el máximo tiempo posible ínteractuando en su plataforma para poder incrementar su ingresos por publicidad.

Por lo tanto, si compartir contenido límite, violento, agresivo, sexual y falso genera más atención y tiempo en la plataforma para qué pinchar voluntariamente la burbuja. De ser esto así, parece sencillo concluir que, si actuaciones como las de Cambridge Analytics contribuyen a lograr que los usuarios permanezcan más tiempo en la plataforma, seguramente la motivación para cortar este tipo de prácticas no va a ser muy alta. Lo mismo habría que pensar de la difusión de noticias falsas o falseadas desde diferentes redes que pretenden influir directamente en la política. A todos nos viene a la cabeza lo ocurrido en las elecciones presidenciales americanas de 2016, el referéndum del Brexit, el referéndum ilegal del 1-O en Cataluña o, recientemente, las Mid Terms norteamericanas donde el consumo de noticias falsas fue mayor que el de verdaderas.

Manipulando las emociones

Lo que estarían por lo tanto haciendo desde Facebook no sería muy distinto de lo que explica Hugo Sáez, “Facebook a través de la experiencia ha estado practicando lo que el psicólogo James A. Rusell descubrió con su estudio de las emociones: que la ira, unida a la excitación, son las dos emociones que más nos incitan a actuar.”

Siendo así, esta facilidad de manipular emociones que posibilita plataformas de comunicación donde el contenido límite es capaz de pegarnos a la pantalla durante horas, ha sido aprovechado para desinformar, influir en elecciones, ayudar a la desestabilización política y económica y ser el lugar ideal para que medren todo tipo de ideologías extremistas y nacionalistas.

Ahora Facebook promete que va a entrenar a su Inteligencia Artificial para desincentivar ese “contenido límite” con el fin de que la curva pase a ser esta:

La pregunta es si sus accionistas y su consejo de administración se lo van a permitir, porque ¿están dispuestos a reducir radicalmente sus beneficios en pos de la lucha contra la desinformación y la polarización? ¿o el pago de dividendos hará caer antes al propio Zuckerberg?

Notas

 1Harari, Y.H.(2016): Homo Deus. Breve historia del porvenir. Debate, Barcelona.

 2Pariser, E. (2017): El filtro burbuja. Cómo la red decide lo que leemos y lo que pensamos. Taurus, Madrid.

Bibliografía

Harari, Y.H.(2016): Homo Deus. Breve historia del porvenir. Debate, Barcelona.

Manyou, F. “¿Mark Zuckerberg debe abandonar Facebook?” en NY Times (2018). Disponible en: https://www.nytimes.com/es/2018/11/05/facebook-zuckerberg/

Zafra, J. “Entrevista a Amber Case: Los robots sirven para que podamos ser más humanos” en Telos (número 108, 2018). Disponible en: https://telos.fundaciontelefonica.com/entrevista-con-la-ciborg-antropologa-amber-case-los-robots-nos-haran-mas-humanos/

Watson, J. B. “Psychology as the behaviorist views it” en Psychological Review (1913).

Ferguson, N. (2018): La Plaza y La Torre. Debate, Barcelona.


Luis Serrano

Director del área de Crisis y Riesgos en Llorente & Cuenca. Licenciado en Periodismo. Jefe de prensa del Centro de Emergencias 112 de la Comunidad de Madrid durante 17 años. Colaborador de RNE en el programa “Las Mañanas” con la sección semanal “El Bulólogo”.


Comentarios

Artículos relacionados