8 de octubre de 2021
por
Alfonso Ballesteros
El imperativo actual de la fluidez es una reducción del mundo a devenir: movimiento de capital, flujo del deseo o del género, innovación disruptiva, activismo nervioso. Esta fluidez se manifiesta también en el capitalismo de la vigilancia que obliga a que la información personal fluya a través de todas las cosas. Esta fluidez es incompatible con dos formas de contención fronteriza: la consciencia del individuo y el derecho de los Estados. Para evitar la primera, la consciencia del individuo, la relación individuo-máquina toma forma de estímulo psicológico prerreflexivo. Para evitar la segunda, el derecho estatal, el capitalismo de la vigilancia se apoya en la superstición tecnocrática de que la innovación no puede esperar a la regulación jurídica. En consecuencia, los intereses de los capitalistas de la vigilancia campan sin apenas fricción por el globo (Zuboff, 2020: 148). Sin embargo, ¿no conviene a la dignidad del hombre y al bien común recuperar estas fronteras?
Es ya conocido el análisis de Shoshana Zuboff sobre la explotación económica de los flujos de información personal. Define el capitalismo de la vigilancia como el “nuevo orden económico que reclama para sí la experiencia humana como materia prima gratuita aprovechable para una serie de prácticas comerciales ocultas de extracción, predicción y ventas” (Zuboff, 2020: 9). Ese nuevo orden surgió en Google durante la llamada crisis de las puntocom a principios del siglo. Hasta aquel momento la empresa vivía, entre otras cosas, de vender su propia tecnología a terceros. El ingreso se separaba del dato: utilizaba los datos personales de los usuarios solo para mejorar sus servicios. Sin embargo, la crisis le urgía a encontrar una forma distinta de hacer dinero. Esto será posible gracias a los llamados “datos sobrantes”. Estos datos sobrantes son el “excedente conductual” que queda en poder de Google una vez mejorado el servicio.
Google, Facebook, Microsoft y Amazon toman la experiencia de sus usuarios como materia prima para producir predicciones conductuales
El excedente conductual resulta ser la piedra angular del nuevo orden económico y social. Desde entonces Google, Facebook, Microsoft y Amazon toman secretamente la experiencia de sus usuarios como materia prima para producir predicciones conductuales. Este expolio se ha extendido a muchas empresas que no son de información, ni siquiera tecnológicas, pero saben de lo lucrativo del excedente (Zuboff, 2020: 356). ¿Qué dimensiones tiene este nuevo orden económico que incluye a la vieja Ford, paradigma de la producción de cosas en masa? Hasta una empresa que produce cosas necesita reclamar para sí la experiencia humana, en este caso de la conducción. ¿Cómo de útil será vender perfiles con la personalidad —agresiva o temerosa, cuidadosa o serena—, de sus conductores a una póliza de seguros?
Muchos piensas que este orden económico no se puede aceptar, pero ¿cómo salir de él? El paso inicial es hablar de ello, convertirlo en un tema. La dificultad es que el tema no sea inmediatamente barrido por otro, de acuerdo con la liquidez en la que todo no es más que en acto, en acto reciente o actualidad. Al poco de ser ya no existe. Esta dificultad hace todavía más complicada una respuesta común al problema por parte de la sociedad civil, pues no basta convertirlo en un tema, hace falta despertar una respuesta concertada.
El asociacionismo es una posibilidad: unirse a otros con el propósito común de limitar, por ejemplo, el uso de Tik Tok entre los adolescentes, los servicios de Google en el trabajo, etcétera, y todo esto, con independencia de los poderes públicos. Las respuestas de la sociedad civil pueden empujar o acompañar una respuesta institucional.
Necesitamos fronteras que pasan por devolver la alteridad a la realidad
Si pensamos en la política legislativa hay al menos tres problemas que tienen que ver con la eficacia de las soluciones basadas en la regulación. El conocimiento prudencial exige tener en cuenta que, muchas veces, es mejor perseguir ciertos objetivos indirectamente. Hacerlo directamente puede llevar a resultados indeseados al ignorar las relaciones de un problema con el resto de la realidad1. Así, determinadas prohibiciones a los capitalistas de la vigilancia pueden conducir a que estos lleven a cabo con mayor ocultación lo que antes hacían a la vista de todos. El segundo problema se refiere a la total asimetría entre el poder de las tecnológicas y el de los Estados. ¿Obra en los últimos un poder suficiente para hacer cumplir un derecho que limite el negocio de la vigilancia? El derecho solo es eficaz si puede ser cumplido, en última instancia, con el uso de la fuerza. El tercer problema es el exceso de legislación actual que, muchas veces, no es tomada en serio ni por los propios legisladores, se contradice abiertamente o es imposible de conocer por parte del jurista.
Con la salvedad de las dificultades anteriores se ofrecen propuestas de salida al problema divididas por temas: datos, diseño y mercado.
1. Declarar que los macrodatos personales que obran en manos de los capitalistas de la vigilancia fueron robados (Bellver Capella, De Montalvo Jääskeläinen, 2021) aprovechando la radical asimetría epistemológica entre capitalistas y usuarios, con desprecio de la consciencia individual y en la total alegalidad (Zuboff, 2020, 341). Por tanto, obran ilegítimamente en el poder de las empresas (y, en su caso, de las instituciones). Esta declaración tiene un valor simbólico que no puede despreciarse.
2. Tras la declaración caben dos opciones muy distintas. La primera es el borrado total de los macrodatos (Véliz, 2020: 143). La segunda es declarar los macrodatos Patrimonio Común de la Humanidad (como lo es la naturaleza), y confiarlos a alguna autoridad mundial (Bellver Capella, De Montalvo Jääskeläinen, 2021). La elección entre la primera o la segunda respuesta depende de si consideramos que lo bueno que se puede hacer con ellos sobrepasa lo malo.
3. Para los datos ya legítimamente tratados después de la economía de la vigilancia es necesario implementar deberes fiduciarios. Se trata de que cualquiera que quiera recolectar o guardar datos personales adquiera un deber de cuidado con los sujetos de los datos (Véliz, 2020: 136). Es lo que ocurre, por ejemplo, con una relación como la del médico con el paciente.
Diseño
4. Prohibir los algoritmos antipolíticos. Es decir, aquellos que rompen con la igualdad de las opiniones en Internet y favorecen precisamente lo anti-político, lo que destruye la polis: lo tribal, el odio, lo sórdido, etc. Esto evita la hipócrita tarea de restringir la libertad de algunos a posteriori, como ocurrió con la cuenta de Twitter de Donald Trump que fue cerrada sin bastante justificación. ¿Quién ha erigido a Twitter en árbitro para dar o quitar la palabra a quién quiera? Esto es aún más sangrante cuando su modelo de negocio es antipolítico y no hace más que añadir a una injusta desigualdad (la algorítmica) otra desigualdad (la del presidente que no se considera digno de tener opinión en Twitter). Primero se provoca estructuralmente el incendio y luego se viene simbólicamente a apagar una de las pavesas.
5. Prohibir el diseño que es estructuralmente manipulador. Un ejemplo es el “Me gusta” y el reenvío con un clic. Estas opciones de diseño añadidas en 2009 están directamente vinculadas con la grave crisis mental entre adolescentes unos años después2. Buscan simplemente excedente conductual y por eso han tornado la comunicación en satisfacción psicológica, lo que propiamente se comunica es la dopamina. Por ello, estas opciones estropean la posibilidad de una rica comunicación digital no psicologizada ni narcisista, aquella que era posible antes de su implementación.
Mercado
Se dice habitualmente que el problema principal es el modelo de negocio. Tanto es así que las aplicaciones de mensajería que no recaban excedente conductual en forma de macrodatos (Signal y Telegram) no son rentables y funcionan con donaciones. En definitiva: parece que no pueda uno ganar dinero si actúa decentemente en la sociedad de la información. Por eso, esto es un problema estructural, no accidental, pero se puede arreglar. Veamos más propuestas.
6. Expropiar las plataformas por considerarlas estructuras críticas de la sociedad3. Esto hace desaparecer el problema del modelo de negocio, pero las dificultades de esta solución parecen insalvables al darse un desplazamiento de un dominio privado —que desprecia las consecuencias sociales en busca del lucro efectivo—, por un dominio público que busca determinados resultados sociales. ¿Podemos expropiar sin acercarnos al modelo chino?
7. Dividir a las grandes tecnológicas. Son gigantescas: Google, por ejemplo, ha comprado más de 200 empresas en su tiempo de vida. La opción de dividir parece reducir el problema al gigantismo sin tener en cuenta que no solo es dañino su tamaño, en primer lugar lo es su actividad. De modo que trocear a las grandes tecnológicas parece una mala solución. Esto conduciría a ampliar la competencia y robustecer el mercado de la vigilancia (Zuboff, 2020: 41).
8. Mantener a Apple en el buen camino. La empresa de Tim Cook podría ser clave contra el capitalismo de la vigilancia si sigue la senda de la defensa de la intimidad que, en general, la ha caracterizado. Esto la colocaría frente a los otros gigantes —Google, Facebook, Microsoft y Amazon— que, por ese orden, se han instalado en la vigilancia (Zuboff, 2020: 41). Problema distinto es el gigantismo de la empresa de la manzana y de las demás, un gigantismo malo para todos y que es mejor evitar indirectamente, por ejemplo, protegiendo las pymes locales. ¿Quién ha impedido así a Amazon adueñarse del comercio mundial?
Necesitamos fronteras que pasan por devolver la alteridad a la realidad
9. No partir de que hay que financiar la innovación por sistema. Se pretende que la historia corre precisamente por los canales que a uno le llevan a hacer dinero: “La intimidad ha muerto” dijo Zuckerberg4. Pero nuestras decisiones cuentan, y más bien habrá que poner en relación la innovación con el desarrollo humano. Con “innovación” se defiende, no pocas veces, el enriquecimiento de unos pocos y el paro de la mayoría. Por ejemplo, ¿no es mejor “financiar al hombre”, abaratar la contratación y no financiar tecnología que pueda permitir, entre otras cosas, la vigilancia (o el paro masivo)?
La lucha frente a esta forma de dominio tan sutil pasa por combatir los males asociados con ella. Estos son todos idolatría del movimiento y el flujo ilimitados: el subjetivismo narcisista, el espíritu tecnocrático, el capitalismo financiero o el consumismo salvaje. Frente a ellos necesitamos fronteras que pasan por devolver la alteridad a la realidad. Es decir, asumir el límite de lo indisponible: la alteridad de los otros, del pasado, de las cosas y del derecho. Todo esto son fenómenos fronterizos, frenos, que debemos recuperar para que el mundo recupere la bella solidez que un día tuvo.
1Center for Humane Technology, A Problem Well-Stated is Half Solved (transcripción del pódcast), Your Undivided Attention, 2021. Disponible en: https://www.humanetech.com/podcast/a-problem-well-stated-is-half-solved
2Center for Humane Technology, Are the Kids All Right? (transcripción del pódcast), Your Undivided Attention, 2020. Disponible en: https://www.humanetech.com/podcast/26-are-the-kids-alright
3Peirano, M. «Socializad las plataformas digitales», en Ethic, 2021. Disponible en: https://ethic.es/2021/03/socializad-las-plataformas-digitales/
4The Times, Facebook’s Mark Zuckerberg says privacy is dead. So why does he want to keeps this picture hidden? 2010. Disponible en: https://www.thetimes.co.uk/article/facebooks-mark-zuckerberg-says-privacy-is-dead-so-why-does-he-want-to-keeps-this-picture-hidden-xn2hbc3wsjg
Bellver Capella, V. y De Montalvo Jääskeläinen, F. (2021): “El diseño del entorno digital como presupuesto de los Derechos Digitales” en Diario La Ley, núm. 49.
Véliz, C. (2020): Privacy is Power: Why and How You Should Take Back Control of Your Data. Londres, Bantam Press.
Zuboff, S. (2020): La era del capitalismo de la vigilancia: la lucha por un futuro humano frente a las nuevas fronteras del poder (trad. A. Santos Mosquera). Barcelona, Paidós.
Doctor en Filosofía Política por la Universidad de A Coruña. Trabaja en la Universidad Miguel Hernández de Elche. Acaba de publicar “Digitocracy: Ruling and Being Ruled” en la revista Philosophies.
Doctor en Filosofía Política por la Universidad de A Coruña. Trabaja en la Universidad Miguel Hernández de Elche. Acaba de publicar “Digitocracy: Ruling and Being Ruled” en la revista Philosophies.
Ver todos los artículos
Comentarios