16 de septiembre de 2021

C

Cuando ver ya no es suficiente para creer

por Idoia Salazar

El uso de inteligencia artificial (IA) para la manipulación de imágenes supone un nuevo reto para el mundo de la comunicación. Por un lado, abre un sinfín de posibilidades para el marketing y la cinematografía, entre otras áreas. Sin embargo, su mal uso puede llevar a una confusión sin precedentes entre las audiencias.

 

[ ILUSTRACIÓN: DAQ ]

 

 

La era de la inteligencia artificial (IA) ya ha llegado. Un mundo cada vez más traducido a datos que gestionan unas herramientas de software con potentes capacidades analíticas y de predicción, y cada vez con una mayor capacidad para tomar decisiones de manera autónoma. Una realidad, en algunos aspectos, muy parecida a la ciencia ficción de hace unos pocos años, en la que tan solo veíamos o imaginábamos robots con IA en las películas y, la mayoría de las veces, no con fines positivos para la humanidad.

Este nuevo mundo en el que comenzamos a adentrarnos sin duda hará cambiar nuestra percepción sobre las cosas que nos rodean y, muy probablemente, modificará nuestros comportamientos. Nos enfrentamos a una personalización masiva de productos y servicios basados en el análisis y seguimiento de nuestros datos personales, a un cambio en nuestra visión del mundo, tanto a nivel profesional como personal, gracias a una IA capaz de realizar predicciones con un alto nivel de fiabilidad en un tiempo récord.

Lo que vemos ya no será nunca más signo de verdad absoluta. La cuestión está en si aprenderemos a vivir con ello

Es un hecho, ya visible, que la IA trae grandes ventajas para la humanidad. Aumenta nuestras capacidades intelectuales de manera exponencial y, siempre que la veamos como una herramienta de apoyo, ayudará a mejorar la calidad de vida de los seres humanos. Tal y como, durante la Revolución Industrial, se desarrollaron las máquinas para ayudar en las tareas físicas del ser humano, por ejemplo, en las labores del campo, ahora los algoritmos de IA nos ayudan a lidiar con la ingente cantidad de datos que crece cada segundo que pasa a un ritmo exponencial y que nosotros, como humanos, no somos capaces de gestionar con eficiencia con nuestros medios físicos1. Así, visto como una ayuda, poniendo al ser humano como centro en la toma de decisiones y normalizando la apariencia de la IA, quizá haya convencido al lector de la necesidad de acabar con estos prejuicios de ciencia ficción y de centrar la idea de que el peligro no está en la tecnología en sí misma —en la IA, en este caso— si no en el uso que todos nosotros, los humanos, hacemos de ella.

Uno de los mayores temores sociales —convertido en problema— que nos trajeron tecnologías precedentes, en particular Internet, fue su uso para difundir noticias falsas. Las llamadas fake news inundan, principalmente, las redes sociales confundiendo a una población abrumada por la cantidad de información que recibe diariamente y el poco tiempo disponible para asimilarla adecuadamente. Sin embargo, parece que la percepción cuando lees o escuchas algo puede ser más susceptible de dudas que cuando te enfrentas visualmente a ello2. Pocos son aún los que cuestionan la veracidad de la imagen o del vídeo. Las típicas frases: “Una IMAGEN vale más que mil palabras” o “Necesito VER para creer” inciden en nuestro razonamiento cuando nos empiezan a llegar noticias de que ya nunca más será así.

 

 

El uso de técnicas de inteligencia artificial para manipular imágenes de vídeos de personajes famosos, políticos y otras autoridades de manera que parezcan reales ha hecho saltar las alarmas respecto a la fiabilidad de lo que, hasta hace poco, era incuestionable. No han sido pocos los personajes públicos que han visto usurpada su identidad —incluyendo no solo su imagen, sino también su voz y sus gestos— muchos de ellos con fines pornográficos, y difundido —el resultado— masivamente a través de las redes sociales. El peligro es indudable. También el riesgo de no poder identificar como falsas imágenes de vídeos que aparentan ser las verdaderas, aunque no sea con un fin malicioso. El anuncio de la empresa Cruzcampo con Lola Flores levantó conciencias sobre estos riesgos y, además de para sorprender, sirvió para iniciar el debate sobre este tema y abrir una serie de preguntas como: ¿es ético utilizar la cara/voz/personalidad de una persona fallecida para fines publicitarios?

 

 

La Comisión Europea en su propuesta de regulación para la inteligencia artificial recoge estas prácticas de deepfakes3 y las categoriza como “riesgo limitado”4. Así, para su uso será necesario una “declaración responsable”, que especifique su propósito, así como labores de transparencia. Este último punto relacionado con la identificación explícita de la imagen como simulada y no real. Esta será la manera más adecuada de evitar confusiones en una audiencia cada vez más abrumada por la evolución de la técnica y las manipulaciones, ya sean intencionadas o no.

La cuestión es que la tecnología continúa avanzando a pasos agigantados en grado de precisión y calidad y las leyes, que controlarían en cierta medida sus riesgos, van a la velocidad de siempre. Así que, mientras esperamos esta regulación, y que se pongan en marcha las prácticas éticas de las distintas empresas y organizaciones que las usan, ya existen distintos tipos de software que nos ayudan a saber si tenemos ante nosotros una imagen de vídeo real o no. Es el caso de Microsoft Video Authenticator o About Face, de Adobe. Pero aún no hace falta mucha concienciación de la población en general sobre a qué les exponen estas deepfakes en el caso de que se usen, por ejemplo, en campañas electorales. Esta capacitación de la audiencia para hacer frente a esta revolución tecnológica será sin duda uno de los grandes retos del siglo XXI.

Nos enfrentamos a una personalización masiva de productos y servicios basados en el análisis y seguimiento de nuestros datos personales

Sin embargo, a pesar de los riesgos y sinsabores citados sobre las deepfakes, esta tecnología no fue creada para el mal, ni para crear confusión. Como ocurre casi siempre, el peligro no está en la tecnología en sí, sino en el uso que hacemos de ella. Así, esta técnica es un recurso habitual en la industria cinematográfica —gracias a esta técnica se pudo revivir al actor Peter Cushing en Rogue One: Una historia de Star Wars, entre otras— y en los anuncios publicitarios o convertir antiguas fotografías en animados vídeos, como es el caso de Deep Nostalgia5.

Lo que vemos ya no será nunca más signo de verdad absoluta. La cuestión está en si aprenderemos a vivir con ello, sin que nos suponga un perjuicio.

Notas

 1Salazar, I. (2019): La revolución de los robots. Cómo la inteligencia artificial y la robótica afectan a nuestro futuro. Gijón, Trea Ediciones.

 2Gómez de Ágreda, Á.; Feijóo, C.; y Salazar-García, I. (2021): “Una nueva taxonomía del uso de la imagen en la conformación interesada del relato digital. Deep fakes e inteligencia artificial” en Profesional de la información. Disponible en: https://revista.profesionaldelainformacion.com/index.php/EPI/article/view/83076

 3El término ultrafalso es una alternativa al anglicismo deepfake, que se está empleando sobre todo para referirse a los vídeos que no son reales, pero que lo parecen gracias a una manipulación extrema. Disponible en: https://www.fundeu.es/recomendacion/ultrafalso-alternativa-a-deep-fake

 4Propuesta de regulación de la inteligencia artificial. Comisión Europea. Disponible en: https://ec.europa.eu/commission/presscorner/detail/en/IP_21_1682

 5Deep Nostalgia. Disponible en: https://www.myheritage.es/deep-nostalgia

Bibliografía

Comisión Europea. Europe fit for the Digital Age: Commission proposes new rules and actions for excellence and trust in Artificial. Bruselas, 21 de abril de 2021. Disponible en: https://ec.europa.eu/commission/presscorner/detail/en/IP_21_1682
Gómez de Ágreda, Á.; Feijóo, C.; y Salazar, I. “Una nueva taxonomía del uso de la imagen en la conformación interesada del relato digital. Deep fakes e inteligencia artificial” en Profesional de la información, 2021, v. 30, n. 2, e300216.
Salazar, I.; y Benjamins, R. (2020): El mito del algoritmo: cuentos y cuentas de la Inteligencia Artificial. Madrid, Anaya Multimedia. ISBN: 8441542805.
Salazar, I. (2019): La Revolución de los Robots. Cómo la Inteligencia Artificial y la robótica afectan a nuestro futuro. Gijón, Trea Ediciones. ISBN: 9788417767341.

Artículo publicado en la revista Telos 117


Ir al número ...


Idoia Salazar

Profesora en la Universidad CEU San Pablo, es cofundadora y presidenta del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA) y una de las expertas del Observatorio de Inteligencia Artificial del Parlamento Europeo (EPAIO).


Comentarios

Artículos relacionados