17 de mayo de 2023

L

Las IAs al estilo de Melville: preferiría no hacerlo

por Elena B. Saavedra

La necesidad de análisis intrínseca en los sucesos que afectan cotidianamente a la sociedad está experimentando un ritmo convulso al hallar una máquina capaz de pensar como nosotros (¿por nosotros?). La dirección de los debates planteados ante su regulación debe contemplar tanto los sesgos de los diseñadores de estas herramientas, hasta la propagación de fake news, imágenes y datos falsos. Para ello, debe ponerse especial atención en qué código ético y moral queremos diseñar para servir de referente a futuras herramientas digitales y su impacto en nuestra sociedad.

 

Desde los últimos veinte años podemos apreciar el auge en las disciplinas legales de nuevos temas de interés como, por ejemplo, las que tienen mención al Derecho del Espacio. Desde que las incursiones espaciales de empresas privadas reavivaran la conciencia de la Luna como espacio común protegido de la humanidad, ha saltado a la vista la necesidad de la regulación por parte de juristas especializados e instituciones de referencia en materia espacial. Del mismo modo que en los últimos diez años ha sido con los ecosistemas naturales, su protección y el medioambiente, con la especial aparición de la “eco ansiedad”.

Esto nos demuestra, por si quedaba alguna duda, que las normas jurídicas vigentes que están contempladas en nuestra sociedad tienen la necesidad de avanzar de la mano con la humanidad como conjunto. Estas obligaciones y novedades legales aparecen en escena de la mano de una necesidad clave: un nuevo suceso no contemplado con consecuencias de impacto. Actualmente, en la era de la Inteligencia Artificial, el suceso en cuestión que ha levantado las alarmas de los expertos en materia ha sido la proliferación de herramientas programadas con GPT (Generative Pre-trained Transformer); esto significa que es una inteligencia artificial capaz de establecer un diálogo escrito asemejándose a un humano. La primera herramienta que revolucionó el panorama actual fue OpenAI, originaria de San Francisco, creada por Elon Musk.

Italia se ha posicionado como el primer país en tomar medidas inmediatas contra la herramienta de IA

Este contexto es necesario para entender el dilema de la situación que se presenta a continuación. Y es que, es él mismo, el creador de esta serie de herramientas, el que cree que no estamos preparados para afrontar la mayor amenaza de la humanidad: la inteligencia artificial. ¿Qué significa esto? Los gobiernos nacionales y/o organizaciones supranacionales como la Unión Europea, deberán plantearse cómo quieren alinearse con estas empresas privadas. Es necesaria una regulación y un código ético en el desarrollo de estas competencias. En este momento, la Unión Europea sigue preparando el Libro Blanco que sirva de directrices a la hora de tomar decisiones que involucren a Inteligencias Artificiales (IA) y que tengan repercusiones trascendentales en la sociedad. El enfoque de la Unión Europea con el lanzamiento de la Estrategia Europea de la IA ofrece un desarrollo y confianza al ciudadano con el fin de impulsar la investigación y capacidad industrial de los Estados miembro a la vez que delimita y trasciende el respeto e importancia de los Derechos Fundamentales.

Recientemente, Italia se ha posicionado como el primer país en tomar medidas inmediatas contra la herramienta de IA, alegando que vulnera su Ley de Protección de Datos al no estar claramente estudiado donde y cómo almacena los datos de los usuarios italianos.

Para regular la cuestión legal es necesario tener un conocimiento más profundo del funcionamiento de esta herramienta, su recopilación de datos y sus “ejercicios automáticos”. Es capaz de combinar diferentes textos ya escritos sin lograr una autoría. ¿Qué avances o retrocesos pueden implicar para las normativas de copyright y derechos de autor?

Sin mencionar la parte creativa, ya que la base de estas herramientas y su fuente de inspiración es una enorme base de datos mezclada y almacenada que puede visitar y seleccionar en segundos. Pero desde un punto ético-moral, no debemos ponernos alarmistas ni considerar que estamos en el primer peldaño para llegar al transhumanismo, donde a las capacidades humanas se añaden nuevas funcionalidades no “naturales”.

El argumento principal de esta reflexión para que podamos seguir disfrutando de nuestra condición humana sin fantasear con películas o novelas de ciencia ficción, reside en la misma idiosincrasia de estas máquinas. Ya que solo pueden combinar datos, no son capaces de extraer conclusiones ni corroborar información. Nunca habría sido capaz de inventar la rueda si no existiera, si en su base de datos solo tiene cuadrados. Además, no contempla ese estado de necesidad que hace tan perspicaz la naturaleza humana.

Si seguimos el camino ético-moral propuesto, cabe destacar que estas herramientas al principio del proceso end-to-end, están diseñadas por una persona. Esta “domesticación” de las máquinas que nos recuerda un poco al zorro del Principito, nos está ofreciendo pistas sobre el desarrollo de la misma herramienta. Siempre va a tener priorizada una selección de datos uniformes, lo que esto quiere decir que va a contar con información sesgada desde un primer momento.

En un plano idealista y humanista es inevitable pensar que el papel del “ciudadano perfecto” es mantenerse informado con un sentido riguroso y estricto de la información. Como esto no sucede así, de forma proactiva y consciente, debemos intentar comprobar cualquier información que nos haga dudar y que se posicione como verdad absoluta. Incluso si no es una verdad absoluta, pero involucra o es necesario una toma de decisiones o raciocinio. Practiquémoslo.

Esta situación tan proactiva y buscadora de la verdad, nos traslada un poco al héroe marginal de Melville, Bartleby1, porque él preferiría no hacerlo. Esta apatía intrínseca que encontramos en las vigas estructurales de la sociedad es una consecuencia de las oleadas y bombardeos de información ofrecida al público general sin ningún tipo de filtro.

La humanidad siempre se ha ayudado de su ingenio para poder realizar las tareas de su rutina de una forma más sencilla

Muchos estudiantes han visto en este tipo de herramientas de IA una salida a las tediosas tareas de redacción de Trabajos de Fin de Grado. ¿Por qué debería preocuparnos un acto tan genuinamente inofensivo? Los Trabajos de Fin de Grado o Máster (TFG/TFM) sirven a la mente estudiante como un ejercicio de reflexión personal donde se halla ante una casuística seleccionada y un proceso de investigación profundo. Durante el proceso de investigación es inevitable sentirse frustrado y abrumado por la cantidad de información que se procesa en un breve periodo de tiempo. Sin embargo, nuestra cabeza selecciona las piezas de información que considera útiles y las ordena y encaja como si fuera un puzle. Durante este proceso transitorio de las ideas, se establecen conexiones lógicas de desarrollo del estado de la cuestión. Si ya obtenemos toda la información “limpiada y filtrada”, sin olvidarnos de los sesgos del autor de las herramientas digitales, ¿qué capacidades de comprensión y análisis caben esperar?

Desde las flechas de caza hasta los coches, la humanidad siempre se ha ayudado de su ingenio para poder realizar las tareas de su rutina de una forma más sencilla, intentando buscar la máxima eficiencia y productividad. Los semáforos intermitentes que aparecen a señales difusas no deben entenderse como un freno o rechazo al progreso. Sería inútil. Debe entenderse como una necesidad inminente de comprensión y análisis para examinar las posibles consecuencias que puede tener en la sociedad, así como su impacto y mitigación de riesgos. Para ello, es necesario establecer un diálogo categórico en la sociedad y atenerse a esas conclusiones sin que sean definitivas. Como se ha contemplado, es de imperiosa necesidad la legislación y clima de seguridad jurídica en torno a las IA, descansado los debates a nivel nacional en los congresistas apoyados por sus comités de expertos, así como en los debates proclamados en el seno de la Unión Europea. De igual manera, la legislación debe diseñarse en un marco ético y moral establecido y aprobado por consenso donde se delimiten las implicaciones tecnológicas.

Para delimitar estas implicaciones tecnológicas debe realizarse un estudio aplicado a los sectores de la sociedad más vulnerable ante las IA, para poder avanzar en un plan de mitigación de riesgos. Elevado a un tema ético-social, el diseño de nuevas herramientas digitales como su implicación en nuestro día a día, no debería ser un obstáculo a ningún sector de la sociedad ni un impedimento en su transformación digital.

Notas

 1«Bartleby, el escribiente» es un cuento de Herman Melville y es considerado una de las mejores obras del autor.

Bibliografía

Melville, H. (1853): Bartleby the Scrivener: A Story of Wall Street. Nórdica, Madrid. 2007. ISBN: 9788493557867

Wootson, C. R.: “Elon Musk doesn’t think we’re prepared to face humanity’s biggest threat: Artificial intelligence” en The Washington Post, 2017. Disponible en: https://www.washingtonpost.com/news/innovations/wp/2017/07/16/elon-musk-doesnt-think-were-prepared-to-face-humanitys-biggest-threat-artificial-intelligence/

European Commission: «Communication from the commission to the European Parliament, the European Council, the Council, the European Economic and Social Committee and the Committee to the regions. Artificial Intelligence for Europe» en European Commission, 2018. Disponible en: https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:52018DC0237&from=EN

European Commission: «White Paper: On Artificial Intelligence – A European approach to excellence and trust»  en European Commssion, 2020. Disponible en: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52020DC0065&WT_mc_id=Twitter

Autor

Experta en asuntos internacionales y filántropa. Estudiante de Relaciones Internacionales y actualmente trabajando en la Embajada de Bélgica, trade and investment.

Ver todos los artículos

Contenido relacionado

Comentarios

Artículos relacionados