8 de julio de 2024

F

Frank Pasquale: «Necesitamos una inteligencia artificial al servicio de los humanos»

por Juan M. Zafra

Pasquale es un abogado experto en las relaciones entre tecnología, derechos y regulación. El avance acelerado de la digitalización de nuestra sociedad le ha llevado a desarrollar unas nuevas leyes de la robótica como fundamento para un nuevo marco de relación de la humanidad con la tecnología y, en particular, con la inteligencia artificial. “Necesitamos un marco regulatorio que a veces va a detener ciertas formas de desarrollo tecnológico; eso no significa que no avancemos, simplemente, que vamos a tomar una dirección diferente”, afirma.

 

[ILUSTRACIÓN: ROBERLAN PARESQUI. FOTOGRAFÍA: EDITORIAL GALAXIA GUTENBERG]

 

Frank Pasquale, profesor de Derecho en la Universidad de Cornell, es experto en la regulación de la inteligencia artificial, un asunto central en nuestro tiempo cuando se trata de establecer un nuevo orden mundial para un cambio de era. Es miembro de numerosas instituciones relacionadas con la investigación en derechos y tecnología, como el Comité Asesor Nacional de IA (NAIAC) de EE. UU., la Universidad de Yale, el Instituto Americano de Derecho y el Consejo Australiano de Investigación. También es codirector editorial del Journal of Cross-Disciplinary Research in Computational Law y autor, entre otras, de dos obras de referencia en la materia: Las nuevas leyes de la robótica. Defender la experiencia humana en la era de la IA (2023) y La sociedad de la caja negra: los algoritmos secretos que controlan el dinero y la información (2015).

¿Qué le llevó a escribir en este tiempo las nuevas leyes de la robótica?

Fue un paso lógico después de mi investigación sobre la sociedad de la caja negra. La idea básica es que la sociedad de la caja negra estaba desafiando la presunta autoridad y el desempeño de muchos líderes en tecnología y finanzas. Es entonces, a principios de la década de 2010, cuando las empresas de tecnología y finanzas empiezan a colaborar para automatizar casi todos los trabajos. Me preguntaba hasta qué punto estos esfuerzos por automatizar todas las formas trabajo se basarían en una discusión abierta sobre valores o si se trataría de algo así como una automatización sigilosa sin valores. Las Nuevas leyes de la robótica reflejan mi curiosidad sobre cómo se realizan las tareas en una amplia variedad de actividades que van desde la logística agrícola hasta lo militar, el periodismo… y otras muchas para poder analizar qué valores humanos se aplican cuando las personas toman decisiones. Esto fue antes de que se disparara el interés por la IA.

¿Hasta qué punto tus nuevas leyes son similares, distintas o están inspiradas en las leyes de la robótica de Isaac Asimov?

Las leyes de la robótica de Asimov son muy compactas, y también muy persuasivas. Surgen a partir de sus obras de ficción a mediados del siglo XX y lo que él hace esencialmente es asegurarse de que los robots no harán daño a los humanos; subraya lo difícil que es programar un robot para que sea así. Asimov asume que habrá robots similares a los humanos correteando por ahí y se vuelca en analizar cómo deberíamos relacionarnos con ellos. Mi punto de inicio es diferente porque parto de que estamos desarrollando robótica avanzada y no robots humanoides, que son el elemento básico de la ficción de Asimov. En las leyes que estoy proponiendo, la primera norma es que la robótica y la IA deben complementar a los profesionales y no reemplazarlos; la segunda es que la robótica no debe falsificar la humanidad —lo que de nuevo me aleja de los robots humanoides—; la tercera, que los sistemas robóticos y la IA no deben fomentar la carrera armamentística de suma cero; y la cuarta, que cualquier acción de una IA o de un robot debe ser atribuida al propietario, inventor, creador o controlador del robot y no al propio robot.

¿Cuál es la diferencia entre nuestro tiempo, el de Frank Pasquale, y el de Asimov?

Bueno, creo que somos mucho más desconfiados de la tecnología, particularmente del tipo de tecnología que sale de Silicon Valley. En la época de Asimov podías fantasear, por ejemplo, con los Supersónicos. Él vivía ese sueño. En nuestra época hemos tenido muchas experiencias preocupantes con la IA y las empresas que están detrás de sus avances más recientes.

 

No hay que enturbiar más lo que debería ser una distinción muy clara entre humanos y máquinas

 

La ONU celebra una cumbre para forjar un nuevo consenso internacional para mejorar el presente y proteger el futuro. ¿Qué aspectos considera decisivos para ese propósito?

Es una pregunta difícil, ¡pero lo intentaré! El verdadero desafío aquí es conectar el nivel personal (el humano) con el general y social (la humanidad). Necesitamos una IA al servicio de lo humano, que promueva algunos aspectos fundamentales del florecimiento humano, como la salud, la nutrición, el transporte, la comunicación, el juego y la conexión entre personas. Y también necesitamos la IA para promover el florecimiento social: la preservación y promoción de la naturaleza, la cultura, la historia, la sociedad civil y todas aquellas instituciones y tradiciones que dan sentido a nuestra vida. La parte difícil en la regulación de la IA es darse cuenta de que todos estos valores pueden entrar en conflicto. Se necesitan reglas. Un periodista, por ejemplo, puede querer volar drones mejorados con IA sobre zonas residenciales para detectar actividades interesantes, pero los residentes querrán que se respete su privacidad. Por supuesto, los diferentes Gobiernos tendrán diferentes puntos de vista respecto a qué valores son los más importantes y a cómo conciliarlos cuando se producen conflictos. Por tanto, sí: la ONU tiene un papel particularmente importante para garantizar el entendimiento cuando existan posiciones contrapuestas. La internacionalización de la gobernanza es clave. Y también la cooperación internacional para decidir cómo deben estar estructurados nuestros sistemas económicos.

¿En qué sentido?

Tenemos sobre la mesa varias opciones: hipercrecimiento, decrecimiento y crecimiento diferente. Muchas personas en el sector tecnológico quieren ver un mundo de hipercrecimiento; quieren ver un mundo donde la tecnología acelere el crecimiento del PIB y tenga un impacto muy masivo en las vidas humanas. En el otro lado hay personas que son partidarias del decrecimiento; afirman que utilizamos tantos recursos que estamos destruyendo el planeta y que, por tanto, necesitamos reducir el crecimiento, desacelerar o decrecer, y tratar de encontrar alguna manera de usar menos recursos. Eso significa usar menos tecnología en algunas áreas y, por supuesto, usar más tecnología en otras en la medida en que el consumo de energía sea más eficiente. Creo que el hipercrecimiento y el decrecimiento serán reemplazados por una visión de crecimiento diferente, donde esencialmente estaremos utilizando tecnología, usando IA y robótica para mejorar el mundo, es decir, para elevar el nivel de vida de las personas. Ese es uno modelo muy distinto del tipo de crecimiento indiferenciado —tan común ahora—, que puede enriquecer marginalmente a los más prósperos mientras deja a la gran mayoría sin ayuda, o incluso en peor situación.

¿Qué sectores se van a ver más afectados por la automatización?

Dos de los sectores que más se han automatizado son las finanzas y los medios de comunicación con algunos efectos realmente problemáticos. La implementación de la IA y del machine learning en las finanzas ha llevado a una cierta insensatez1 en la política de inversiones. La automatización de los medios ha llevado a una cierta insensatez2 en el debate público. Se han generalizado prácticas y fenómenos como el filtro burbuja, el efecto madriguera3 o las estrategias adictivas que, en general, están arruinando nuestra capacidad de deliberar democráticamente. Creo que hemos asistido a un profundo cambio como consecuencia del auge de las redes sociales, a la automatización de los contenidos que se ofrecen a la gente y a su incapacidad para desarrollar una esfera pública común debido a la fragmentación. Y necesitamos tener algún tipo de esfera pública común.

¿Qué riesgos específicos están asociados a la implementación no regulada de la IA en nuestra sociedad?

Diría que los dos mayores riesgos en este momento son la vigilancia y la expropiación. El riesgo de vigilancia se deriva de que gran parte de la IA se basa en la monitorización y la grabación de todo su entorno. La cuestión es: ¿cuánto se va a poder llegar a saber de una persona, cuánta información se va a procesar y a analizar? La expropiación significa que las compañías de IA generativa están devorando la web, absorbiendo todo su contenido. Y no quieren pagar por esos contenidos. Pero es uno de los tres fundamentos de la IA generativa: contenido convertido en datos, máxima potencia de computación y codificación. Pagan mucho por sus ingenieros; pagan mucho por los equipos informáticos, pero quieren obtener los datos de forma gratuita. Y eso, creo que no funciona; no es justo. Si este tipo de gran robo mediante scraping4 se permite, se ampliará la desigualdad entre quienes trabajan en tecnología y finanzas y aquellos otros que están haciendo todo lo demás. Este es un asunto del que deberíamos ser conscientes y preocuparnos.

¿Qué principios considera básicos para establecer un nuevo marco social?

Los principales están en mis nuevas leyes de robótica, y añadiría los principios de consentimiento y de compensación. Las personas deberían poder retirar sus datos y contenidos de la IA generativa y deberían obtener una compensación si se utilizan, ya sea a través de licencias o a través de la imposición de un gravamen sobre la IA. Ese gravamen podría aplicarse en forma de unos pocos céntimos por consulta, o podría ser algo así como una tasa anual por licencias para usar una determinada base de datos. Se podrían aplicar fórmulas muy variadas para cobrar este gravamen o impuesto.

Son propuestas que van más allá del marco ético para la IA y ponen el foco en su gobernanza económica.

Considero que la resonancia es otro concepto que va a ser parte del futuro de la crítica tecnológica. Mis referencias para el futuro son Hartmut Rosa en su libro Resonance, que trata de articular cuál es el propósito de la vida. ¿Cuál es el valor de cosas como la naturaleza, el arte y la historia, la política cuando va bien, las familias o las comunidades? Esas van a ser las referencias por las que juzgaremos si la tecnología está mejorando o empeorando nuestro mundo. En muchos sentidos, la tecnología puede llevarnos de vuelta al pasado —piensa solo en la proliferación de armas nucleares y cómo los Estados canallas nos amenazan con ellas—. En lugar de pensar simplemente que cualquier avance tecnológico es bueno dondequiera que nos lleve, debemos tener principios que nos permitan juzgar la tecnología. Y esos principios para mí son el consentimiento y la compensación, la autenticidad en lugar de la suplantación de la humanidad y la actividad productiva en lugar de las carreras armamentísticas que solo desperdician los recursos de todos. Estos son los principios que van a desarrollar la gobernanza de lo digital si creemos en un futuro positivo.

¿Qué papel deben desempeñar los desarrolladores de tecnología en la regulación de la IA y la robótica?

Deberían tener un papel asesor. Necesitamos entender la tecnología, pero no creo que los desarrolladores de tecnología deban estar también al mando de la regulación. Y no podemos asumir que, todo lo que se pueda hacer, se hará. De hecho, necesitamos un marco regulatorio que contenga determinados avances tecnológicos. Eso no significa que no avancemos; simplemente, que vamos a tomar una dirección diferente a la que significaría una sociedad y un mercado menos regulado. En ese sentido, aplaudo el enfoque europeo con la Ley de Mercados Digitales (DMA) y la Ley de Servicios Digitales (DSA) para ayudar a devolver el poder normativo a los reguladores en lugar de a aquellos que administran las plataformas. Por supuesto que estas leyes no son perfectas, pero son pasos importantes.

¿Cómo podemos asegurarnos de que la IA promueve la inclusión y no intensifica las desigualdades existentes?

Hay un par de estrategias para conseguirlo. Una es la predistribución y la otra es la redistribución. El enfoque de predistribución consiste en empoderar a grupos de trabajadores, desde la medicina a los escritores sindicalizados, los conductores sindicalizados u otros grupos coordinados por sindicatos, para cogobernar la implementación de la IA en su sector. Si cogobiernan significa que contribuirán a la mejora generalizada de las condiciones de vida. Es decir, que la idea de predistribución se refiere a nuestro principio general: ¿Vemos la IA como una herramienta de los humanos, una compañera, o como una sucesora de los humanos, como algo que tomará el control y los reemplazará? La única forma de avanzar para evitar una mayor desigualdad es considerarla una herramienta que va a ser utilizada por los trabajadores. Por supuesto que habrá algunos trabajadores que serán reemplazados por completo; no me molestaría ver un mundo donde las tareas de limpieza, conducción, logística o minería se realizan mediante la IA de una manera altamente eficiente y productiva. Encontrar un rendimiento en estas áreas es realmente importante, pero debe ser un proceso gradual en el que a medida que se desarrolle es esencial garantizar una compensación justa y la implicación de la mano de obra involucrada

¿Cuál es la diferencia con la redistribución?

Las estrategias de redistribución son diferentes. Podrían significar que se grava a aquellos que poseen robots o que están usando robots para reemplazar la mano de obra humana. O simplemente gravar a los muy ricos y redistribuir el resultado. Prefiero el enfoque de gravar la riqueza en lugar de la tecnología porque creo que debemos alentar la robotización en muchos campos. No estaríamos gravando a los robots sino solo las acumulaciones de riqueza excesivas y que necesitan ser redistribuidas a otros que, a menudo sin culpa, terminan en una industria que es diezmada por la IA y la robótica.

 

telos-125-pacto-digital-entrevista-frank-pasquale-necesitamos-una-inteligencia-artificial-al-servicio-de-los-humanos

 

¿A quién corresponde la búsqueda y aplicación de estas nuevas leyes? ¿Qué capacidad tienen los Gobiernos, las organizaciones multinacionales o los ciudadanos frente a las grandes corporaciones desarrolladoras?

Es algo a lo que he estado dedicado en mi trabajo académico legal durante casi dos décadas. He propuesto nuevas agencias y nuevos poderes para que salgan adelante. Parte de lo que se necesita —y tienes razón al señalar los problemas de capacidad de las instituciones—, es aplicar una tributación sobre la tecnología para permitir la contratación de los mejores profesionales en su campo para que puedan entenderla. Necesitamos tener agencias en el Gobierno que puedan contratar a programadores informáticos tan buenos como los mejores de Microsoft, Google, Facebook, etcétera. Puede que protesten por ese gravamen, pero al fin y al cabo son las que están creando los problemas, y deberían ser estas empresas las que ayuden a financiar las soluciones.

¿Cómo abordar la eliminación de puestos de trabajo debido a la robótica y la IA?

Una de las cosas que podemos hacer es ofrecer una garantía de trabajo para las personas; diseñar una política gubernamental concertada para asegurarnos que existen sistemas de educación y capacitación para dar a cada individuo la oportunidad de desempeñar un trabajo de valor y remunerado. Para ofrecer garantías de empleo debemos identificar cuáles son las mayores necesidades en las distintas comunidades y, a continuación, averiguar si hay actividades que realmente están satisfaciendo esas necesidades o están socavando el bienestar.

Hace hincapié en la necesidad de evitar una carrera armamentística basada en IA. ¿Es posible un acuerdo global?

Esta es un área donde, en cierto modo, los acontecimientos han superado el punto de vista que articulé en Las nuevas leyes de la robótica. El libro fue escrito antes de la invasión rusa de Ucrania. Me centraba en un escenario de desescalada, en el que los países que más gastan en armamento podrían empezar a gastar menos y a disfrutar de un dividendo de paz como ocurrió tras la caída de la URSS en 1990. Lo que me lleva a reconsiderar el escenario es que es muy difícil imaginar un final para ese conflicto que no implique niveles más altos de tecnología por parte de aquellos que apoyan la defensa de Ucrania porque Rusia simplemente tiene muchas más personas dispuestas a lanzarse al conflicto. Por otra parte, otra de las lecciones es que la tecnología no lo es todo. Así que mi posición es más realista que idealista: la desescalada es un ideal que se desvanece. Y, por supuesto, la cooperación internacional sigue siendo esencial en algunas áreas: por ejemplo, la combinación de IA y armas nucleares es increíblemente peligrosa.

¿Cómo se ve el futuro del trabajo en relación con el crecimiento de la IA?

Hay un dicho clásico que dice que “tu trabajo no será reemplazado por la IA, pero puedes ser reemplazado por alguien que use la IA”. El trabajo no será reemplazado por la IA, pero puedes ser reemplazado por alguien que use la IA”. El trabajo con IA va a consistir en una especie de vigilancia por parte de los gerentes y de los trabajadores de las tareas que las máquinas realizarán de manera más eficiente o económica que los humanos. Cuando esto sea así, habrá negociaciones realmente duras entre los trabajadores, la dirección y los proveedores de IA sobre qué parte de los beneficios de la automatización se lleva cada uno.

 

La esfera pública automatizada está destruyendo nuestra capacidad de deliberar democráticamente

 

Estamos al borde de lo que se ha llamado singularidad, máquinas con inteligencia general que son más capaces que los humanos. En ese contexto, ¿qué nos hace humanos?

No estoy de acuerdo con la premisa de esta pregunta. No creo que la singularidad5 esté cerca. Creo que hay mucha gente con intereses comerciales en animarnos a pensar que la singularidad está cerca, pero no creo que esté cerca. ¿Qué debemos reservarnos para nosotros mismos una vez que las máquinas asuman más y más tareas? Así es como reformularía la pregunta. Yo diría que la naturaleza del ser humano es la unidad de la mente y el cuerpo; de la razón y la emoción; de los hechos y los valores. Tenemos algunas intuiciones morales básicas respecto a la prioridad absoluta de la vida humana sobre las máquinas, pero tenemos que desarrollarlas y asegurarnos de que la gente las conozca para que no se sientan atraídos por cosas como amigos artificiales o cónyuges mecánicos, ya sabes, chatbots, cónyuges o amantes, etcétera. Y no hay que enturbiar más lo que debería ser una distinción muy clara entre humanos y máquinas.

¿Cómo ve el futuro? ¿Es optimista?

En el futuro inmediato, en términos de tecnología, veremos otro invierno de la IA relativamente pronto. Se han hecho muchas predicciones para la IA generativa en diferentes campos y será realmente difícil llegar a la última milla en ámbitos concretos. Por otro lado, algunas formas de IA pueden llegar a ser muy efectivas. Además, la geopolítica de nuestra época es cada vez más sombría y creo que veremos regímenes políticos muy feos en los próximos cinco a diez años como consecuencia del uso de la IA y de la robótica. Es la versión sombría del futuro. La versión positiva dependerá de una buena cantidad de reformas políticas y económicas que están comenzando bajo la Administración de Biden en EE. UU.; de la Ley de IA y de la DMA y de la DSA en Europa y otras legislaciones similares y esfuerzos dirigidos hacia la protección de la privacidad y la regulación del uso de datos que se empiezan a ver en lugares como Australia, Japón y Canadá. Esta visión más positiva se fundamentaría en adoptar las políticas de predistribución y redistribución que he expuesto para desarrollar una prosperidad inclusiva. Pero todo esto, por supuesto, debe enmarcarse en un esfuerzo por evitar el cambio climático; tratar de mitigar nuestros efectos sobre el clima y encontrar aplicaciones de IA y robótica que puedan ayudar en ese objetivo.

John Brockman, en 1995, nos habló de la tercera cultura y reivindicó la hibridación de las disciplinas técnicas con las humanidades. ¿Cómo sería una reforma educativa para incorporar a los más jóvenes en el mundo que viene?

Estoy de acuerdo en que tiene que haber una forma de unir el campo STEM (ciencia, tecnología, ingeniería y medicina, por sus siglas en inglés), con las artes y las humanidades. A veces esto se denomina STEAM (ciencia, tecnología, educación, arte y medicina). Mi recomendación sería que cualquiera que se dedique a las materias técnicas tenga que cursar al menos una cuarta parte de sus clases universitarias y una octava parte de sus clases de posgrado, en humanidades, filosofía, ética y derecho. Y los que se dedican a las humanidades y las ciencias sociales también deberían tener algún contacto con los campos tecnológicos y científicos. El objetivo es que todo el mundo en una empresa tecnológica sea consciente y reconozca el valor de otras formas de conocimiento.

Notas

 1El entrevistado utiliza la palabra mindlessness, que se puede traducir como inconsciencia o insensatez.

 2Ídem.

 3“Madriguera de conejo” hace referencia a un principio, cada
vez más extendido, que alude a la facilidad que tenemos de estar dentro de nuestro pequeño microcosmos y a la percepción que tenemos de la realidad.

 4El scraping es un proceso automatizado que se usa para la extracción de datos de sitios web. Su aplicación a la inteligencia artificial consiste en la recopilación masiva de datos y contenidos de un sitio web con el objetivo de entrenar modelos de inteligencia artificial generativa.

 5Ese momento histórico en el que las máquinas igualarán y superarán a la inteligencia humana.

Bibliografía

Rosa, H. (2019): Resonancia. Una sociología de la relación con el mundo. Buenos Aires, Katz Editores.

Taylor, C. (2024): Cosmic Connetions. Poetry in the Age of Disenchantment. Massachusetts, Harvard University Press.

Pasquale, F. (2024): Las nuevas leyes de la robótica. Barcelona, Galaxia Gutenberg.

Portada de TELOS 125

Artículo publicado en la revista Telos 125


Ir al número ...

Autor

Director de TELOS. Profesor de Periodismo en la Universidad Carlos III. Es secretario general de Club Abierto de Editores (CLABE), la primera asociación de editores en España. Patrono de Fundación España Digital; forma parte del comité asesor del Foro de Gobernanza de Internet (IGF-Spain), miembro del consejo editorial de la revista latinoamericana Ibercampus; del Consejo Asesor de Cibervoluntarios y forma parte del consejo del Cluster de Ciberseguridad del Ayuntamiento de Madrid. Trabajó en medios como El País y Radio Nacional de España y fundó el diario digital bez.es. Fue asesor del gabinete del secretario de Estado de Comunicación del Gobierno de España y responsable de comunicación del Plan Avanza para el impulso de la sociedad de la información. Es licenciado en Ciencias de la información y ha realizado Programas Directivos en Inteligencia Artificial por la UNIR y en Transformación digital por el Instituto de Empresa. Es fellow de la German Marshall Fund y miembro de VIA Círculo Jefferson, la asociación de alumnos del Programa de Liderazgo de Visitantes en EEUU.

Ver todos los artículos

Contenido relacionado

Comentarios

Artículos relacionados