11 de julio de 2024

E

¿En qué pensamos y en qué no al hablar de regular la IA?

por Pedro Nel Rueda
Ilustrador Cinta Aribas

Hay normas de muchas clases, desde prácticas aceptadas por grupos hasta leyes nacionales o tratados. Se debe incluir el razonamiento económico en su análisis, creación o modificación, en especial cuando se trata de inteligencia artificial.

 

¿Qué es regular? Aprovechando una frase de Aristóteles en su Ética nicomáquea, es disciplinar un sector económico como lo haría uno con un momento de ira: enfadarse con quien corresponde, en la justa medida, en el momento adecuado y por el tiempo apropiado. No es como legislar —lo que sería ordenarnos no estar enfadados, sino de 7 a 9 a. m., por decir algo—. Se requiere algo mucho más dinámico respaldado con conocimiento. ¿A la inteligencia artificial la regulamos o la sometemos a legislación? “La estructura de toda sociedad descansa en las leyes y normas escritas o no escritas que la unen y ligan a sus miembros”, escribió Werner Jaeger en Paideia. Por tanto, cualquiera que sea el camino escogido, tenemos que poner el cerebro, el criterio y lo humano en primer lugar.

La teoría regulatoria exige conocer la materia involucrada y utilizar un razonamiento económico serio para así fijar medidas en normas nuevas o en acciones administrativas. Debe basarse en los tres componentes mencionados (cerebro, criterio, humanidad), lo que lleva a la creación normativa un paso más allá. M. Solanes, en uno de los textos que mejor enseñan qué es regulación en su forma clásica, señala que es el “control habitual enfocado sobre actividades importantes para la comunidad, efectuado por una entidad pública”.

La IA no piensa ni puede hacerlo. No se deje llevar por el efecto Eliza, la tendencia a ver comportamientos realmente humanos en máquinas

El razonamiento económico —como manera de entender el sector o materia de destino regulatorio— trata de modo ampliado incentivos, externalidades, costes de transacción, ineficiencias y demás; por ejemplo, Gary Becker, Premio Nobel de Economía en 1992, abordó áreas como la racionalidad del delincuente (todo comportamiento puede ser tratado con razonamiento económico). Así, aprendemos que es costo el tiempo perdido en el tráfico, el coste de oportunidad o las consecuencias de subestimar un impacto normativo. Es costoso arreglar una norma si es una ley del Congreso o un tratado multilateral; para modificarla se requieren negociaciones de muchos tipos —es decir, hay muchos costes de transacción— e importantes demoras; en cambio, si es una agencia gubernamental o un organismo supranacional —tanto mejor si es una agencia reguladora independiente, encabezada por expertos en la materia que saben plicar razonamiento económico—, tal vez se puedan proponer soluciones de calidad con menor lentitud. En teoría regulatoria, se considera experto a quien tiene conocimiento y experiencia (la experiencia es la gran maestra, decían los romanos). Los no expertos deben buscar el apoyo adecuado.

La tendencia ciudadana a desatender normas y deberes es costosa para la sociedad. También es costosa la ingenuidad o negligencia del público ante la tecnología cuando se lo cree todo y no reflexiona seriamente sobre temas como la ciberseguridad. Toda solución requiere ciudadanía; ser ciudadano es asumir deberes y responsabilidades frente al Estado y la sociedad, lo que incluye aceptar que hay derechos ajenos que no pueden pisotear los propios. Otro ingrediente es que la masa es manipulable —“Las masas no filosofan”, escribe Platón en La República—.

La creación e interpretación de leyes, regulaciones (acto de intervención o norma nueva), reglamentos o incluso decisiones judiciales, impacta derechos y vidas. Legislar o regular debe quedar en manos expertas, sabiendo que debe respetar al ser humano. El Gobierno de China ordenó, durante el mal llamado Gran Salto Adelante, matar a muchos gorriones asumiendo que eran plaga, y eso contribuyó a que muchas personas murieran de hambre debido a las plagas (que ya no controlaron esos gorriones).

Hay que verificar que no haya solución legal antes de inventarla. Consideremos casos como el de la Comisión Federal de Comunicaciones (FCC, por sus siglas en inglés) de Estados Unidos al declarar infracción, con base en una ley de 1991, el uso sin autorización de voces clonadas mediante IA, o la sanción a Google de 250 millones de euros en Francia por transgresiones en materia de propiedad intelectual al entrenar a Google Bard. Sin embargo, lo existente tal vez no baste dependiendo del caso.

El énfasis en crear normas de IA, o en otra materia, puede distraer de tareas pendientes como poner en cintura a las empresas que se aprovechan de nuestros datos mediante inteligencia de fuentes abiertas OSINT (Open-Source Intelligence) o de otras maneras. ¿Tiene alguien presente el artículo 12 de la Declaración Universal de los Derechos Humanos de la ONU, por ejemplo, sobre la prohibición de injerencias en la vida privada? Que yo pueda llegar a un dato no significa que pueda explotarlo, o que acorralar a una persona para que otorgue la autorización de uso de sus datos, so pena de no poder acceder a un servicio, baste para volver legítima una conducta (no descartemos allí una infracción antitrust por posición de dominio). Y si todo se escuda en una buena causa, atención, la tiranía siempre alega defender valores como la justicia o la paz.

Hora de un ejercicio puntual: ¿Deben crearse normas sobre IA y el uso del agua? La IA generativa (GenAI) gasta mucha. AI Is Accelerating the Loss of Our Scarcest Natural Resource: Water es el título de un artículo de Cindy Gordon publicado el 25 de febrero de 2024 en Forbes.com. Si ya está planteada la solución de modo directo (hay norma) o subordinado (no indirecto, subordinado; como cuando hay una acción judicial o administrativa posible al amparo de una norma), solo resta aplicarla. Seguro que ya tenemos suficientes normas sobre agua. Es como en el derecho del consumo, ¿acaso ya no hay suficientes normas para los “desafíos” (comillas intencionales) de la IA? A nadie parece preocuparle el derroche de agua con la IA aunque, siendo honestos, tampoco hay preocupación por los descomunales consumos de agua por industrias como la de los refrescos.

En tecnología, el consumo de agua no es un problema exclusivo de la IA. La computación en la nube lo presenta. ¿Deberíamos entonces extender el ejercicio a la cloud computing?

Crear normas innecesarias o usarlas mal puede afectar derechos, hasta el extremo de eliminarlos. Piense en normas con sólido historial interpretativo. Sostiene Lawrence M. Friedman en su Introducción al Derecho Norteamericano que una ley tarda más de una década en alcanzar una interpretación razonable y extendida. Una nueva norma puede dañar todo un escenario vigente para los derechos y deberes involucrados, bien porque en la práctica los anula o desfigura, o bien porque, de repente, nadie sabe qué hacer.

Si nos decidimos por una nueva norma, luego de una cuidadosa reflexión, debemos escoger entre una respuesta legislativa (de un Parlamento o un cuerpo como una de las instituciones de la UE) o una regulatoria (de una agencia o un equipo de expertos).

Como sea, es crucial entender que la IA no es lenguaje humano en toda su dimensión. El mundo de cada persona se ajusta a los límites del lenguaje de esta, advirtió L. Wittgenstein en su Tractatus logico-philosophicus, lo que es en rigor un desarrollo de la afirmación de Cicerón en Sobre los deberes (la razón y el lenguaje es lo que nos distingue de los animales). Por tanto, el mundo de la IA es solo una simulación computacional del nuestro.

 

telos-125-pacto-digital-regulacion-pedro-nel-rueda-en-que-pensamos-y-en-que-no-al-hablar-de-regular-la-ia

 

Eso nos lleva a la gran pregunta: ¿Cómo lograr una perspectiva humanista de la IA? Muy sencillo. Tratarla como lo que es: software bajo responsabilidad de un usuario humano. Olvide Hollywood, la IA no piensa ni puede hacerlo. No caiga en sesgos como el efecto Eliza1. Se requiere más humanidad. ¿Usted contrata personal dejando todo a un software de IA? ¿Cómo cree que le iría si se sometiera a la criba de ese software? Y considere que la IA no tiene valores, solo variables; hablar de ética o autoconciencia de la IA es como hablar de ética o autoconciencia de una compleja cosechadora agrícola. También deje de hablar de una IA omnipresente: no existe la IA, existen programas concretos con técnicas específicas de IA.

Que el uso de la tecnología no desplace el del cerebro. La tecnología es secundaria. Técnicas como el visual thinking o saber redactar son prioritarias. Se necesita inteligencia humana y humanidad. Cerebro, criterio y humanidad debería ser nuestro lema frente a la IA.

Forme usted su posición al respecto teniendo presente que una opinión sin conocimiento es lamentable, como sostiene Platón en La República, y que puede ser costosa por sus efectos, hasta catastrófica. Revise en qué está pensando cuando habla de regulación de la IA o en usarla. Como hay muchos derechos de por medio, trate de descubrir qué puede estar omitiendo sin caer en la parálisis por análisis. Escribió Cicerón en Sobre los deberes que “es un vicio dar por conocido lo desconocido y aprobarlo a la ligera”.

P. D.: si ya comenzó a pensar en modo regulatorio, debió preguntarse qué hace un abogado como yo escribiendo de IA. No basta mi larga experiencia en el sector TIC. Falta más. Espero explicarlo en mi video sobre IA, radiología y derecho de daños (https://www.youtube.com/watch?v=zBhtUNzE-Tk), un desarrollo completo en la línea de este artículo.

Notas

 1El efecto Eliza se refiere al primer chatbot desarrollado por el científico del MIT, Joseph Weizenbaum. Describe la tendencia de algunas personas a atribuir intenciones y emociones humanas a un computador.

Bibliografía

BBC (2024): “La cerca de Chesterton, el principio que te obliga a pensar dos veces antes de hacer cambios” en BBC News Mundo. Disponible en: https://www.bbc.com/mundo/articles/c1r24dqjrxxo

Frank, R. H. (2021): Microeconomics and Behavior (10th Edition). New York, McGraw Hill.

Jaeger, W. (2012): Paideia: los ideales de la cultura griega. México, Fondo de Cultura Económica.

Solanes, M. (1999): “Servicios públicos y regulación: consecuencias legales de las fallas de mercado”. CEPAL (Comisión Económica para América Latina). Disponible en: https://hdl.handle.net/11362/6369.

Portada de TELOS 125

Artículo publicado en la revista Telos 125


Ir al número ...

Autor

Abogado con formación en sistemas, escritor (seudónimo: Lucas Abrek), conferencista y creador de contenido. Ha sido en el Ministerio de Tecnologías de Colombia donde ha ejercido, entre otros cargos, el de jefe jurídico. Es autor del libro La tragedia de la sociedad sin criterio. Hermenéutica funcional para salir del infierno en que estamos.

Ver todos los artículos

Contenido relacionado

Comentarios

Artículos relacionados