3 de noviembre de 2017

U

UN NUEVO PARADIGMA EN LOS CENTROS DE TRABAJO

por Carlos de la Torre

[ ILUSTRACIÓN: DANIEL TORNERO ]

La robotización y la inteligencia artificial ya están impactando en los modelos de trabajo y de negocio. ¿Qué ocupaciones están en riesgo y cuáles son las potenciales fuentes de creación de puestos de trabajo? Se hace necesario definir un nuevo marco normativo a partir de la interactuación de máquinas inteligentes y humanos en los centros de trabajo.

 

La robotización y la inteligencia artificial ya están impactando en los modelos de trabajo y de negocio. Se están destruyendo empleos burocráticos y repetitivos que son desarrollados por robots, pero ¿qué ocupaciones están en riesgo y cuáles son las potenciales fuentes de creación de puestos de trabajo? ¿Qué consecuencias tendrá la robótica para las empresas? ¿Y sobre el modelo de relaciones laborales o sobre la financiación y alcance de la Seguridad Social?. ¿Cómo interactuarán los robots y los humanos en los centros de trabajo? El avance de los robots en los centros de trabajo es un nuevo paradigma económico y laboral y abre muchas incógnitas y retos nuevos que deberán ser resueltos por la legislación especialmente cuando el autoaprendizaje de los robots (ya humanoides) exceda de la programación base que le puso el fabricante o las órdenes directas del dueño del robot pero también abre un mundo de oportunidades que habrá que optimizar.

Leyes de la robótica

La regulación de los robots lleva varios años en el punto de mira de los organismos internacionales y de los gobiernos. En algunos países como EEUU, Japón y Corea del Sur ya se están tomando medidas regulatorias en relación a los robots pero no todavía en Europa.

En marzo de 2012, la Comisión Europea inició un proyecto denominado robolaw que tuvo como resultado final un informe que presentó, a finales de octubre de 2014, la profesora Erica Palmerini, de la Scuola Superiore Sant Anna de Pisa, sobre cuestiones éticas y legales que plantean los robots y ofrece orientaciones y principios que pudieran guiar a los reguladores europeos y nacionales que tengan que legislar sobre estas cuestiones.

El informe ya consideraba que los valores esenciales de las leyes de la robótica tenían que ser la justicia, la dignidad, la privacidad, la solidaridad, la protección de los consumidores y de los derechos fundamentales, la no discriminación, la integración de las personas con discapacidad y la asistencia sanitaria. Ya entonces la robótica se vinculaba con sectores como el transporte o la sanidad y se abordaba la necesidad de regular la problemática de los coches sin conductor, los aviones no tripulados, los robots cirujanos, los sistemas ciberfísicos (SCF) de mejoramiento del cuerpo humano, los robots asistenciales para el cuidado de personas ancianas o con discapacidad, las prótesis robóticas o los robots de entretenimiento. Más recientemente, los drones están abriendo un mercado para su utilización en entregas de productos o servicios al consumidor final o en tareas de apoyo en servicios de agricultura, forestales, de vigilancia o industriales e incluso en actividades bélicas o de espionaje militar.

El impacto de la robótica en la economía es colosal y su expansión va a desencadenar una cuarta revolución industrial. En 2016, los datos económicos muestran que es un mercado que facturó 32.000 millones de dólares -incluyendo software, dispositivos periféricos e ingeniera de sistemas- y, por ejemplo, la concentración geográfica muestra una distribución muy relevante en Japón donde se encuentra el 40% de los robots; en Europa dónde está un 33%; y en América del Norte donde hay un 15%. El sector está dominado por dos empresas japonesas (Yaskawa y Fanuc) y por dos empresas europeas (ABB y KUKA).

Retos jurídicos

En el ámbito de la robótica se plantean, entre otros, los siguientes retos jurídicos de orden laboral que precisan de soluciones para ofrecer la necesaria seguridad jurídica a desarrolladores, fabricantes y usuarios de los robots: (i) ¿Es necesario reconocer la personalidad jurídica electrónica aunque sea limitada de todos los robots? ¿O únicamente de los robots inteligentes? En caso afirmativo ¿habrá que reconocer a estos robots su capacidad para ser titular de derechos y obligaciones laborales?; (ii) ¿Se puede reconocer la posibilidad de que los robots firmen transacciones con personas? ¿pueden ser entonces considerados como empleados y firmar un contrato de trabajo?; (iii) ¿Quién debe asumir la responsabilidad administrativa, civil o penal por daños derivados de acciones u omisiones de los robots? Y particularmente, ¿quién responde en el caso de que esa responsabilidad afecta a daños de otros trabajadores que interactúan con los robots: el fabricante del hardware, el programador del software, el propietario del robot, el titular del establecimiento que utiliza los robots, el usuario final del robot que también obtiene los frutos de la prestación del robot?; (iv) ¿Deben pagar impuestos los robots o al menos los titulares o propietarios o usuarios de los robots? ¿Y cotizaciones sociales?; (v) ¿Cómo debemos limitar la actividad de los robots cuando interaccionen con la privacidad de datos de los usuarios y las personas que se relacionan con los robots?; (vi) ¿Cómo debemos regular, en su caso, la propiedad intelectual de los robots en el caso de obras sujetas a derechos de autor generadas por robots?.

EEUU, Japón y Corea del Sur ya están tomando medidas regulatorias para los robots; en Europa, todavía no

Debates en la UE

La operativa de los robots abre un nuevo campo de juego en sus relaciones entre robots de distintos propietarios o compañías o en relaciones con terceros (trabajadores, contratistas, consumidores, etcétera) en donde se precisa tomar decisiones sobre qué aspectos requieren una regulación fuerte (hard law) y que ámbitos precisan de mayor flexibilidad (soft law) para evitar que un exceso de regulación genere barreras y frenos a la innovación tecnológica y al desarrollo de la robótica y de la inteligencia artificial.

Un ejemplo interesante es la autorregulación de los fabricantes asociado al lema “privacy by design”, de modo que los propios robots incorporen teclas de interrupción de urgencia que paralicen la actividad de los robots en caso de desviación de los objetivos de diseño que se consideraron razonables. Y por supuesto, llegará la necesidad de coordinar la regulación de los robots con las cuestiones éticas derivadas de la relación robot-humano.

En 2016, el Parlamento Europeo presentó las primeras conclusiones en un informe de un grupo de trabajo que aborda recomendaciones sobre normas de derecho civil sobre robótica e inteligencia artificial especialmente, en este último caso, aquella denominada fuerte y que se conecta con un sistema que puede emular el total funcionamiento de una mente humana ya que se necesita que la inteligencia artificial sea compresible y explicable a lo que deberá ayudar la claridad de los algoritmos.

Más recientemente, el propio Parlamento Europeo, en fecha 16 de febrero de 2017, ha presentado un nuevo informe sobre esta materia siendo ponente Mady Delvaux y aprobado la propuesta de regulación sobre la robótica y la inteligencia artificial dirigida a la Comisión Europea para que ésta elabore una Directiva sobre normas de derecho civil aplicables a la robótica y a la inteligencia artificial. El texto incorpora una serie de recomendaciones sobre los contenidos que debe tener esa directiva y de una propuesta de Carta sobre Robótica (Charter on Robotics) que deberá ser tenida en cuenta por la Comisión cuando proponga actos normativos relativos a los robots.

Esa Carta consta de dos códigos éticos (uno para los diseñadores de estos sistemas y otro para los comités éticos de investigación sobre los mismos) y de dos relaciones de normas de uso (licences) para diseñadores y usuarios de estos sistemas. Asimismo, el Parlamento Europeo propone a la Comisión que considere la creación de una agencia europea de la robótica y la inteligencia artificial que permita abastecer a las autoridades públicas de experiencia técnica, ética y regulatoria en estos ámbitos. También se plantea el Parlamento Europeo la necesidad de que exista un estatuto jurídico internacional y/o nacional para los robots con el fin de establecer quién es responsable en caso de que causen daños.

Está en juego la sostenibilidad de los sistemas tributarios y de protección social a nivel nacional

Autonomía

Una de las claves de entendimiento y resolución de los problemas legales derivados de los robots se relaciona con su autonomía para tomar decisiones y si pueden o no ser considerados responsables de actos u omisiones, y se plantea la duda de si los robots encajan en las categorías jurídicas existentes -personas físicas, jurídicas, animales y objetos- o si sería conveniente crear una nueva categoría legal para los robots inteligentes y autónomos.

El Parlamento Europeo, a resultas de esta polémica, ha avanzado que puede ser interesante y adecuado crear un régimen legal específico para que los robots autónomos más sofisticados puedan tener el estatus de “personas electrónicas con derechos y obligaciones específicas”. Además avanza la posible conveniencia de reconocer una principio de responsabilidad objetiva (strict liability) de los robots, de modo que solo haya que probar el daño y la relación causal con la acción del robot y graduar la responsabilidad de los robots en función de la autonomía de los mismos; cuanto mayor sea la capacidad de aprender o la autonomía de los robots, menor será la responsabilidad de las partes.

Además, se ha anunciado la posibilidad de exigencia de un seguro obligatorio de responsabilidad de los robots (similar al de los automóviles) que se podría completar con un fondo de compensación compatible con el reconocimiento de un régimen de responsabilidad limitada del fabricante, el programador, el propietario o el usuario y que se podría nutrir de las contribuciones financieras de las empresas fabricantes y/o usuarias de los robots. Igualmente, se ha anunciado a nivel europeo la recomendación de creación de un registro específico que permita identificar al robot, a las personas de las que depende, la existencia del seguro, sus limitaciones, etcétera.

Finalmente, se ha recomendado la elaboración de un código de conducta para los ingenieros en robótica y un código deontológico destinado a los investigadores basados todos ellos en los principios de beneficencia (los robots deben actuar en beneficio del hombre); de maleficencia (los robots no deberían perjudicar a las personas); autonomía (se debería limitar la capacidad de los robots para tomar una decisión al margen de la programación); y justicia robótica (se deberían distribuir de manera justa y equilibrada los beneficios de los robots especialmente en el ámbito de la asistencia sanitaria).

El juez robot

Respecto a la fiscalidad y a la seguridad social se ha incluido, en los informes europeos, la necesidad de incorporar mecanismos obligatorios de reporte a las empresas sobre la extensión, proporción y contribución de la robótica y, en su caso, de la inteligencia artificial a los resultados económicos de la compañía a los efectos de contribuciones fiscales y de seguridad social. El tema es muy relevante: está en juego la sostenibilidad de los sistemas tributarios y de protección social a nivel nacional.

En el ámbito del mercado legal ya existen soluciones de software que permiten, con gran automatismo, llevar a cabo informes de diligencia debida y de valoración de riesgos en operaciones de fusiones y adquisiciones sin intervención de abogados y no será extraño en el futuro un mayor uso del software en el asesoramiento legal a clientes e incluso un apoyo mayor de la tecnología y de la programación informática en las decisiones de la administración o los tribunales. ¿Llegaremos a sentencias dictadas por un robot?.

En este contexto, resulta increíble que las leyes de la robótica escritas por Isaac Asimov en 1940 mantengan vigencia y actualidad. Según Asimov: 1) Un robot no debe hacer daño a un ser humano ni, por inacción, dejar que éste sufra daño; 2) Un robot debe obedecer las órdenes que recibe un ser humano, excepto cuando tales órdenes entran en conflicto con la primera ley; y 3) Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la primera y segunda ley pero, igualmente, un robot no debe hacer daño a la humanidad ni, por omisión, dejar que ésta sufra daño.

En resumen, la problemática de la robótica y de la inteligencia artificial no es nueva pero permanece sin resolver la mayoría de los problemas jurídicos y de compliance (incluidos los laborales) que pueden emerger y, especialmente, cuando el autoaprendizaje de los robots exceda de la programación base que le puso el fabricante o las órdenes directas del dueño del robot. La vinculación de la robótica con los empleos y la interacción de los robots con los trabajadores y, especialmente, con su efecto seguro de eliminación de puestos de trabajo y de desplazamiento o sustitución de empleos debido a una mayor utilización de los robots requerirá también de ajustes y nuevas regulaciones que permitan también la contribución de los robots (o de las compañías que se benefician de ellos) con la seguridad social o con las rentas universales que, de una u otra forma, acabarán regulándose en muchos mercados laborales.

Bibliografía

Acemoglu, F. y Reestropo, P. (2016): “The race between machine and man: Implications of technology for growth factor shares and employment” en NBER Working Paper número 22252. Cambridge, MA, National Bureau of Economic Research (NBER). Disponible en http://www.nber.org/papers/w22252
Upchurch, T.; McCauley, D. (2016): Ghosts in the machine. Artificial intelligence, risks and regulation in financial markets. Baker Mckenzie/Euromoney. Disponible en http://www.euromoneythoughtleadership.com/ghostsinthemachine
Ford, M. (2015): The rise of the robots: Technology and the threat of a jobless future. New York, Basic Books.
Graetz, G. y Michaels, G. (2015): “Robots at work, LSE Centre for Economic Performance” en CEP Discussion Paper número 1335. Londres, Centre for Economic Performance (CEP). Disponible en http://eprints.lse.ac.uk/61155
IBA Global Employment Institute (2017): Artificial Intelligence and Robotics and their impact on the workplace. Londres, International Bar Association Global Employment Institute (IBA GEI).
Sandbu, M. (2017): “Algorithms, as well as robots, put pressure on jobs” en Financial Times, 7 de abril de 2017.
Waytz, A. y Norton, M. (2014): “Botsourcing and outsourcing: Robot, British, Chinese and German workers are for thinking -not feeling- jobs” en Emotion 14, número 2 (Abril 2014), pp. 434–444. Disponible en http://www.hbs.edu/faculty/Publication%20Files/waytz%20norton_a358958c-3b94-4f25-bb8c-7d10605738d8.pdf

108-portada-cuaderno-humano-digital

Artículo publicado en la revista Telos 108


Ir al número ...

Autor

Miembro del Consejo Académico de FIDE. Of Counsel en el Departamento Laboral de Baker McKenzie. Presidente de honor del Instituto Europeo de Sostenibilidad, Empleabilidad e Innovación-ISEI. EUROPE.

Ver todos los artículos

Contenido relacionado

Comentarios

Artículos relacionados