Prólogo
La inteligencia artificial (IA) es la expresión de moda de nuestro tiempo.
No pasa un día sin que tengamos conocimiento de una nueva aplicación o un nuevo avance en este ámbito científico y tecnológico gracias al impulso de empresas –grandes multinacionales pero también pequeñas start-up– y de universidades y centros de investigación, y gracias también al apoyo y fomento por parte de las instituciones públicas. Los medios de comunicación se hacen eco de ello y la ciudadanía observa, con una mezcla variable de asombro y prevención, los progresos de la IA mientras disfrutamos de su impacto beneficioso en nuestras vidas, en la economía y en la sociedad.
Sin embargo, no podemos desconocer que bajo la etiqueta de IA se engloban a menudo realidades muy dispares. Los vehículos autónomos, los traductores automáticos de textos o de conversaciones, los robots o los sistemas de reconocimiento de imágenes son aplicaciones de la IA que se basan en distintas tecnologías y parten de paradigmas diversos. De hecho, desde sus orígenes se han ido proponiendo distintos conceptos de IA, que responden a diferentes tradiciones, aproximaciones y tecnologías. Las diversas definiciones de la IA y los matices sobre su alcance que se pueden apreciar en los capítulos de este libro, comparten un mínimo común denominador al considerar que la IA es aquella capacidad de ciertos sistemas informáticos de procesar información y producir un resultado mediante un razonamiento que emula en cierto modo la actividad inteligente de los seres humanos.
A pesar de que la IA se encuentra en boca de todos, conviene advertir que no todo lo que recibe el nombre de IA puede considerarse tal, y que cada vez es más habitual que empresas o Administraciones públicas utilicen esta expresión como mero reclamo para obtener financiación, para vender más productos o para lograr un mayor reconocimiento. También podemos observar que no cualquier manifestación de la IA tiene la misma complejidad y nivel de desarrollo ni, en último término, plantea los mismos problemas, tanto desde el punto de vista tecnológico como jurídico.
Más allá de las diferencias que existen desde el punto de vista tecnológico, cuando la IA se basa en algoritmos de machine learning –y, en particular, de deep learning –, que tienen la capacidad de aprender de los datos y de la experiencia y, a partir de ellos, formarse nuevos criterios y tomar decisiones autónomas, genera unos retos más complejos que los que entrañan los sistemas expertos en los que los programadores trasladan al algoritmo las normas y los criterios para tomar decisiones, y que tienen unas capacidades más limitadas y predecibles.
La IA se basa en el análisis de datos a través de algoritmos para la obtención de resultados. A medida que la capacidad de computación de los ordenadores se va incrementado y el volumen de datos disponibles para alimentar los algoritmos va creciendo exponencialmente, los resultados son cada vez de mayor calidad y más prometedores. La IA puede utilizarse en aplicaciones informáticas y también puede estar incorporada a máquinas. Una muestra de esto último la encontramos, por ejemplo, en los drones, a los que dedicamos nuestra atención en este libro en el capítulo redactado por la profesora Blanca Torrubia.
La IA se emplea cada vez en más procesos y actividades, que así pueden llevarse a cabo mejor y más rápido, automatizándose tareas hasta tiempos recientes reservadas exclusivamente a las personas. De este modo, la IA aporta mayor eficiencia y reduce los costes, lo que se traduce en una mayor productividad, en el caso de la industria, y aumento del bienestar, en el caso de la ciudadanía. Desde un punto de vista más general, la IA contribuye a la búsqueda de soluciones a algunos de los problemas complejos que tenemos como sociedad, como el cambio climático, las crisis demográficas, la lucha contra la corrupción o, como señalaremos posteriormente, las crisis sanitarias. Asimismo, como reconoce la Comisión Europea en el Libro Blanco sobre la inteligencia artificial – un enfoque europeo orientado a la excelencia y la confianza [COM(2020) 65 final], la IA está llamada a tener un rol significativo en la consecución de los Objetivos de Desarrollo Sostenible, así como en el apoyo de la democracia y el fortalecimiento de los derechos sociales. Así, más allá de la transformación radical de los procesos de producción, se espera que IA tenga una profunda influencia de cambio nuestras vidas y llegue a transformar intensamente la economía, las instituciones y la sociedad en su conjunto.
Por todo ello, ya se considera que la IA constituye el fundamento de la cuarta revolución industrial, a la que también contribuirán significativamente otras tecnologías emergentes y disruptivas como la edición genética, la computación cuántica, la realidad cerebral/aumentada y el Blockchain.
En la otra cara de la moneda, los sistemas de IA conllevan también importantes riesgos a los que es preciso atender. Algunos de los ejemplos más aparentes pueden ser los daños causados por robots autónomos, o la discriminación que puede derivarse del empleo de algoritmos opacos y sesgados. En este sentido, los riesgos asociados a la IA suelen considerarse en términos de su potencial afectación a los derechos individuales. Junto con ello, como destaca Lorena Jaume-Palasí en su capítulo, es preciso evaluar las afectaciones de carácter estructural que la IA puede ocasionar sobre colectivos de personas y sobre el conjunto de la sociedad, aspectos que no pueden resolverse desde la óptica de los derechos individuales.
El desarrollo de la IA responde al impulso de empresas, universidades y centros de investigación e instituciones públicas. En los últimos años se ha podido observar que no existe un único modelo para concretar y fomentar este impulso y, en particular, para distribuir la contribución al progreso de la IA entre los distintos actores implicados. En efecto, cabe apreciar diferencias entre países en cuanto los modelos seguidos para el impulso y desarrollo de la IA. Estos modelos están permitiendo avances distintos pero también costes diferentes tanto para la economía como para la sociedad y, en última instancia, determinan el ritmo de desarrollo de la IA. Como advierte la Comisión Europea en el ya citado Libro Blanco nos encontramos ante un “contexto de feroz competencia mundial”.
En el caso europeo se está impulsando un modelo de desarrollo de la IA centrado en el ser humano, que busca asegurar la confianza en estas tecnologías. Para ello se fomenta una IA que se ajuste a las normas del ordenamiento jurídico, en especial a la protección de los derechos fundamentales (una IA lícita), y a los dictados éticos (una IA ética), además de a los requisitos técnicos que la doten de carácter robusto para que resulte fiable (una IA robusta). El modelo ético y regulatorio europeo, que se enmarca en el conjunto de declaraciones internacionales de principios éticos de la IA, es objeto del capítulo del profesor Miquel Peguera.
Ciertamente, el desarrollo de la IA es también una cuestión de política jurídica. La regulación resulta clave para que la IA genere seguridad y confianza –indispensables para su adopción generalizada– y se puedan resolver adecuadamente los retos que plantea, tanto los referidos a la afectación a derechos individuales como los riesgos más difusos para la sociedad.
No es ninguna novedad. La relación entre la IA y el derecho se remonta a los inicios de la IA. Ya en el año 1942 –incluso antes del pistoletazo de salida de la carrera por la IA en la década de los años 50 del siglo pasado, con los trabajos iniciales de Turing (1950) y el encuentro científico de Darmouth en el verano de 1955–, Isaac Asimov, en su obra El círculo vicioso, propuso regular el desarrollo de la robótica a través de tres leyes que debían regir la relación de los robots con los seres humanos con el fin de garantizar el sometimiento de la tecnología a las personas y evitar que el desarrollo tecnológico pudiese perjudicar a la humanidad. Aunque aquellas leyes ciertamente no se pensaron para ser aplicadas en el mundo real, y han atraído la atención más en el campo de la ficción que en el del derecho, lo cierto es que la obra de Asimov muestra que ya desde los inicios se identificó la necesidad de adoptar un marco regulatorio para la IA. En última instancia, el debate ha sido, y continúa siendo, cómo debe articularse este marco legal, de modo que no perjudique indebidamente el desarrollo de la tecnología y a la vez establezca los límites y mecanismos necesarios para asegurar el respeto a los derechos fundamentales y para mitigar y reparar los efectos nocivos que pueden derivarse del empleo de la IA.
Son diversas las vías a las que cabe acudir para encauzar adecuadamente el desarrollo, despliegue y utilización de la IA. Como ya señaló Lawrence Lessig hace poco más de dos décadas en relación con la regulación de Internet, la propia tecnología, a través del código informático, supone ya una forma material de regulación, al establecer las características y límites de los sistemas. Por otra parte, la autorregulación de la propia industria a través de la adopción, por ejemplo, de códigos de conducta, o la fijación de estándares por organismos técnicos, inciden directamente en el alcance que van a tener las tecnologías de IA, y tienen la virtud de su fácil adaptación ante el desarrollo tecnológico y su interiorización por parte de la industria. Es indudable, por otra parte, el fundamental papel que cumple la ética, y resulta ilustrativo, en este sentido, la gran cantidad de declaraciones de principios éticos emanados tanto desde la propia industria como desde ONG y organismos internacionales, también de carácter gubernamental, en relación con la IA. Esta explosión de principios éticos no debe, sin embargo, oscurecer la necesidad de abordar las tecnologías de IA también desde el punto de vista estrictamente regulatorio, esto es, mediante la intervención legislativa en sus diversas manifestaciones. No es frecuente, sin embargo, encontrar declaraciones o manifiestos que pongan el foco en la necesidad de legislar sobre la IA. Lo habitual son apelaciones a la ética y a la autoregulación del sector. Este olvido del Derecho puede deberse a motivos diversos. En ocasiones puede tratarse de una prevención general que tiende a ver el Derecho como un freno para el desarrollo tecnológico o social. Pensamos que se trata de una visión equivocada. En último término deberemos recurrir a los instrumentos legislativos para crear un marco de seguridad jurídica y hacer realidad las aspiraciones éticas, estableciendo los incentivos apropiados, desarrollando mecanismos de rendición de cuentas, fijando exigencias concretas para garantizar el respeto a los derechos fundamentales. Esto no está reñido con la elaboración de principios éticos, al contrario, en muchos casos será precisamente aquel conjunto de orientaciones éticas las que van a guiar la tarea del legislador. Esto no es óbice para recordar que la intervención legislativa debe sujetarse siempre al principio de proporcionalidad y evitar un reglamentismo precipitado que parta de concepciones erróneas y acabe por resultar contraproducente. Por todo ello, se revela urgente la tarea de estudio y realización de propuestas concretas para identificar los puntos en que es preciso adaptar, mejorar o reformar el ordenamiento para dar respuesta duradera y estable a los retos que plantea la IA. En última instancia, como reza el título de la Comunicación de la Comisión, es necesario Generar confianza en la inteligencia artificial centrada en el ser humano [COM/2019/168 final] y, entre otros instrumentos, el papel del Derecho es insustituible, siempre en coordinación con el recurso a los mecanismos flexibles de autorregulación, corregulación y estandarización.
En esta obra se examinan diversos ámbitos en los que se suscita el problema de cómo deberían regularse los sistemas de IA desde distintas perspectivas. Uno de ellos es el campo del derecho de daños. En su capítulo sobre esta materia, el profesor Antoni Rubí Puig muestra cómo, si bien algunas reformas pueden resultar convenientes o incluso necesarias en este ámbito, el derecho de daños cuenta con valiosos instrumentos de adaptación y modulación que le permiten ajustarse a situaciones muy diversas y tratar adecuadamente muchos de los riesgos derivados de la IA. En el campo de la protección de datos personales, la profesora Mònica Vilasau analiza la regulación del Reglamento General de Protección de Datos en lo relativo a la toma de decisiones automatizadas. La profesora Raquel Xalabarder examina los desafíos que la IA plantea en el ámbito de la propiedad intelectual, tanto respecto del uso de contenidos como datos para su tratamiento por los algoritmos de IA, como respecto de la protección de los resultados obtenidos con estas tecnologías. La magistrada Yolanda Ríos examina por su parte las cuestiones que suscitan los sistemas de IA desde la perspectiva del derecho de patentes. Todavía en el ámbito de la propiedad intelectual e industrial, el profesor Xavier Seuba estudia en particular el empleo de tecnologías de IA en relación con la observancia –enforcement – de los derechos de propiedad intelectual e industrial en el comercio internacional.
A lo largo de estas páginas también se analiza el impacto de la IA en las instituciones públicas. Si bien, a día de hoy, el uso de la IA en las Administraciones públicas es todavía testimonial, ya se han ido identificando los riesgos que puede entrañar para el Derecho administrativo, tal y como analiza en su capítulo el profesor Agustí Cerrillo. Asimismo, se ha observado cómo la IA puede también incidir en la organización y gestión de los recursos humanos de las Administraciones públicas, cuestión que aborda en otro capítulo profesor Ramón Galindo.
La IA también está empezando a ser utilizada por jueces y tribunales y en la administración de justicia, aspecto que es estudiado en esta obra por la profesora Esther A. Vilata. Asimismo, Marc Balcells analiza el uso de la IA en la policía y la justicia penal.
El libro también se aborda el impacto de la IA en el mercado de trabajo. Esta es una de las principales preocupaciones que se están planteando la extensión de la IA. Diversos estudios cuantifican alrededor del 45% los puestos de trabajo que podrán ser reemplazados por la IA. Estas cifras generan una lógica preocupación. Pero también nuevas oportunidades laborales relacionadas con perfiles de trabajo vinculados a la propia IA lo que se traducirá en un incremento en la demanda de profesionales capacitados en esta materia. El profesor Antonio Fernández se centra en exponer los usos que puede tener la IA en la toma de decisiones relacionadas con las diferentes parcelas del poder de dirección empresarial y el impacto de la IA en el derecho del trabajo. Por su parte, el profesor Ignasi Beltrán de Heredia aborda el peligro, quizás menos aparente, del efecto negativo que puede tener sobre las aptitudes y capacidades de las personas la adopción generalizada de las herramientas de IA en el ámbito laboral.
Finalmente, si bien en este libro la atención se centrará en la IA, hemos considerado que podría ser de interés poder exponer y analizar también los retos jurídicos de otras tecnologías emergentes dotadas igualmente de un carácter disruptivo. En esta dirección, el libro incluye un trabajo sobre las criptomonedas, basadas en la tecnología Blockchain. En particular, el profesor Benjamí Anglès lleva a cabo una exposición de los fundamentos de esta tecnología y analiza los aspectos relacionados con su fiscalidad.
Como se desprende de las páginas anteriores, el libro pretende reivindicar el papel del Derecho en el desarrollo, despliegue y utilización de la IA; en particular, para facilitar su incorporación a nivel institucional, económico y social y para que la IA pueda contribuir positivamente a mejorar la calidad de vida de las personas y a su bienestar. Como hemos señalado, si bien es habitual que al hablar de los retos de la IA se traiga a colación la ética, ello no debe ir en detrimento de que el ordenamiento jurídico regule los usos de la IA y responda a los problemas y desafíos que puedan entrañar.
El debate es urgente y la necesidad de encontrar soluciones que permitan dar respuesta a los problemas existentes o que vayan surgiendo es acuciante.
Una muestra de ello la encontramos en estos días en que redactamos este prólogo, confinados en nuestros domicilios, sumidos en una grave crisis sanitaria que está teniendo un impacto importante a nivel personal y colectivo y cuyos efectos económicos, sociales o políticos únicamente se intuyen.
La IA está contribuyendo a lucha contra la pandemia. Desde diferentes perspectivas, gracias al uso de la IA se están buscando y proponiendo soluciones a los múltiples problemas existentes colaborando o siendo complementarias a la investigación médica, científica o tecnológica para conocer el SAR-COV2 (desde la secuenciación de su ARN hasta el desarrollo de modelos para analizar cómo contagia a las personas o qué efecto tienen los medicamentos), diagnosticar la COVID-19 a través de aplicaciones que analizan síntomas o imágenes (por ejemplo, radiografías), pronosticar los efectos de la enfermedad tanto a nivel personal como social (por ejemplo, mediante aplicaciones de rastreo de contagios), informar a los enfermos sobre la enfermedad o su tratamiento (por ejemplo, a través de chatbots), encontrar una vacuna, proponer tratamientos para la enfermedad o luchar contra las fake news en las redes sociales.
Más allá de las aportaciones de la IA en esta lucha contra la COVID-19, a lo largo de estos días se han podido identificar algunas tensiones que el uso de la IA puede generar en relación con valores o principios básicos de nuestro sistema de derechos fundamentales, y de las constricciones que la regulación vigente impone, determinando los usos de la IA que resultan admisibles y los que no para luchar contra la COVID-19 utilizando la IA. Por señalar un ejemplo en esta dirección, en diversos países se han planteado públicamente algunos debates en relación al uso de aplicaciones móviles para identificar posibles personas contagiadas o identificar a las personas a quienes hayan podido contagiar: ¿debemos sacrificar nuestra privacidad o nuestros datos personales para que sean analizados por potentes algoritmos en busca de soluciones? ¿Bajo qué condiciones y con qué límites?
El libro muestra las cuestiones que se suscitan en diversos ámbitos y propone algunas posibles soluciones que el derecho puede aportar a los problemas que entraña el desarrollo de la IA. Sin embargo, debemos avanzar que, como se señala a lo largo de estas páginas, queda aún mucho camino por recorrer.
En esta obra se recoge una versión desarrollada de las ponencias que los autores presentaron en la jornada Inteligencia Artificial y Derecho. El panorama de retos éticos y jurídicos que organizaron los Estudios de Derecho y Ciencia Política de la Universitat Oberta de Catalunya el 14 de octubre de 2019.
Además de presentar un panorama de cuestiones éticas y jurídicas que suscita la IA en muy diversos ámbitos materiales, la jornada constituyó la presentación de los primeros resultados de las investigaciones realizadas por los profesores y profesoras de los Estudios de Derecho y Ciencia Política de la UOC que están trabajando en este campo de investigación desde diversas perspectivas, en particular a través de dos proyectos de I+D: Law and Artificial Intelligence, liderado por los profesores Miquel Peguera y Raquel Xalabarder, [RTI2018-101432-B-I00] y Retos jurídicos del uso de datos masivos para el fomento de la innovación y la buena administración a través de la inteligencia artificial, liderado por el profesor Agustí Cerrillo (UOC) junto con el profesor Juli Ponce (UB) [DER2017-85595-R]. La presente publicación se enmarca, pues, en el contexto de ambos proyectos de investigación.
Como el lector podrá advertir, el libro pretende ser un instrumento útil para identificar los desafíos que el desarrollo de la IA puede entrañar y la respuesta que articula el derecho desde diferentes perspectivas.