Llega el juez artificial: imparcial, eficiente y rápido
Más de veinte expertos analizarán los retos éticos y jurídicos que supone la implantación de la inteligencia artificial en el derechoEn Estonia hay diferentes ministerios que han introducido la inteligencia artificial (IA) y el aprendizaje automático (machine learning) para racionalizar los servicios a los ciudadanos. De momento ya son más de una decena los puestos de trabajo en que un algoritmo ha sustituido a los funcionarios. Pero no solo han automatizado ciertos procesos, sino que trabajan en un proyecto para diseñar un «robot juez» que pueda atender pequeños juicios mediante la IA. «Tener un sistema automatizado para resolver casos poco importantes y, sobre todo, sencillos o con una respuesta jurídica clara puede ayudar a descongestionar los órganos judiciales y ofrecer respuestas más rápidas, imparciales y fiables», afirma David Martínez, profesor de los Estudios de Derecho y Ciencia Política de la UOC y ponente en la jornada «Inteligencia artificial y derecho. El panorama de los retos éticos y jurídicos», que organizan los Estudios de Derecho y Ciencia Política el lunes, 14 de octubre, en la sede de Tibidabo, en Barcelona.
«El uso de algoritmos, en términos generales, siempre conlleva mejoras de eficiencia, rapidez, previsibilidad y seguridad», afirma Martínez, que añade que «se eliminan los aspectos subjetivos que pueden afectar a la toma de decisiones e introducir distorsiones que en principio no deberían influir en estas decisiones». Así pues, ¿un juez artificial podría dictar sentencia de manera más imparcial que un humano? «En la medida en que un algoritmo no tiene por sí mismo ningún elemento de subjetividad, sino que se limita a ejecutar una serie de órdenes, se elimina la posibilidad de interferencia de prejuicios o creencias que puedan alterar la aplicación mecánica de las normas», advierte Martínez.
Sin embargo, la aplicación de esta tecnología también tiene peligros éticos y limitaciones técnicas. «En cuanto a la tecnología, la toma de decisiones judiciales está bastante limitada. Por ejemplo, porqué no es adecuada en casos que involucran discrepancias relativas a la interpretación de preceptos legales o en discusiones en torno a cuáles son los hechos probados», detalla Martínez.
Pero ¿quién construye la ética del algoritmo?
Este es uno de los retos pendientes más importantes dada la repercusión que puede tener en la vida de las personas. «Es importante tener la posibilidad de examinar y supervisar el código de estos algoritmos, ya que se corre el riesgo de incorporar, intencionalmente o no, sesgos, prejuicios u otros elementos en la misma programación que de algún modo "contaminen" la respuesta», advierte Martínez.
Un ejemplo controvertido es el algoritmo COMPAS, que utilizan, entre otros, los tribunales penales del estado de Wisconsin, en Estados Unidos, para hacer una estimación del grado de peligrosidad y el riesgo de reincidencia del acusado y así calcular la pena que se le impondrá. Ha habido acusaciones, con un cierto grado de credibilidad, de que el algoritmo discrimina a determinados colectivos, como los afroamericanos, pero no se ha podido demostrar ni desmentir porque el código no es accesible, dado que es propiedad de una empresa privada.
El juez robot importable a España
Los 1,3 millones de ciudadanos de Estonia ya utilizan la tarjeta de identidad nacional para servicios en línea tales como la votación electrónica y la presentación de impuestos digitales. Por tanto, la idea de un juez robot tiene muchas posibilidades de funcionar. ¿Esta figura, casi proveniente de la ciencia ficción, sería importable a España? «Desde el punto de vista técnico, no hay ninguna diferencia en que los algoritmos de decisión artificial se apliquen en un estado o en otro; solo habría que ajustarlos a los contenidos del sistema jurídico de cada lugar», afirma Martínez.
Pero, en todo esto, hay un cambio de mentalidad. ¿La ciudadanía aceptaría ser juzgada por un robot? «Hay que tener presente la posible reticencia tanto de los profesionales del derecho como de los ciudadanos a aceptar que un algoritmo tome decisiones con cierta trascendencia», explica Martínez. Ahora bien, la eficiencia y la rapidez de esta tecnología podrían ayudar a los tribunales. «Teniendo en cuenta la falta de recursos suficientes y la saturación de los órganos judiciales, se podría aligerar derivando parte de los casos (aquellos más mecánicos o de trámite) a sistemas de decisión automatizada, lo que podría tener efectos positivos», considera el experto.
Una jornada para analizar los retos jurídicos y éticos de la IA
Ante esta presencia cada vez más cotidiana de la IA, los Estudios de Derecho y Ciencia Política de la UOC organizan la jornada «Inteligencia artificial y derecho: el panorama de los retos éticos y jurídicos» el lunes, 14 de octubre, a las 8.30 h, para presentar las cuestiones éticas y jurídicas que suscita la IA en varios ámbitos, agrupadas en tres grandes bloques: uno dedicado a aspectos relacionados con la actividad privada, otro centrado en los servicios públicos y un tercero dedicado a cuestiones de propiedad intelectual e industrial.
Durante el primer bloque, se tratará desde la óptica privada el uso de la IA con relación a los contratos inteligentes (smart contracts), el derecho laboral, la obsolescencia humana, la elaboración de perfiles y las aeronaves no tripuladas. En el segundo bloque, diferentes expertos en la materia analizarán la integración de la IA en el sector público, desde el juez artificial hasta la gestión de recursos humanos, pasando por la prevención de la delincuencia y las criptomonedas. Finalmente, la última parte de la jornada abordará temas vinculados a la propiedad intelectual, las patentes y los macrodatos (big data).
La conferencia inaugural de la jornada irá a cargo de Lorena Jaume-Palasí, cofundadora de AlgorithmWatch y fundadora y directora ejecutiva de The Ethical Tech Society. Su interés se basa en la filosofía del derecho, la ética de la automatización y la digitalización. Además, trabaja para controlar que empresas como Facebook o Google no abusen de los usuarios ni los engañen desde sus posiciones dominantes.
Los Estudios de Derecho y Ciencia Política de la UOC trabajan en este campo de investigación desde diversas perspectivas, en particular mediante dos proyectos de I+D: Law and Artificial Intelligence, liderado por los profesores Miquel Peguera y Raquel Xalabarder, y Retos jurídicos del uso de datos masivos para el fomento de la innovación y la buena administración a través de la inteligencia artificial, liderado por el profesor de la UOC Agustí Cerrillo junto con el profesor de la UB Juli Ponce.
Expertos UOC
Contacto de prensa
-
Redacción