Cinco claves sobre la nueva Ley de Inteligencia Artificial de la Unión Europea
La UE quiere marcar la pauta internacional en la regulación de la IA, con un ambicioso reglamento centrado en los sistemas que utilizan esta tecnología y pueden ocasionar grandes riesgosEn 1997, Deep Blue, una máquina creada por IBM, derrotó al campeón mundial de ajedrez Garry Kasparov. Los avances en el hardware, el aumento de la capacidad de cálculo y los nuevos algoritmos condujeron a un interés por la inteligencia artificial (IA) que, en realidad, venía ya de lejos, con Alan Turing, John McCarthy y Eliza. Hoy asistimos a la evolución de esta tecnología que se inmiscuye en la vida cotidiana y profesional. "La IA ha generado grandes expectativas de crecimiento, eficiencia y mejora de las condiciones de vida y de impulso de la investigación, entre otros aspectos", explica Miquel Peguera, catedrático de los Estudios de Derecho y Ciencia Política de la Universitat Oberta de Catalunya (UOC). Y añade: "Sin embargo, también son muy grandes los riesgos que presenta en términos de potenciales discriminaciones y sesgos en diferentes ámbitos". Por ejemplo, decisiones automatizadas que puedan comportar que ciertos individuos no tengan acceso a servicios esenciales, la denegación de créditos bancarios, riesgos de manipulación de grupos vulnerables, generación de contenidos engañosos (deepfakes) o la distorsión del funcionamiento electoral. Para hacer frente a estos riesgos y favorecer al desarrollo de una IA segura, la Unión Europea tiene previsto poner en funcionamiento la nueva Ley de Inteligencia Artificial (AI Act) —aún pendiente de ser aprobada por el Consejo de la UE y de su publicación oficial-, que se espera que vea la luz en las próximas semanas. Se trata de una iniciativa pionera con la que la UE asume cierto rol de liderazgo en esta materia, de manera similar a como ya hizo con el Reglamento general de protección de datos (RGPD) que se ha convertido en un modelo de regulación a nivel internacional. "La UE quiere marcar la pauta internacional en la regulación de la IA centrándose exclusivamente en aquellos sistemas que pueden ocasionar riesgos relevantes y dejando fuera el resto de las soluciones de IA para evitar una regulación excesiva", explica Peguera.
“Establecerá sanciones económicas muy elevadas a quien infrinja el reglamento, que se aplica también a los proveedores de fuera de la UE si sus sistemas de IA se usan en el territorio europeo”
De este modo, la nueva ley " establecerá sanciones económicas muy elevadas a quien infrinja el reglamento, que se aplica también a los proveedores de fuera de la UE si sus sistemas de IA se usan en el territorio europeo ", comenta el experto. Por lo tanto, la nueva regulación afectará a GPT4 (Open AI), Gemini (Google), LlaMA (Meta), entre otros. Para profundizar en los cambios y los retos futuros de esta ley, los Estudios de Derecho y Ciencia Política de la UOC han organizado, el próximo 22 de mayo a las 9.30 horas, una jornada presencial y en línea sobre esta nueva legislación europea: Elementos clave y retos de la nueva Ley de Inteligencia Artificial. Esta jornada forma parte de una formación específica en forma del seminario en línea de Inteligencia artificial y derecho: claves y retos, que empezará el 12 de junio en modalidad en línea y tendrá una duración de cuatro semanas.
Cinco claves de la nueva Ley de Inteligencia Artificial de la UE
Para el experto, este nuevo reglamento tiene como claves principales las siguientes:
1. Regula la comercialización y el uso de sistemas de IA en la Unión Europea.
2. Busca promover la adopción y el desarrollo de la IA y, al mismo tiempo, mitigar los riesgos que un mal uso de esta tecnología puede suponer para la salud, la seguridad y los derechos fundamentales.
3. Prohíbe determinadas prácticas que se consideran de riesgo inaceptable para los ciudadanos y para el conjunto de la sociedad. Por ejemplo, crear bases de datos de reconocimiento facial a partir de la extracción indiscriminada de imágenes de internet, evaluar o clasificar a las personas a lo largo del tiempo por su comportamiento social o sus características personales, o bien explotar las vulnerabilidades de una persona o grupo con la intención de causar daño.
4. Centra la regulación en los sistemas de IA que considera de alto riesgo. Por ejemplo, en relación con el acceso a servicios esenciales (públicos o privados) o con la categorización biométrica de las personas, entre otros supuestos.
5. Exige transparencia con respecto a los contenidos creados o manipulados con herramientas de IA o a los sistemas de reconocimiento de emociones.
"Este Reglamento afecta principalmente a las empresas que desarrollan sistemas de IA y los lanzan al mercado, pero también a quienes utilizan herramientas de IA para actividades que no sean puramente personales", explica Peguera. Por lo tanto, cualquier empresa o profesional que implemente soluciones de IA que tengan cierto nivel de riesgo deberá velar por el cumplimiento de este reglamento. "Por supuesto, la regulación también afecta a los estados en términos del uso que hagan de la IA en la prestación de servicios públicos, el control de fronteras, la persecución de delitos y otros campos", concluye el experto.
Expertos UOC
Contacto de prensa
-
Núria Bigas Formatjé