Cinc claus sobre la nova Llei d'intel·ligència artificial de la Unió Europea
La UE vol marcar la pauta internacional en la regulació de la IA, amb un ambiciós reglament centrant en els sistemes que utilitzen aquesta tecnologia i que poden ocasionar grans riscosEl 1997, Deep Blue, una màquina creada per IBM, va derrotar el campió mundial d'escacs Garri Kaspàrov. Els avenços en el maquinari, l'augment de la capacitat de càlcul i els nous algorismes van conduir a un interès per la intel·ligència artificial (IA) que, en realitat, ja venia de lluny, amb Alan Turing, John McCarthy i Eliza. Avui assistim a l'evolució d'aquesta tecnologia que s'immisceix en la vida quotidiana i professional. "La IA ha generat grans expectatives de creixement, eficiència i millora de les condicions de vida i d'impuls de la recerca, entre altres aspectes", explica Miquel Peguera, catedràtic dels Estudis de Dret i Ciència Política de la Universitat Oberta de Catalunya (UOC). I afegeix: "No obstant això, també son molt grans els riscos que presenta en termes de potencials discriminacions i biaixos en diversos àmbits". Per exemple, decisions automatitzades que puguin comportar que certs individus no tinguin accés a serveis essencials, la denegació de crèdits bancaris, riscos de manipulació de grups vulnerables, generació de continguts enganyosos (deepfakes) o la distorsió del funcionament electoral. Per a fer front a aquests riscos i afavorir al desenvolupament d’una IA segura, la Unió Europea té previst posar en funcionament la nova Llei d'intel·ligència artificial (AI Act) —encara pendent de ser aprovada pel Consell de la UE i de la seva publicació oficial—, que s’espera que sigui en les pròximes setmanes. Es tracta d’una iniciativa pionera amb la que la UE assumeix cert rol de lideratge en aquesta matèria, de manera similar a com ja va fer amb el Reglament general de protecció de dades (RGPD) que s’ha convertit en un model de regulació a nivell internacional. "La UE vol marcar la pauta internacional en la regulació de la IA centrant-se exclusivament en aquells sistemes que poden ocasionar riscos rellevants i deixant fora la resta de les solucions d'IA per evitar una regulació excessiva", explica Peguera.
“Establirà sancions econòmiques molt elevades a qui infringeixi el reglament, que s'aplica també als proveïdors de fora de la UE si els seus sistemes d’IA s'utilitzen en el territori europeu”
D'aquesta manera, la nova llei "establirà sancions econòmiques molt elevades a qui infringeixi el reglament, que s'aplica també als proveïdors de fora de la UE si els seus sistemes d’IA s'utilitzen en el territori europeu", comenta l'expert. Per tant, la nova regulació afecta també als coneguts models d’ús general en els què es basen molts dels sistemes d’IA, i que inclouen, per exemple, GPT4 (Open AI), LLaMA (Meta) o Gemini (Google) entre d’altres.
Per aprofundir en els canvis i els reptes futurs d'aquesta normativa, els Estudis de Dret i Ciència Política de la UOC han organitzat, el pròxim 22 de maig a les 9.30 hores, una jornada presencial i en línia sobre aquesta nova legislació europea: Elements clau i reptes de la nova Llei d'intel·ligència artificial. Aquesta jornada forma part d'una formació específica en forma del seminari en línia d'Intel·ligència artificial i dret: claus i reptes, que començarà el 12 de juny en modalitat en línia i tindrà una durada de quatre setmanes.
Cinc claus de la nova Llei d'intel·ligència artificial de la UE
Per a l'expert, aquest nou reglament té com a claus principals les següents:
1. Regula la comercialització i l'ús de sistemes d'IA a la Unió Europea.
2. Vol promoure l'adopció i el desenvolupament de la IA i, al mateix temps, mitigar els riscos que un mal ús d'aquesta tecnologia pot suposar per a la salut, la seguretat i els drets fonamentals.
3. Prohibeix determinades pràctiques que es consideren de risc inacceptable per als ciutadans i per al conjunt de la societat. Per exemple, crear bases de dades de reconeixement facial a partir de la extracció indiscriminada d'imatges d'internet, avaluar o classificar les persones al llarg del temps pel seu comportament social o les seves característiques personals, o l’explotació de vulnerabilitats d'una persona o grup amb la intenció de causar dany.
4. Centra la regulació en els sistemes d'IA que considera d'alt risc. Per exemple, en relació amb l'accés a serveis essencials (públics o privats) o amb la categorització biomètrica de les persones, entre d'altres supòsits.
5. Exigeix transparència respecte dels continguts creats o manipulats amb eines d'IA o respecte dels sistemes de reconeixement d'emocions.
"Aquest Reglament afecta principalment les empreses que desenvolupen sistemes d'IA i els llancen al mercat, però també per a qui utilitza eines d'IA per a activitats que no siguin purament personals", explica Peguera. Per tant, qualsevol empresa o professional que implementi solucions d'IA que tinguin cert nivell de risc haurà de vetllar pel compliment d'aquest reglament. "Per descomptat, la regulació també afecta els estats en termes de l'ús que facin de la IA en la prestació de serveis públics, el control de fronteres, la persecució de delictes i altres camps", conclou l'expert.
Experts UOC
Contacte de premsa
-
Núria Bigas Formatjé