24/7/24 · Justícia

L'amor en temps d'IA, un perill per a les dades personals

El 90% de les aplicacions de xatbots romàntiques d'intel·ligència artificial no compleixen amb una mínima seguretat

Els usuaris d'aquestes aplicacions poden tenir dificultats per separar la realitat de la ficció
amor IA

Rosses, amb ulls blaus o verds, cabells llargs i cossos perfectament proporcionats són algunes de les xicotes virtuals que es troben en les nombroses aplicacions que es poden instal·lar en un mòbil intel·ligent amb un senzill clic. Però darrere d'aquestes aplicacions s'hi amaguen una multitud de perills que l'usuari sovint desconeix. Segons la Fundació Mozilla, que va analitzar una desena d'aquests xatbots romàntics, el 90% d'aquestes aplicacions poden vendre les dades dels seus usuaris o compartir-les amb finalitats publicitàries. Un 73% no dona cap informació sobre com gestionen les vulnerabilitats de seguretat, i pràcticament la meitat (45%) permeten contrasenyes tan febles com posar simplement el número 1. "Aquest tipus d'aplicacions haurien d'informar de forma clara i senzilla de quin ús faràn de les dades que s'incorporin de forma directa o indirecta a la plataforma, si existeixen certs dubtes o bé es detecten alguns usos que no son adequats, hauria de ser un indicador suficient per no utilitzar-les", adverteix Eduard Blasi, professor col·laborador dels Estudis de Dret i Ciència Política de la UOC. Però els perills d'aquests xatbots no acaben aquí: la meitat de les aplicacions (54%) no permet eliminar les dades personals que s'han facilitat, entre les quals hi pot haver les converses que s'han mantingut amb la xicota virtual. De fet, la majoria d'aquestes aplicacions deixen clar que poden compartir la informació que s'hagi donat a la parella virtual amb el govern o les forces de l'ordre sense requerir cap mena d'ordre judicial. 

“És important conèixer quin país processarà les nostres dades personals, el país ens indicarà el marc normatiu i per tant el grau de protecció que podrà aplicar-se en el tractament de les nostres dades”

Quatre grans perills

"Les xicotes d'intel·ligència artificial són un malson per a la privadesa de les persones, i és una idea nefasta utilitzar-les", deixa clar Josep Curto, professor dels Estudis d'Informàtica, Multimèdia i Telecomunicació de la la Universitat Oberta de Catalunya (UOC). En la línia del que adverteix la Fundació Mozilla, Curto resumeix quatre dels principals perills. "Aquests xatbots d'IA generativa estan dissenyats per demanar el màxim d'informació possible, des de fotografies, la teva veu o la informació més íntima, com ara referències sexuals", concreta. Per aconseguir-ho utilitzen frases com "vull saber-ho tot de tu". En aquesta línia Blasi, insisteix en que la informació que aquestes aplicacions poden tractar és realment sensible, que es derivi d'un context de parella amb informació de caràcter íntima i reservada. Un segon punt és que la lletra petita de les condicions d'ús d'aquests serveis no és clara amb la utilització que fan de les dades de l'usuari. "Aquestes dades són susceptibles de convertir-se en la font d'ingressos principal d'aquestes empreses, compartint-les amb companyies interessades en perfils de persones", apunta el professor de la UOC. Explica que "un tercer motiu és que algunes d'aquestes aplicacions sovint inclouen rastrejadors que envien informació a països que tenen interès en l'espionatge de les persones i consideren que la privacitat no és un dret. "És important conèixer quin país processarà les nostres dades personals, el país ens indicarà el marc normatiu i per tant el grau de protecció que podrà aplicar-se en el tractament de les nostres dades", afegeix Blasi. I, finalment, “no hi ha transparència en el tipus de model d'intel·ligència artificial fundacional utilitzada en el sistema ni si s'ha dissenyat seguint les premisses de la IA responsable".

Davant d'aquesta manca de transparència i tenint en compte que el mercat d'aplicacions fa "poca cosa" per limitar la proliferació d'aquestes aplicacions, el professor de la UOC fa una crida perquè es conscienciï el ciutadà sobre els problemes que poden generar aquestes xicotes virtuals. "Cal evitar aquestes aplicacions per no trobar-se en un futur en situacions complicades, no solament pel tema de les dades, sinó també per potencials escenaris de scam [una estafa estesa a internet]", deixa clar Curto.

 

Problemes psicològics

Però amb aquests xatbots romàntics no tan sols es posa en perill la privacitat de l'usuari, sinó que també li poden provocar problemes psicològics. "El simple fet de barrejar IA amb la paraula xicota —perquè bàsicament la majoria d'aplicacions ofereixen un perfil de dona— ja em sembla perillós", apunta Sylvie Pérez, professora col·laboradora dels Estudis de Psicologia i Ciències de l'Educació de la UOC. "El fet que sigui una dona ajuda a perpetuar els estereotips de gènere de dones complaents, submises, que sempre estan disponibles i que mai estan de mal humor", afegeix. A més, assegura la professora de la UOC, una xicota d'intel·ligència artificial es crea en funció del caràcter de l'usuari. Per tant, és una manera d'interactuar amb algú que imagines a l'altre costat i que està preparada per donar-te sempre la raó "creant patrons d'entendre les relacions amb els altres que no s'ajusten a la realitat". "Pots arribar a confondre quines són les interaccions socials i la seva naturalesa real, que parteixen de la base que hi pot haver conflictes, desacords, diferents punts de vista… I això és precisament el que ens fa intel·ligents, el que en definitiva ens fa créixer", recorda la professora col·laboradora de la UOC. "A banda, també es corre el perill que si es passen moltes hores interactuant amb aquestes xicotes virtuals es tinguin dificultats per poder separar la realitat de la ficció", afegeix. "O d'entrada entens que estàs interactuant amb tu mateix o pots perdre el cap", conclou la psicòloga.

Experts UOC

Contacte de premsa

També et pot interessar

Més llegits

Veure més sobre Justícia