Inteligencia artificial en psicología: ¿aliada o enemiga?
La IA podría ser útil para hacer una primera criba de urgencia y gravedad de los casos, así como una criba diagnóstica de derivación a psiquiatría o a unidades de apoyo¿Acudirías a un robot para obtener ayuda psicológica? ¿La psicología puede usar la inteligencia artificial para incrementar su efectividad? Lo cierto es que las aplicaciones basadas en inteligencia artificial cada vez están más presentes en nuestro día a día. ChatGPT alcanzaba los 180,5 millones de usuarios mensuales en diciembre de 2023, además de ser elegida como la aplicación del año por los usuarios de Android, aunque era Character AI: AI-Powered Chat la elegida por Google como la mejor aplicación del año con inteligencia artificial. Uno de los bots conversacionales más populares de la aplicación es el llamado Psychologist, que, según la BBC, recibió 18 millones de mensajes solo durante el pasado mes de noviembre. La plataforma también cuenta con 475 robots que incluyen "terapia", "terapeuta", "psiquiatra" o "psicólogo" en sus nombres, lo que muestra el creciente interés en recurrir a la inteligencia artificial para obtener ayuda psicológica.
Los expertos no se asombran ante esta realidad. "La inteligencia artificial (IA) lleva mucho tiempo entre nosotros, pero en los últimos tiempos ha experimentado un crecimiento exponencial, ha ganado popularidad y ha penetrado en todos los ámbitos de nuestra vida cotidiana", afirma Rubén Nieto Luna, catedrático de los Estudios de Psicología y Ciencias de la Educación de la Universitat Oberta de Catalunya (UOC). "Por ello, al igual que ha sucedido con otras tecnologías, como las aplicaciones móviles o la realidad virtual, es natural que la IA acabe teniendo un papel en la psicología. Desde mi punto de vista, si se utiliza correctamente, puede ser una gran herramienta", sostiene el experto.
De hecho, tal y como recuerda Pablo Vallejo Medina, profesor de los Estudios de Psicología y Ciencias de la Educación de la UOC, uno de los primeros bots conversacionales de la historia, creado en 1966 por el profesor del Instituto Tecnológico de Massachusetts (MIT) Joseph Weizenbaum, fue Eliza. Se trataba de uno de los primeros programas capaces de mantener una conversación con un usuario humano, y se basaba en el método de psicoterapia del psicólogo Carl Rogers. "Era ya un mock Rogerian psychotherapist, es decir, un tipo de terapia humanista. Fue un hit en la época. Todo el mundo en el laboratorio de Weizenbaum quería 'jugar' con el programa", indica Vallejo.
“ La IA puede ser una herramienta útil en psicología con una evaluación continuada que nos garantice la fiabilidad y el acierto en el diagnóstico, y su capacidad analítica”
Posibles usos
Para Mireia Cabero, profesora colaboradora de los Estudios de Psicología y Ciencias de la Educación de la UOC, la IA puede ser una herramienta útil en psicología "con una evaluación continuada que nos garantice la fiabilidad y el acierto en su diagnóstico, y su capacidad analítica". "Hay una demanda creciente de ayuda psicológica y psicoterapéutica que ha venido para quedarse y que no dejará de aumentar: nos faltan manos", afirma Cabero. Entre los posibles usos de esta tecnología, la experta destaca los que pueden ser útiles para el sistema público, "que está saturado y ofrece visitas de mes en mes". "Podría ser útil para hacer una primera criba de urgencia y gravedad de los casos, así como una criba diagnóstica de derivación a psiquiatría o a unidades de apoyo a emergencias como prevención del suicidio o de los trastornos juveniles graves", añade la profesora de la UOC.
Además, también podría usarse para un acompañamiento diario en procesos que se agravan con la soledad. Asimismo, puede beneficiar a las personas a las que "una voz familiar, experta y afable, e incluso amorosa, podría ser útil y soportable para la superación de los procesos de dolor emocional, como el duelo, los cambios importantes, la recuperación de un trauma, etc.". Por otra parte, podría ser un apoyo reflexivo que facilite el autoconocimiento y el replanteamiento de estrategias o aproximaciones a malestares o conflictos vitales sin gravedad.
Por su parte, Rubén Nieto añade otras posibles funcionalidades de la IA, como el hecho de ayudar a los profesionales de la psicología para buscar y elaborar información, siempre supervisada, o su aplicación en el campo de la investigación. "Por ejemplo, actualmente nosotros nos estamos preguntando si los instrumentos de evaluación clásicos de la personalidad pueden servir para valorar la personalidad de ChatGPT. Pretendemos resolver preguntas como si ChatGPT es extrovertido o introvertido, si muestra una personalidad, o si es estable independientemente del idioma que utilicemos para valorarlo y de otros parámetros que podamos manipular (por ejemplo, el orden de las preguntas)", explica.
Según el experto, estas investigaciones son interesantes desde el punto de vista conceptual para ver si los sistemas populares están programados para mostrar diferentes características psicológicas. Además, pueden configurarse sistemas como ChatGPT para simular perfiles de personalidad distintos, "y queremos ver hasta qué punto el sistema es capaz de hacerlo de forma precisa". "Más allá de lo interesante que pueda ser desde el punto de vista teórico, esto puede ayudarnos (si el sistema puede simular personas y poblaciones con precisión) a realizar test preliminares de cuestionarios que estén en proceso de desarrollo, o a evaluar diferentes hipótesis", explica Rubén Nieto.
Además, según Cabero, la inteligencia artificial puede ser útil como medio para explorar emociones. "No debería ser difícil generar algoritmos que, ante determinadas respuestas verbales y de comunicación no verbal, pregunten y ayuden a la reflexión de la persona", afirma. Como recuerda Rubén Nieto, hace ya tiempo que se han realizado estudios para crear terapeutas virtuales que puedan ayudar a las personas. Es decir, se pueden crear sistemas que pregunten a las personas por sus experiencias, las analicen y conversen con ellas. "Difícilmente podrán sustituir por completo las tareas de un profesional, pero probablemente podrán ayudarlos en tareas específicas, o podrán ser de apoyo en algunos momentos concretos. Por ejemplo, a los veteranos de guerra con trastorno por estrés postraumático, les puede resultar incómodo iniciar una terapia psicológica, pero quizás esta entrada pueda ser facilitada si empiezan el contacto con un terapeuta virtual", explica el experto, quien añade que están creando una aplicación para ayudar a las personas con fibromialgia. "Escuchando sus impresiones, un grupo de participantes nos comentó que les podría ser de utilidad tener un espacio virtual para poder expresar sus emociones sin ser juzgados y sentirse comprendidos. Quizás en ese espacio virtual un avatar programado con IA podría ser muy útil", señala el experto.
Limitaciones
A pesar de los posibles beneficios que tiene para los expertos, la aplicación de la IA en psicología también cuenta con limitaciones. De hecho, aún no tienen la certeza de que "pueda conectar emocional y profundamente, empatizar, leer entre líneas y utilizar la intuición". "Son características muy humanas, y las dos últimas son el resultado de la acumulación de horas acompañando personas y de haber desarrollado un criterio psicoterapéutico", señala Mireia Cabero.
Por su parte, Pablo Vallejo destaca que, aunque hace tiempo que se superó la inteligencia artificial propiamente dicha, entendida como una mera imitación de la inteligencia humana, todavía no se ha llegado al deep learning. "Este nivel de IA es el más independiente: la propia IA decide qué variables tiene en cuenta para entrenarse. Sin embargo, en estos momentos nos encontramos bien establecidos en el nivel intermedio: el machine learning. Aquí los algoritmos son capaces de aprender: no solo nos imitan, sino que en muchos casos nos superan. No obstante, seguimos siendo los humanos quienes les decimos cómo deben entrenarse. Es decir, aún tenemos un rol activo en el diseño de la IA y, hasta cierto punto, en la comprensión del proceso", concluye el experto.
Expertos UOC
Contacto de prensa
-
Leyre Artiz