Victòria Camps, filósofa referente en bioética
La catedrática de Filosofía, Moral y Política Victòria Camps i Cervera hablará de los desafíos éticos de la salud digital como ponente de la Jornada sobre los retos éticos de la salud digital, organizada por la Universitat Oberta de Catalunya (UOC). La jornada, promovida por el eHealth Center, tendrá lugar el próximo 16 de octubre en el Hub Interdisciplinario de Investigación e Innovación en el campus de Poblenou.
Camps se doctoró en la Universitat Autònoma de Barcelona en 1975, y ha sido profesora de Filosofía desde 1972, catedrática de Ética desde 1986 y vicerrectora de 1990 a 1993 en la Universitat Autònoma de Barcelona. Ha sido presidenta de la Fundación Víctor Grífols i Lucas de Barcelona (1998). También ha sido presidenta de los comités de bioética de Cataluña y de España, y consejera permanente del Consejo de Estado.
“Las preguntas son las alertas que obligan a controlar si los usos que se está haciendo de las nuevas tecnologías es el correcto”
¿Qué aplicaciones de la inteligencia artificial (IA) generan más preocupaciones éticas y filosóficas?
Todas las que pueden afectar a la privacidad de las personas o que pueden ser utilizadas contra algún derecho fundamental, como el de no discriminación o la falta de equidad. También generan cada vez más preocupaciones el aumento de la desinformación y la existencia creciente de noticias falsas, un fenómeno facilitado por el uso abusivo y sin escrúpulos de la inteligencia artificial.
En su prólogo del libro ¿En qué piensan los robots?, de Júlia Martín y Pau Valls, aborda algunos de los desafíos éticos y filosóficos que plantean estas tecnologías.
En el prólogo me limito a explicar por qué es importante tener en cuenta la dimensión ética al analizar el desarrollo de la inteligencia artificial tal como se está produciendo y cómo podemos prever que evolucionará en el futuro. Sin embargo, es importante evitar las actitudes catastrofistas y ser realistas, puesto que, hasta ahora, la inteligencia artificial se limita a ejecutar lo que programan las personas, no tiene conciencia ni sentimientos; por lo tanto, no puede ser ni muy creativa ni hacer frente a expresiones emocionales imprevistas. Como todas las innovaciones, el peligro reside en hacer un uso sin límites, de forma que perjudique a las personas en lugar de servirlas. Es aquí donde la filosofía puede aportar criterios éticos para distinguir el buen uso del mal uso.
¿Qué retos éticos surgen del empoderamiento de los pacientes mediante aplicaciones móviles de salud?
No soy experta en salud, pero como paciente pienso que la inteligencia artificial, más que empoderar a los pacientes, puede ayudarlos y asistirlos de una forma más eficiente en la situación de vulnerabilidad en la que se encuentran, puede hacer más ágiles las consultas médicas, facilitar la movilidad de los pacientes discapacitados y poner al servicio de las personas mayores instrumentos telemáticos que les permitan sentirse más seguras y asistidas. Al menos estos tendrían que ser los objetivos.
¿Cómo podemos garantizar la confidencialidad de los datos de salud en un contexto en el que la IA y los algoritmos se utilizan cada vez más para la toma de decisiones médicas?
Creo que es el aspecto más regulable del uso de la inteligencia artificial. Encriptar los datos personales para facilitar, por ejemplo, la digitalización de las historias clínicas es fácil y posible. La política de protección de datos está muy avanzada, pero hay contradicciones. Cuando alguien nos pide nuestros datos personales, nos asegura de entrada que serán datos protegidos y nos pide el consentimiento para utilizarlos. Pero cuando una plataforma digital registra, por ejemplo, las series de televisión que me gustan, utiliza los algoritmos para hacer un perfil de cómo soy para ofrecerme lo que más puede ajustarse a mis gustos, usa mis datos para favorecer sus intereses y no me pide permiso para hacerlo.
¿Qué papel debería tener la bioética en el desarrollo y la implementación de nuevas tecnologías de salud?
Todo lo que hemos comentado hasta ahora son cuestiones que nos planteamos desde la bioética. La bioética tiene que responder a las dudas que aparecen a medida que la inteligencia artificial se desarrolla, preguntas que no son solo científicas, y debe hacerlo teniendo como marco los principios de la bioética, la declaración de derechos humanos y otras declaraciones de principios que son los que establecen los límites. Dar respuesta a los interrogantes éticos no es sencillo porque hay que interpretar los principios y pueden colisionar los unos con los otros: la autonomía del paciente y la voluntad de beneficiarlo no siempre son fáciles de equilibrar. Por eso es muy importante que las decisiones se tomen desde la deliberación y la puesta en común de opiniones desde varias disciplinas. La bioética debe ser, sobre todo, interdisciplinaria.
¿Qué soluciones éticas hay para estos retos tecnológicos?
La mirada ética consiste más en hacerse preguntas y contrastar puntos de vista que en encontrar respuestas concretas y definitivas. Las preguntas son las alertas que obligan a controlar si el uso que se está haciendo de las nuevas tecnologías es el correcto. La evaluación continua es muy importante.
¿Qué puede decirnos de las regulaciones ya existentes?
Todas las regulaciones deben tener una base ética. Quizás hasta ahora la más importante es la Declaración europea de derechos y principios digitales, del año 2022. Es un marco regulador que tiene que orientar regulaciones más concretas en los diferentes estados de la Unión Europea. En el libro de Júlia Martín y Pau Valls que yo prologué podéis encontrar una relación más completa que la que puedo dar ahora sobre la regulación.
¿Qué desafíos quedan por abordar?
Todos los que se vayan produciendo. Es imposible imaginar hacia dónde nos llevará la inteligencia artificial, pero yo diría que el desafío prioritario tendría que ser vigilar y controlar los desvíos que se van produciendo por un uso peligroso o inútil de la inteligencia artificial y que deben ser corregidos, teniendo siempre como principio el imperativo kantiano que hay que utilizar la humanidad siempre como un fin y nunca solo como un medio.
¿Cómo puede mejorarse la IA médica?
Repito lo que ya he dicho: teniendo siempre como objetivo el bienestar de las personas y procurando corregir o evitar todo lo que se desvía de este objetivo.
¿Qué rol tienen los médicos?
Los médicos son los principales agentes en la aplicación de las herramientas que ofrece la inteligencia artificial en su ámbito. Quizás una advertencia importante que habría que hacer es que importa valorar hasta qué punto estas herramientas favorecen más al profesional sanitario o al paciente. Me parece que es una pregunta poco frecuente.
¿Qué países generan más desconfianza ética en el desarrollo de las tecnologías de la salud?
En líneas generales, los que no tienen democracias consolidadas y, por lo tanto, les faltan las instituciones imprescindibles que garantizan los derechos de las personas.
UOC R&I
La investigación e innovación (I+i) de la UOC contribuye a solucionar los retos a los que se enfrentan las sociedades globales del siglo XXI mediante el estudio de la interacción de la tecnología y las ciencias humanas y sociales, con un foco específico en la sociedad red, el aprendizaje en línea y la salud digital.
Los más de 500 investigadores e investigadoras y más de 50 grupos de investigación se articulan en torno a los siete estudios de la UOC, un programa de investigación en aprendizaje en línea (e-learning research) y dos centros de investigación: el Internet Interdisciplinary Institute (IN3) y el eHealth Center (eHC).
La universidad impulsa, también, la innovación en el aprendizaje digital a través del eLearning Innovation Center (eLinC), y la transferencia de conocimiento y el emprendimiento de la comunidad UOC con la plataforma Hubbik.
Los objetivos de la Agenda 2030 para el Desarrollo Sostenible de las Naciones Unidas y el conocimiento abierto son ejes estratégicos de la docencia, la investigación y la innovación de la UOC. Más información: research.uoc.edu.
Contacto de prensa
-
Anna Sánchez-Juárez