Conocida por sus siglas como IA, la inteligencia artificial y los automatismos se van incorporando cada vez a más ámbitos y con diferentes usos. Se diseñan para facilitar tareas en sectores tan variados como la medicina o la justicia, pero cualquier usuario los emplea o recibe el efecto de su actividad incluso sin darse cuenta. Los algoritmos que utilizan las redes sociales son un ejemplo claro de ello. Estos algoritmos aplican distintas fórmulas para seleccionar y mostrar los contenidos que recibimos, que consultamos y que nos brindan, por tanto, una imagen de la realidad. Detrás de estos robots la intervención humana desempeña un papel clave en su diseño. Pero algunos de ellos consiguen seguir aprendiendo una vez se ponen en marcha y va incorporando nuevos datos e información para adaptar la respuesta ofrecida. Entre ellos podemos encontrar los generadores de lenguaje o conversacionales, los chatbots, que pueden continuar instruyéndose para comprender y generar frases que parezcan más naturales. Las grandes compañías tecnológicas presumen de sus asistentes de conversación. Así pudo observarse, por ejemplo, en la presentación de Meena de Google o en el lanzamiento de BlenderBot de Facebook.
El efecto de los sesgos
Pero estos robots no son infalibles. Si hablamos de sesgos en estos automatismos, lógicamente podemos intuir que pueden tener algún tipo de efecto. Su dimensión podría venir determinada, por un lado, por el ámbito de aplicación, siendo tal vez los más visibles e inmediatos aquellos que pueden emplearse, por ejemplo, en cuestiones que se relacionen con la salud de las personas. Pero, por otro, hay otros sesgos cuyos efectos pueden no ser tan visibles en el corto plazo o de forma inmediata; son más sutiles y pueden pasar más desapercibidos, aunque también pueden tener consecuencias importantes. Estos sesgos pueden ser incorporados en el momento de su diseño y pueden no ser intencionados (ser fruto de un error accidental) o incluso pueden ser sesgos adquiridos si el bot creado tiene la posibilidad de seguir aprendiendo una vez diseñado. Precisamente es en estos dos niveles donde los prejuicios, estereotipos y marcos de desigualdad se filtran porque muchos de ellos se encuentran muy extendidos en la sociedad y combatirlos requiere de una labor y revisión muy consciente de la presencia de estas injusticias para poder eliminarlas.
Algunos de los errores generados por sesgos son bien conocidos. Entre ellos, por citar alguno, se encuentra Google Photos, cuyo algoritmo llegó a etiquetar imágenes de forma racista. O el chatbot que Microsoft empleó en Twitter, Tay, con el que se pretendía establecer conversaciones con jóvenes y que acabó publicando frases con contenidos xenófobos y sexistas. En aquella ocasión, en un comunicado publicado en el blog oficial de Microsoft, lamentaban lo sucedido y argumentaban que la generación de aquellos mensajes ofensivos había sido consecuencia de un ataque coordinado que logró superar los filtros para acabar haciendo un uso indebido de la tecnología. Una actuación que consiguió convertir al bot, en este caso, al chatbot, en aliado del discurso del odio.
Aquellas experiencias permiten poner de relieve la complejidad y la necesidad de seguir trabajando en la mejora de la IA. Resulta crucial entrenar a los profesionales y formarles para que se eviten estos sesgos. La aplicación de principios éticos resulta esencial. Se entiende así que la Comisión Europea publicara ya hace unos años una Guía ética para una IA fiable que incluiría entre sus indicaciones la «diversidad, no discriminación y equidad». Las compañías también presentan algunas directrices. Se pueden consultar, por citar algunos, Artificial Intelligence at Google: Our Principles, Microsoft AI principles o Facebook’s five pillars of Responsible AI. Estos deben hacerse efectivos y evaluar su aplicación práctica. Pero, además, si de bots conversacionales se trata, y más si estos se hallan abiertos al aprendizaje, las bases de la comunicación inclusiva tendrían que formar parte de la programación al tiempo que contemplar la complejidad de las interacciones y la riqueza del lenguaje (previendo las diferentes connotaciones y significados que se pueden dar a las palabras) para así avanzarse y limitar esos posibles sesgos que se puedan generar.
Citación recomendada
MARTÍNEZ MARTÍNEZ, Silvia. ‘Chatbots’ y sesgos: aliados para el discurso del odio. COMeIN [en línea], octubre 2021, no. 114. ISSN: 1696-3296. DOI: https://doi.org/10.7238/c.n114.2168
Profesora de Comunicación de la UOC
@smtez