Sesgos cognitivos en la IA, ¿cómo evitarlos?

Tiempo de lectura: 5 minutos
Las personas tenemos prejuicios y sesgos pero, ¿y la Inteligencia Artificial? Evitar que la tecnología conversacional perpetúe estereotipos y clichés es posible y depende, en gran medida, de las personas que las desarrollan, tanto a nivel técnico como lingüístico.

Todas las personas tomamos decisiones en base a nuestras creencias. Tenemos nuestra propia percepción de la realidad que nos rodea y también de lo que es o no correcto. Pero esa interpretación del entorno no siempre coincide con la realidad objetiva. En ese contexto surge lo que se conoce como «sesgos cognitivos”.

Los sesgos cognitivos son una interpretación errónea o no consciente de la información disponible. Esto repercute en la manera de percibir y procesar el entorno, exponer juicios o adoptar decisiones. Todos los humanos desarrollamos sesgos cognitivos y lo hacemos de forma automática e involuntaria pero, ¿es posible transferir estos sesgos cognitivos a la Inteligencia Artificial? 

A este respecto, María Fernández, lingüista computacional en Emergya, nos comenta que la IA aprende de nuestros discursos y asimila tanto los buenos como los malos vicios que hay en ellos. Este trasvase de sesgos a la Inteligencia Artificial se produce desde las personas que la desarrollan hasta quienes las usan y alimentan. Por ejemplo, a través de las conversaciones que mantenemos en las redes sociales. 

Cómo reducir los sesgos cognitivos en la IA

A veces pensamos en la Inteligencia Artificial como una tecnología neutra con independencia de las imparcialidades e imperfecciones que caracterizan a los seres humanos. Olvidamos que son las personas quienes desarrollan y diseñan esta tecnología. Esto implica que los sesgos que posean pueden ser transferidos a la IA de manera inconsciente. 

Para promover una Inteligencia Artificial más equitativa es necesario seguir unas pautas mínimas como son: definir sesgos, revisarlos de forma constante y disponer de equipos diversos.

Definir sesgos

Como ya hemos comentado, los sesgos cognitivos se basan en cuestiones subjetivas, en la percepción. Por esta razón, a veces puede resultar complicado identificarlos. Sin embargo, para combatirlos es necesario reconocerlos. En consecuencia, se recomienda comenzar por definirlos y a partir de ahí fijar pautas para no caer en ellos.

Un ejemplo de empresa que tiene en marcha esta iniciativa es Microsoft y su propuesta Fate. Con ella, están analizando cuáles son las potenciales disfunciones sociales de la IA. Esto es solo un caso de cómo solucionar este tipo de problemas y de la importancia que le están dando las grandes empresas. 

Actualización constante

Lo que en el pasado se pensaba correcto quizás en el presente no lo es. De aquí la importancia de estar en constante evaluación y revisión de la información. Un ejemplo es el proyecto de Jóvenes con investigadores en el que colabora nuestra experta lingüista, María Fernández, junto al grupo de investigación. El objetivo del mismo es detectar sesgos cognitivos en la IA. 

Al llevar la investigación a las aulas, el equipo descubrió con sorpresa cómo el propio alumnado era capaz de detectar actos de desigualdad de género. En concreto fue durante la visualización de escenas del juego Pokémon, desarrollado para generaciones anteriores. Según Fernández, esto confirma lo importante que es cuestionar acciones pasadas con ojos del presente.

Equipo diverso

El mundo en que vivimos es diverso. Por tanto, cuando queremos desarrollar productos para un público heterogéneo es indispensable que nuestro equipo también lo sea. Por ejemplo, si queremos evitar sesgos de géneros, será fundamental que en el equipo haya tanto hombres como mujeres. 

El porcentaje de mujeres en la industria tecnológica es de un 17,5%. Esta cifra desciende aún más (10%) para aquellas que tienen presencia en el campo de la Inteligencia Artificial. Para algunas voces expertas en igualdad de género, la consecuencia directa de esta situación es que asistentes como Siri o Alexa se han desarrollado y programado de forma sexista. 

Pasos para crear un asistente virtual sin sesgos

En todos los proyectos siempre hay que tener presente el público al que nos dirigimos. Los sesgos son una cuestión cultural y cambian según el país y la generación a la que nos enfocamos. 

Más allá de lo explicado, es determinante atender el lenguaje inclusivo para evitar caer en sesgos cognitivos desde el diseño y desarrollo del asistente virtual. Para una correcta comunicación hay que tener en cuenta: 

Visión del equipo

El equipo encargado de desarrollar y entrenar al asistente virtual puede estar sesgado. Implantar pautas en el equipo de lingüistas y de desarrollo ayudará a evitar la proliferación de sesgos cognitivos en IA.

Para ello, conviene comenzar concienciando sobre las conductas de diversidad e inclusión. Gracias a esto podrán reconocer la aparición de sesgos cuando realicen su trabajo y, lo que es más relevante, contrarrestarlos.

Asimismo, debe haber un equipo responsable de testear al asistente virtual conforme se vaya creando. El objetivo será comprobar que no haya sesgos cognitivos en las respuestas del agente conversacional. 

Identidad del asistente virtual

Una de las cuestiones más criticadas de los asistentes de voz de las principales tecnológicas es que tengan nombres y voces de mujer. Aunque ya hace tiempo que Siri ofrece la opción de cambiar su voz femenina que viene por defecto, no deja de ser percibida como una secretaria de tareas rutinarias.

En cambio, según estudios, las voces masculinas son preferidas para el GPS donde se espera recibir indicaciones claras y precisas. Para la analista Chandra Steele, esto es un ejemplo de cómo las voces de los asistentes repercuten en tópicos sexistas. Ante esta problemática, existen soluciones como “Q”, el primer asistente de voz sin género que evita incurrir en sesgos cognitivos adoptando una voz neutra. 

Además de la voz y el nombre, otro de los temas a abordar en el planteamiento de un asistente virtual es su personalidad. Ésta debe ser igualmente tratada para no perpetuar estereotipos.

Por qué es importante evitar los sesgos en un asistente virtual

Son varios los motivos por los que las empresas deberían cuestionarse los sesgos cognitivos en la IA. Si se alimenta a los asistentes virtuales con información sesgada –en cuanto a género, etnia, orientación sexual, clase social…– se contribuye a perpetuar estereotipos y desigualdades que ya existen. 

Según Saniye Gülser Cora, directora de la División para la Igualdad de Género de la UNESCO, corregir los sesgos de la tecnología es fundamental para combatir, por ejemplo, la brecha de género. Además, Gülser Corat considera que estas desigualdades son preocupantes en las habilidades digitales, lugar de donde precisamente se suministra la Inteligencia Artificial. 

Hoy en día resulta esencial que las empresas se impliquen en este tipo de acciones. No podemos olvidar que la mayoría de compañías se dirige a una población diversa. Por tanto, si quieren conectar con su público objetivo, las vías de contacto como los asistentes virtuales han de representar esa diversidad. 

Con todo ello, no sólo se trata de una cuestión de branding, sino de compromiso social. En efecto, desarrollar una tecnología libre de sesgos tendrá una repercusión directa sobre la sociedad en la que vivimos.

Si necesitas un partner de confianza para desarrollar tu asistente virtual

CONTACTA CON eºmergya

Deja un comentario