Sociedad | Actualidad

El colectivo Femias realiza un manual para evitar los sesgos de la Inteligencia Artificial

La clave es preguntar "de manera adecuada" para evitar el machismo o la gordofobia en la generación de imágenes

Ahora mismo, si cualquier persona, le pide a la Inteligencia Artificial que genere una imagen de una persona rica lo que se le va a ofrecer es la imagen de un hombre, blanco, de mediana edad. No será una mujer. Ni una persona mayor. Ni una negra. Son muchos los estudios que concluyen que la IA es machista, edadista o gordófoba y que no representa la diversidad social. Fue también la conclusión a la que llegaron las integrantes del colectivo Femias en una investigación sobre los sesgos en la generación de imágenes en este ámbito que llevaron a cabo el pasado año. Aizkoa Pérez, Alejandra Bueno y Laura MM han dado, ahora, un paso más y han desarrollado un manual de buenas prácticas pionero- con el apoyo del servicio de Iguladad del Ayuntamiento de Vitoria- destinado a "promover una representación más diversas, inclusiva y equitativa en el ámbito de la IA".

Y la clave, para evitar los sesgos de la IA, es preguntar bien, hacer preguntas de calidad. Cuanto más concreta sea la pregunta, menos sesgo tendrá la imagen generada. Si yo pregunto solo por una "persona arreglando un coche por defecto, generará la imagen de un hombre", nos cuenta Alejandra Bueno, del Colectivo Femias. "Por eso, lo que tenemos que preguntar es por una mujer mecánica arreglando el coche", señala. "Para que una pregunta sea buena tiene que se específica y tiene que tener todos los componentes que consideramos que forjan una imagen sin sesgos", señala la artista e investigadora. "Si hacemos una pregunta básica, sin detalle, la respuesta va a tender a la homogeneización que no representa la diversidad social".

Raza, sexo o edad

Para ayudar a que esas preguntas sean más específicas y certeras, y obtener, de ese modo, una imagen sin sesgo, el manual que han elaborado recoge 10 items o elementos que tenemos que tener en cuenta. " Por ejemplo, con respecto a la identidad es interesante especificar la edad, el sexo, la raza de la persona; también cómo va vestida- para que no sea hetero-normada y no esté sexualizada- o también cuestiones relativas a la composición de la propia imagen", apunta Alejandra. El manual recoge los elementos en los que es interesante dar información para evitar los sesgos y, además, pone ejemplos de cómo hacerlo y sugiere qué palabras utilizar. "Se trata de un manual muy didáctica, muy digerible para entender las inteligencias artificiales, de dónde vienen los sesgos y luego explica los elementos importantes a destacar para conseguir una imagen de calidad".

Testeo del manual

El manual va a ser compartido y presentado en un acto abierto a la ciudadanía en el que se quiere testear. "Queremos que las asistentes y los asistentes nos puedan dar un feedback sobre el manual, que nos proponga items si creen que pueden ser interesantes", nos cuenta Bueno, que añade que "queremos ser refinar la propuesta o validarla". El testeo del manual va a ser este próximo miércoles- día 8 de mayo- en la Casa de las mujeres de Vitoria y para acudir hay que apuntarse en colectivafemias@gmail.com

Sigue el canal de la SER en WhatsApp
Encontrarás toda la información, el deporte y el entretenimiento: la actualidad del día y las noticias de última hora, los mejores vídeos y momentos de la radio, entrevistas, reportajes y mucho más.

Suscríbete ahora
 
  • Cadena SER

  •  
Programación
Cadena SER

Hoy por Hoy

Àngels Barceló

Comparte

Compartir desde el minuto: 00:00