El motivo por el que el algoritmo de Twitter tiene un presunto comportamiento racista

Publicado 2 octubre, 2020 por Alberto Díaz - Pinto
algoritmo-racista
PUBLICIDAD

Como ya hemos visto en otras ocasiones, la inteligencia artificial y la tecnología de aprendizaje automático pueden llegar a tener un problema racial. Un ejemplo son los dispensadores de jabón que no registran las manos de piel oscura, así como los coches autónomos que tienen un 5% más de probabilidades de atropellar a una persona negra porque no reconocen los tonos de piel más oscuros.

Y es que aún siguen existiendo numerosos algoritmos que comparten este error común. Como lo que ocurrió en Twitter recientemente, suscitando una ferviente polémica:

El experimento

El pasado fin de semana, el criptógrafo e ingeniero de infraestructuras Tony Arcieri realizó un simple experimento para comprobar si el algoritmo de Twitter tenía algún sesgo de origen racial. Para ello, Arcieri escogió una imagen de expresidente de EE.UU. Barack Obama y otra de Mitch McConnell, senador del Partido Republicano en el estado de Kentucky. No eran imágenes normales, sino que estaban muy alargadas y contaban con un amplio espacio en blanco entre ellas.

michael jackson

Previsualización de Twitter

Imagen subida

Previsualización de Twitter

Sin embargo, cuando se escogió una imagen distinta de Obama, sonriendo y con un contraste más alto, el resultado fue distinto:

Imagen subida

Obama y Mitch McConnell

@thetokensquare

Previsualización de Twitter

Entonces, ¿dónde reside el problema?

Los investigadores de Twitter Lucas Theis y Zehan Wang explicaron: «En general, las personas tienden a prestar más atención a las caras, el texto, los animales, pero también a otros objetos y regiones de alto contraste. Estos datos pueden usarse para entrenar redes neuronales y otros algoritmos para predecir lo que la gente podría querer mirar«.

Así pues, parece que el algoritmo está sesgado, prefiriendo imágenes de alto contraste que, según parece, atraen más a nuestros cerebros. Después de que la red social se llenara de ejemplos del sesgo, la compañía confirmó que estaban investigando la situación y admitieron el error. También dijeron que, hasta hace muy poco, no eran conscientes de ello. «Nuestro equipo hizo pruebas de sesgo antes de lanzar el modelo y no encontró evidencia de sesgo racial o de género en nuestras pruebas«, ha recalcado Elena Bule, directora de Comunicación de Twitter España.

Sin embargo, este pequeño experimento ha servido para romper algunos de los esquemas de la red social: «A partir de estos ejemplos, queda claro que tenemos más análisis por hacer. Continuaremos compartiendo lo que aprendemos, las acciones que tomamos y abriremos nuestro análisis para que otros puedan revisar y replicar«, concluyó.

PUBLICIDAD
Otros artículos de esta categoría...