El racismo automático de la inteligencia artificial

Por Ariel Torres | LA NACION

La metida de pata fue tan monumental que Google tardó sólo una hora y media en responder. Había ocurrido lo impensable, una de esas cosas que quedan en la historia de una compañía y que se sigue recordando, con vergüenza ajena, por décadas. Sí, una metida de pata épica. En pocas palabras, el servicio Photos, lanzado hace un mes, clasificó como “gorilas” las fotos de dos afroamericanos.

Así lo tuiteó el lunes Jacky Alciné, un programador neoyorquino que, no es para menos, estaba indignado y furioso. Entre muchos mensajes de apoyo, el hombre recibió también la mofa repugnante de esa borra de racistas incurables que todavía pulula en la sentina moral de la sociedad. Esa segunda humillación también fue responsabilidad de Google, que debería haber previsto las consecuencias de un error de semejante magnitud.

Curiosamente, el reconocimiento de imágenes de Photos fue de lo más ponderado del servicio, más incluso que el hecho de que la compañía ofreciera espacio ilimitado en la nube (es decir, en sus servidores) para imágenes de hasta 16 MP y videos de hasta 1080p. Varios analistas dijeron que con esta aplicación le habían hecho jaque mate a Apple; ahora se ve que tal vez la compañía de la manzanita podría haber sido simplemente más cauta, y con razón.

En todo caso, tal vez este papelón increíble, inusitado e inexplicable deje una lección. No sólo para la compañía fundada por Brin y Page, sino para el resto de nosotros.

La primera de esas lecciones tiene que ver con el devastador efecto que pueden tener las etiquetas. La intención de Google con Photos es prístina: ayudar a las personas a ordenar y encontrar sus imágenes. Es evidente también que nunca cayeron en la cuenta de que toda clasificación implica una discriminación. Personas y discriminación no combinan nada bien. Google debería saber eso y debería haber evitado, desde el código, cualquier posibilidad, por remota que fuera, de que la imagen de una persona pudiera ser asociada con la de un animal. Especialmente con la de un primate.

Si no lo hicieron así (hasta que Alciné publicó su tweet y entonces directamente eliminaron toda mención a gorilas y demás) es porque probablemente el pecado original se encuentra aún más atrás. Está mal usar etiquetas con las personas, pero mucho peor es pensar con etiquetas. Nos volvimos expertos en eso con Twitter, y Google se abstuvo de reflexionar sobre lo grave que puede ser que los asuntos más profundos de la naturaleza humana se crucen con el modo de pensamiento telegráfico de las tags. Así, simple y brutal como suena, señalaron a dos personas negras y los llamaron “gorilas”. Así, sin vueltas, como una condena.

El conflicto de Google es patente. Si quiere que su software clasifique automáticamente las fotos, necesita darle permiso para que las catalogue en casilleros. Por cierto, la inteligencia artificial puede equivocarse, y lo hace a menudo. Lo que no puede es colocar a dos personas en el casillero de los animales. No, al menos, una vez que presentaste tu software al público. Acá no hay beta que valga como excusa.

Ahora, ¿cómo se puede evitar esto sin perjudicar la función de clasificación automática de Photos? Me parece que esa no es la pregunta. La verdadera cuestión es, ¿qué ocurre si no se puede evitar?

El punto no es que la inteligencia artificial se equivoque, sino cómo y en qué. ¿De verdad es imposible evitar que una máquina clasifique las fotos de dos seres humanos como gorilas? ¿Ni siquiera Google es capaz de sortear semejante burrada? Entonces no nos sirve. ¿Por qué? Porque mañana la inteligencia artificial podría tener (seguro va a tener) una responsabilidad mayor, más crítica. Si es bastante malo que te llamen gorila, imaginate que la máquina decida que te escapaste de un zoológico o que debe administrarte una medicación para uso veterinario.

Según algunos testimonios, el innovador saxofonista Eric Dolphy murió por un prejuicio semejante. Se desmayó durante un show en Berlín y fue llevado al hospital, donde un médico dedujo que siendo negro y músico de jazz, la explicación obvia era que sufría una sobredosis de drogas. Lo que ocurría, en realidad, era que Dolphy era diabético y un simple análisis de sangre le habría salvado la vida. Falleció de un coma diabético el 29 de junio de 1964; tenía 36 años.

COLOR HUMANO

Queremos creer que el día que la inteligencia artificial tenga mayores responsabilidades no va a cometer esta clase de errores. Que se trata de algo que necesita pulimento en el código o en la base de conocimiento. Puede ser. Pero creo que hay mucho más que una falla de programación.

No hay ninguna razón, de ningún tipo, para que un software etiquete a una persona negra como un gorila. Excepto, por supuesto, el más rancio de los prejuicios, que en este caso terminó infiltrándose hasta el tuétano del algoritmo de Google. “Los prejuicios son como los clavos -escribió José Ingenieros-: cuanto más se golpean, más se adentran”. Al final, forman parte de nuestra visión del mundo, y por eso son tan peligrosos. La inteligencia artificial de Google no etiquetó a dos personas negras como cualquier cosa, sino como gorilas. Los estigmatizó con el mismo argumento con que se justificaron siglos de abuso y esclavitud. Si la compañía no hubiera admitido su responsabilidad en los hechos, todavía me costaría creer en la veracidad de esta historia. Ni todo el poder de este gigante fue suficiente para evitar que el prejuicio se expresara así, sin maquillaje ni anestesia.

Google no tuvo ni la más mínima intención de que esto ocurriera, estoy seguro. La reacción de Yonatan Zunger, Chief Architect of Social de la compañía, fue de genuina turbación, y manejó la situación razonablemente bien. No hubo malicia. Hubo, eso sí, irresponsabilidad y arrogancia. Confiaron en una inteligencia artificial que de inteligente tiene poco y nada. ¿Qué es el prejuicio? Es lo contrario de la inteligencia. Artificial o no.

Las derivaciones de esta estolidez artificial pueden trascender, como adelanté, el papelón horrendo de calificar como animal a un ser humano. Google ya tiene coches autónomos circulando, de forma experimental, por las calles de Mountain View, California, donde la compañía tiene su sede central. Aunque han demostrado ser muy seguros, su desempeño depende en parte de la visión artificial. Mi grado de confianza en esta tecnología, que era bastante alto, se desplomó después de lo que ocurrió con Alciné.

No es la primera vez, además. Flickr (que le pertenece a Yahoo!) ya le había puesto el calificativo de animal a una persona negra en mayo. Una mujer blanca, pero con el rostro pintado recibió el mismo tratamiento. El conflicto podría encontrarse en las malas condiciones de luz, en el código o en la base de conocimiento, como argumentan las compañías involucradas. Me temo, sin embargo, que las causas son tan involuntarias como escalofriantes. Para la inteligencia artificial de Google y Yahoo! hay un color más humano que los otros.

Fuente: http://www.lanacion.com.ar/1807429-el-racismo-automatico-de-la-inteligencia-artificial