PlayGround utiliza cookies para que tengas la mejor experiencia de navegación. Si sigues navegando entendemos que aceptas nuestra política de cookies.

C
left
left
Artículo La IA de Google confunde a personas negras con gorilas y la solución deja mucho que desear Now

Now

La IA de Google confunde a personas negras con gorilas y la solución deja mucho que desear

H

 

Han intentado eliminar el sesgo racista del algoritmo pero ahora no reconoce ni a los monos ni a los negros

S.L.

16 Enero 2018 16:36

En 2015, Google lanzó al mercado Google Photos, un servicio que etiquetaba automáticamente las fotos personales de los usuarios en galerías agrupadas de acuerdo a etiquetas: “Personas”, “Paisajes”, “edificios”. Poco después, el sistema empezó a revelar sus fallos.

Jacky Alcine, un joven de Brooklyn, descubrió que Google Photos había clasificado como “gorilas” una foto de él y una amiga suya. Indignado, el joven tuiteó la imagen y pronto el fallo de Google se hizo viral.

El sesgo racista de la compañía hizo que Google se disculpara y se comprometiera a solucionar el error. Dos años después, parece que lo ha conseguido… o no.

Para Google, la solución ha sido eliminar las etiquetas “gorila”, “chimpancé” y “mono” de su sistema de etiquetado. La revista Wired lo comprobó analizando más de 4.000 imágenes. En las que aparecen gorilas, el sistema es incapaz de etiquetarlas.

Google Photos tampoco es capaz de reconocer términos como “afroamericano”, “hombre negro”, “mujeres negra” o “persona negra”. En ocasiones, el sistema de IA de la compañía devolvía imágenes en blanco y negro de personas, pero no gente de raza negra.

Este torpe arreglo de la compañía pone en evidencia las muchas dificultades, fallos y sesgos que tienen hoy en días las tecnologías de reconocimiento de imágenes. Tecnologías elaboradas en gran medida por programadores blancos, basadas en bibliotecas de códigos preexistentes escritas en gran medida por gente blanca y que ensayan la tecnología sobre todo con caras blancas

En esa línea iban las críticas de muchos usuarios en Twitter.

No me jodas Google, ¿Qué hay de hacer el esfuerzo para desarrollar una base modelo diversa (por ejemplo, no todo blancos) para el algoritmo?'

"Google" ha "corregido" su algoritmo de reconocimiento de imágenes que identificó erróneamente a los negros como gorilas. El algoritmo ya no identifica a los gorilas ni a los negros "

Un portavoz de la compañía confirmó la eliminación de la etiqueta “Gorila” como una solución al problema de 2015. "También estamos trabajando en soluciones a largo plazo en torno a la lingüística, palabras para tener cuidado en las fotos de las personas, y el reconocimiento de imágenes en sí mismo, por ejemplo, un mejor reconocimiento de las caras oscuras. La tecnología de etiquetado de imágenes todavía es joven y lamentablemente no es perfecta", añadió el portavoz.

No es la primera vez que la tecnología demuestra seguir los sesgos sexistas, racistas y clasistas del mundo analógico. Flickr también tuvo un problema similar al de Google al etiquetar a los negros como simios. Facebook permitía a los anunciantes excluir a los usuarios de ciertos contenidos según su raza. Un estudio de la Universidad de Princenton comprobó que las máquinas de IA presentaban sesgos racistas y sexistas como los seres humanos. Y una investigación del año pasado de la Universidad de Virginia descubrió que la inteligencia artificial consolidaba los prejuicios, sesgos y estereotipos que prometía eliminar.

share