Oh! Parece ser que estás usando adblocker y lo respetamos. Por eso podrás seguir disfrutando de nuestros contenidos sin problema pero quisiéramos pedirte que lo desactivaras para nuestro site. Ayúdanos a seguir adelante y a luchar por aquello en lo que creemos.
Now
Han intentado eliminar el sesgo racista del algoritmo pero ahora no reconoce ni a los monos ni a los negros
16 Enero 2018 16:36
En 2015, Google lanzó al mercado Google Photos, un servicio que etiquetaba automáticamente las fotos personales de los usuarios en galerías agrupadas de acuerdo a etiquetas: “Personas”, “Paisajes”, “edificios”. Poco después, el sistema empezó a revelar sus fallos.
Jacky Alcine, un joven de Brooklyn, descubrió que Google Photos había clasificado como “gorilas” una foto de él y una amiga suya. Indignado, el joven tuiteó la imagen y pronto el fallo de Google se hizo viral.
Google Photos, y'all fucked up. My friend's not a gorilla. pic.twitter.com/SMkMCsNVX4
— Jacky Alciné (@jackyalcine) 29 de junio de 2015
El sesgo racista de la compañía hizo que Google se disculpara y se comprometiera a solucionar el error. Dos años después, parece que lo ha conseguido… o no.
Para Google, la solución ha sido eliminar las etiquetas “gorila”, “chimpancé” y “mono” de su sistema de etiquetado. La revista Wired lo comprobó analizando más de 4.000 imágenes. En las que aparecen gorilas, el sistema es incapaz de etiquetarlas.
Google Photos tampoco es capaz de reconocer términos como “afroamericano”, “hombre negro”, “mujeres negra” o “persona negra”. En ocasiones, el sistema de IA de la compañía devolvía imágenes en blanco y negro de personas, pero no gente de raza negra.
Este torpe arreglo de la compañía pone en evidencia las muchas dificultades, fallos y sesgos que tienen hoy en días las tecnologías de reconocimiento de imágenes. Tecnologías elaboradas en gran medida por programadores blancos, basadas en bibliotecas de códigos preexistentes escritas en gran medida por gente blanca y que ensayan la tecnología sobre todo con caras blancas
En esa línea iban las críticas de muchos usuarios en Twitter.
Are you F$#@ing kidding me? @Google How about making the effort to develop a diverse (eg not all white) model base for the algorithm?
— Agustin Fuentes (@Anthrofuentes) 15 de enero de 2018
Google Removed Gorillas From Search to Fix Racist Algorithm https://t.co/5h7JvenRnX via @selectall
No me jodas Google, ¿Qué hay de hacer el esfuerzo para desarrollar una base modelo diversa (por ejemplo, no todo blancos) para el algoritmo?'
Google has "fixed" it's image recognition algorithm which misidentified black people as gorillas. The algorithm no longer identifies gorillas, or black people. https://t.co/opXhQofw09
— John Overholt (@john_overholt) 11 de enero de 2018
"Google" ha "corregido" su algoritmo de reconocimiento de imágenes que identificó erróneamente a los negros como gorilas. El algoritmo ya no identifica a los gorilas ni a los negros "
Un portavoz de la compañía confirmó la eliminación de la etiqueta “Gorila” como una solución al problema de 2015. "También estamos trabajando en soluciones a largo plazo en torno a la lingüística, palabras para tener cuidado en las fotos de las personas, y el reconocimiento de imágenes en sí mismo, por ejemplo, un mejor reconocimiento de las caras oscuras. La tecnología de etiquetado de imágenes todavía es joven y lamentablemente no es perfecta", añadió el portavoz.
No es la primera vez que la tecnología demuestra seguir los sesgos sexistas, racistas y clasistas del mundo analógico. Flickr también tuvo un problema similar al de Google al etiquetar a los negros como simios. Facebook permitía a los anunciantes excluir a los usuarios de ciertos contenidos según su raza. Un estudio de la Universidad de Princenton comprobó que las máquinas de IA presentaban sesgos racistas y sexistas como los seres humanos. Y una investigación del año pasado de la Universidad de Virginia descubrió que la inteligencia artificial consolidaba los prejuicios, sesgos y estereotipos que prometía eliminar.
share