Facebook dice que su inteligencia artificial etiquetó incorrectamente un video de hombres negros como “primates” fue “inaceptable”

Facebook se disculpa por un incidente en el que su inteligencia artificial etiquetó erróneamente un video de hombres negros con una etiqueta de “primates”, calificándolo de “error inaceptable” que estaba examinando para evitar que vuelva a suceder. Según lo informado por el New York Times, los usuarios que vieron un video del 27 de junio publicado por el tabloide británico Daily Mail recibieron un mensaje automático que les preguntaba si querían “seguir viendo videos sobre Primates”.

Facebook desactivó toda la función de recomendación de temas tan pronto como se dio cuenta de lo que estaba sucediendo, dijo un portavoz en un correo electrónico a The Verge el sábado.

“Este fue claramente un error inaceptable”, dijo el portavoz. La compañía está investigando la causa para evitar que el comportamiento vuelva a ocurrir, agregó el vocero. “Como hemos dicho, aunque hemos realizado mejoras en nuestra IA, sabemos que no es perfecta y tenemos más avances que hacer. Pedimos disculpas a cualquiera que haya visto estas recomendaciones ofensivas “.

El incidente es solo el último ejemplo de herramientas de inteligencia artificial que muestran prejuicios raciales o de género, y se ha demostrado que las herramientas de reconocimiento facial tienen un problema particular de identificar erróneamente a las personas de color. En 2015, Google se disculpó después de que su aplicación Fotos etiquetara las fotos de personas negras como “gorilas”. El año pasado, Facebook dijo que estaba estudiando si sus algoritmos entrenados con inteligencia artificial, incluidos los de Instagram, propiedad de Facebook, tenían prejuicios raciales.

En abril, la Comisión Federal de Comercio de EE. UU. Advirtió que las herramientas de inteligencia artificial que han demostrado prejuicios raciales y de género “preocupantes” pueden estar en violación de las leyes de protección al consumidor si se utilizan para la toma de decisiones para el crédito, la vivienda o el empleo. “Hágase responsable, o prepárese para que la FTC lo haga por usted”, escribió la abogada de privacidad de la FTC, Elisa Jillson, en una publicación en el sitio web de la agencia.

Dejar un comentario