Facebook pidió disculpas por un error en el mecanismo de Inteligencia Artificial (IA) que recomienda vídeos en su red social, después de que esta identificase a personas afrodescendientes como primates, y desactivó este sistema hasta investigar el motivo del error.
El error de Facebook apareció para algunos usuarios de la red social después de ver un vídeo del Daily Mail que mostraba a personas de color. La IA de recomendación de vídeos les aconsejaba “seguir viendo vídeos de primates”, como informó el diario The New York Times.
"Fue claramente un error inaceptable", reconoció un portavoz de Facebook en declaraciones a The Verge, donde ha pedido disculpas a los usuarios que hayan podido ver estas "recomendaciones ofensivas".
También, Facebook deshabilitó completamente su función de recomendaciones de vídeos a través de la IA -que analiza automáticamente el contenido de los vídeos para sugerir otros relacionados- hasta investigar la causa del error y prevenir que vuelva a ocurrir de nuevo.
"Si bien hemos realizado mejoras en nuestra IA, sabemos que no es perfecta y tenemos más avances que hacer", admitió la compañía estadunidense.
También te puede interesar:
Microsoft corrige falla de vulnerabilidad en la nube
Irlanda multa a WhatsApp con 225 millones de euros por violaciones de privacidad
Turquía también multa a WhatsApp por uso de datos personales
Edición: Estefanía Cardeña
Montevideo, Uruguay, es la urbanización que ocupa el primer puesto
La Jornada
Más de cien jóvenes de Quintana Roo competirán en Isla Mujeres para promover el cuidado del vital liquido y el medio ambiente
La Jornada Maya
''Esto es un fallo moral y una negligencia mortal'', dijo Antonio Guterres
Ap / Afp
Abordarán la relación económica y cooperación en distintos ámbitos, así como la posibilidad de restituir códices a México
La Jornada