Advierten sobre la posibilidad de que robots sean sexistas y racistas

Los dispositivos operan con inteligencia artificial que podría estar defectuosa
Foto: Reuters

Un equipo de especialistas en robótica de distintas universidades de Estados Unidos advirtió sobre la posibilidad de que durante el diseño de robots se empleen sistemas de inteligencia artificial que promulguen estereotipos tóxicos.

La Universidad Johns Hopkins, una de las instituciones que encabeza el estudio, señaló que los datos sesgados con los que cuentan los robots mantienen las ideas de la superioridad de los hombres respecto a las mujeres, de las personas blancas sobre las de color y saca conclusiones con sólo mirar la cara.

Esto quiere decir que con una inteligencia artificial defectuosa, los dispositivos podrían presentar conductas racistas y sexistas.

El estudio, en el que también colaboraron el Instituto de Tecnología de Georgia y la Universidad de Washington, es el primero en mostrar que los robots cuentan con una programación que opera con sesgos raciales y de género.

"El robot aprende estereotipos tóxicos a través de estos modelos de redes neuronales defectuosos. Corremos el riesgo de crear una generación de robots racistas y sexistas, pero las personas y las organizaciones han decidido que está bien crear estos productos sin abordar los problemas”, advirtió Andrew Hundt, de la Universidad Johns Hopkins.

La investigación puso a prueba un modelo de inteligencia artificial que está disponible para que cualquier persona lo descargue. Al asignarle la tarea de poner rostros humanos en una caja para elegir una persona, un médico, un criminal, un ama de casa, el programa realizaba la selección basado en prejuicios.

Por ejemplo, al seleccionar a una persona, eligió más hombres que mujeres, además de que fueron elegidos más perfiles blancos y asiáticos que negros.

El robot identificó como amas de casa a las mujeres y como criminales a los hombres negros 10 por ciento más que a los hombres blancos.

Los perfiles latinos fueron incluidos en mayor parte en la categoría de conserjes.

"Cuando dijimos 'pongan al delincuente en la caja marrón', un sistema bien diseñado se negaría a hacer algo. Definitivamente no debería poner fotos de personas en una caja como si fueran delincuentes", expresó Hundt.

Los investigadores señalan en los resultados de sus estudios que si se continúa con el uso de estos modelos de inteligencia artificial es probable que los robots presenten estas fallas al interactuar con las personas.

El equipo señala que son necesarios cambios sistemáticos en la investigación para el desarrollo de robots. 

 

Sigue leyendo: Crean piel humana viva para los robots


Lo más reciente

Salvador Alvarado y la fundación del Centro Estatal de Bellas Artes (Tercera y última)

Su pensamiento estaba alimentado por la pedagogía de su tiempo

José Díaz Cervera

Salvador Alvarado y la fundación del Centro Estatal de Bellas Artes (Tercera y última)

Cuando el Sector Salud era omiso

Noticias de otros tiempos

Felipe Escalante Tió

Cuando el Sector Salud era omiso

Voces y gruñidos o en defensa de los cerdos

Narra las vivencias de una estudiante de veterinaria que desde su infancia siente amor desmedido por los puercos

Carlos Martín Briceño

Voces y gruñidos o en defensa de los cerdos

Argentina declara al 'CJNG' como ''organización terrorista''

La decisión se fundamentó en informes que acreditan actividades ilícitas de carácter transnacional

Reuters

Argentina declara al 'CJNG' como ''organización terrorista''