Advierten sobre la posibilidad de que robots sean sexistas y racistas

Los dispositivos operan con inteligencia artificial que podría estar defectuosa
Foto: Reuters

Un equipo de especialistas en robótica de distintas universidades de Estados Unidos advirtió sobre la posibilidad de que durante el diseño de robots se empleen sistemas de inteligencia artificial que promulguen estereotipos tóxicos.

La Universidad Johns Hopkins, una de las instituciones que encabeza el estudio, señaló que los datos sesgados con los que cuentan los robots mantienen las ideas de la superioridad de los hombres respecto a las mujeres, de las personas blancas sobre las de color y saca conclusiones con sólo mirar la cara.

Esto quiere decir que con una inteligencia artificial defectuosa, los dispositivos podrían presentar conductas racistas y sexistas.

El estudio, en el que también colaboraron el Instituto de Tecnología de Georgia y la Universidad de Washington, es el primero en mostrar que los robots cuentan con una programación que opera con sesgos raciales y de género.

"El robot aprende estereotipos tóxicos a través de estos modelos de redes neuronales defectuosos. Corremos el riesgo de crear una generación de robots racistas y sexistas, pero las personas y las organizaciones han decidido que está bien crear estos productos sin abordar los problemas”, advirtió Andrew Hundt, de la Universidad Johns Hopkins.

La investigación puso a prueba un modelo de inteligencia artificial que está disponible para que cualquier persona lo descargue. Al asignarle la tarea de poner rostros humanos en una caja para elegir una persona, un médico, un criminal, un ama de casa, el programa realizaba la selección basado en prejuicios.

Por ejemplo, al seleccionar a una persona, eligió más hombres que mujeres, además de que fueron elegidos más perfiles blancos y asiáticos que negros.

El robot identificó como amas de casa a las mujeres y como criminales a los hombres negros 10 por ciento más que a los hombres blancos.

Los perfiles latinos fueron incluidos en mayor parte en la categoría de conserjes.

"Cuando dijimos 'pongan al delincuente en la caja marrón', un sistema bien diseñado se negaría a hacer algo. Definitivamente no debería poner fotos de personas en una caja como si fueran delincuentes", expresó Hundt.

Los investigadores señalan en los resultados de sus estudios que si se continúa con el uso de estos modelos de inteligencia artificial es probable que los robots presenten estas fallas al interactuar con las personas.

El equipo señala que son necesarios cambios sistemáticos en la investigación para el desarrollo de robots. 

 

Sigue leyendo: Crean piel humana viva para los robots


Lo más reciente

Artista austriaco destruye 'Mi lucha', de Adolf Hitler, y lo hace libro de cocina

Joska-Sutanto calcula que el proyecto puede llevarle 24 años; entre las recetas se incluye una de pizza

Afp

Artista austriaco destruye 'Mi lucha', de Adolf Hitler, y lo hace libro de cocina

Mexicano presentará en Eslovenia un 'work in progress' sobre artistas migrantes

Juan Manuel García Belmonte realiza una residencia en ese país; trabaja la pieza con su connacional Carlos Pascual

La Jornada

Mexicano presentará en Eslovenia un 'work in progress' sobre artistas migrantes

Pemex, en pie

Editorial

La Jornada

Pemex, en pie

A tres años del desplome de la L12 del metro de la CDMX, acusan explotación política sin escrúpulos

Abogado señala que las víctimas siguen esperando resolución a la reclamación patrimonial

La Jornada

A tres años del desplome de la L12 del metro de la CDMX, acusan explotación política sin escrúpulos