Advierten sobre la posibilidad de que robots sean sexistas y racistas

Los dispositivos operan con inteligencia artificial que podría estar defectuosa
Foto: Reuters

Un equipo de especialistas en robótica de distintas universidades de Estados Unidos advirtió sobre la posibilidad de que durante el diseño de robots se empleen sistemas de inteligencia artificial que promulguen estereotipos tóxicos.

La Universidad Johns Hopkins, una de las instituciones que encabeza el estudio, señaló que los datos sesgados con los que cuentan los robots mantienen las ideas de la superioridad de los hombres respecto a las mujeres, de las personas blancas sobre las de color y saca conclusiones con sólo mirar la cara.

Esto quiere decir que con una inteligencia artificial defectuosa, los dispositivos podrían presentar conductas racistas y sexistas.

El estudio, en el que también colaboraron el Instituto de Tecnología de Georgia y la Universidad de Washington, es el primero en mostrar que los robots cuentan con una programación que opera con sesgos raciales y de género.

"El robot aprende estereotipos tóxicos a través de estos modelos de redes neuronales defectuosos. Corremos el riesgo de crear una generación de robots racistas y sexistas, pero las personas y las organizaciones han decidido que está bien crear estos productos sin abordar los problemas”, advirtió Andrew Hundt, de la Universidad Johns Hopkins.

La investigación puso a prueba un modelo de inteligencia artificial que está disponible para que cualquier persona lo descargue. Al asignarle la tarea de poner rostros humanos en una caja para elegir una persona, un médico, un criminal, un ama de casa, el programa realizaba la selección basado en prejuicios.

Por ejemplo, al seleccionar a una persona, eligió más hombres que mujeres, además de que fueron elegidos más perfiles blancos y asiáticos que negros.

El robot identificó como amas de casa a las mujeres y como criminales a los hombres negros 10 por ciento más que a los hombres blancos.

Los perfiles latinos fueron incluidos en mayor parte en la categoría de conserjes.

"Cuando dijimos 'pongan al delincuente en la caja marrón', un sistema bien diseñado se negaría a hacer algo. Definitivamente no debería poner fotos de personas en una caja como si fueran delincuentes", expresó Hundt.

Los investigadores señalan en los resultados de sus estudios que si se continúa con el uso de estos modelos de inteligencia artificial es probable que los robots presenten estas fallas al interactuar con las personas.

El equipo señala que son necesarios cambios sistemáticos en la investigación para el desarrollo de robots. 

 

Sigue leyendo: Crean piel humana viva para los robots


Lo más reciente

Publican en DOF desincoporación de Mexicana del GAFSACOMM

El grupo de participación estatal mayoritaria integra a los aeropuertos de Palenque, Chetumal y Tulum

Gustavo Castillo García

Publican en DOF desincoporación de Mexicana del GAFSACOMM

Reportan que 14 infantes resultaron intoxicados con anfetamina en Sinaloa durante festejos por el Día del Niño

Los afectados presentaron sintomas de intoxicación por fármacos tras consumir alimentos contaminados

Efe

Reportan que 14 infantes resultaron intoxicados con anfetamina en Sinaloa durante festejos por el Día del Niño

Detienen a alcalde de Teuchitlán por nexos con CJNG y Rancho Izaguirre

La FGR indicó que Murguía Santiago fue trasladado a la CDMX

La Jornada

Detienen a alcalde de Teuchitlán por nexos con CJNG y Rancho Izaguirre

Votantes respaldan convertir sede de SpaceX en Texas en una ciudad llamada Starbase

La mayoría de los participantes en la consulta popular son empleados de la empresa de Elon Musk

La Jornada

Votantes respaldan convertir sede de SpaceX en Texas en una ciudad llamada Starbase