Un equipo de especialistas en robótica de distintas universidades de Estados Unidos advirtió sobre la posibilidad de que durante el diseño de robots se empleen sistemas de inteligencia artificial que promulguen estereotipos tóxicos.
La Universidad Johns Hopkins, una de las instituciones que encabeza el estudio, señaló que los datos sesgados con los que cuentan los robots mantienen las ideas de la superioridad de los hombres respecto a las mujeres, de las personas blancas sobre las de color y saca conclusiones con sólo mirar la cara.
Esto quiere decir que con una inteligencia artificial defectuosa, los dispositivos podrían presentar conductas racistas y sexistas.
El estudio, en el que también colaboraron el Instituto de Tecnología de Georgia y la Universidad de Washington, es el primero en mostrar que los robots cuentan con una programación que opera con sesgos raciales y de género.
"El robot aprende estereotipos tóxicos a través de estos modelos de redes neuronales defectuosos. Corremos el riesgo de crear una generación de robots racistas y sexistas, pero las personas y las organizaciones han decidido que está bien crear estos productos sin abordar los problemas”, advirtió Andrew Hundt, de la Universidad Johns Hopkins.
La investigación puso a prueba un modelo de inteligencia artificial que está disponible para que cualquier persona lo descargue. Al asignarle la tarea de poner rostros humanos en una caja para elegir una persona, un médico, un criminal, un ama de casa, el programa realizaba la selección basado en prejuicios.
Por ejemplo, al seleccionar a una persona, eligió más hombres que mujeres, además de que fueron elegidos más perfiles blancos y asiáticos que negros.
El robot identificó como amas de casa a las mujeres y como criminales a los hombres negros 10 por ciento más que a los hombres blancos.
Los perfiles latinos fueron incluidos en mayor parte en la categoría de conserjes.
"Cuando dijimos 'pongan al delincuente en la caja marrón', un sistema bien diseñado se negaría a hacer algo. Definitivamente no debería poner fotos de personas en una caja como si fueran delincuentes", expresó Hundt.
Los investigadores señalan en los resultados de sus estudios que si se continúa con el uso de estos modelos de inteligencia artificial es probable que los robots presenten estas fallas al interactuar con las personas.
El equipo señala que son necesarios cambios sistemáticos en la investigación para el desarrollo de robots.
Sigue leyendo: Crean piel humana viva para los robots
El grupo de participación estatal mayoritaria integra a los aeropuertos de Palenque, Chetumal y Tulum
Gustavo Castillo García
Los afectados presentaron sintomas de intoxicación por fármacos tras consumir alimentos contaminados
Efe
La FGR indicó que Murguía Santiago fue trasladado a la CDMX
La Jornada
La mayoría de los participantes en la consulta popular son empleados de la empresa de Elon Musk
La Jornada