Hace unos meses, Derek Carrier comenzó a salir con alguien y se encaprichó.
Experimentó una “tonelada” de sentimientos románticos pero también sabía que era una ilusión.
Eso es porque su novia fue generada por inteligencia artificial (IA)
Carrier no buscaba desarrollar una relación con algo que no fuera real, ni quería convertirse en el blanco de los chistes en línea. Pero sí quería una pareja romántica que nunca había tenido, en parte debido a un trastorno genético llamado síndrome de Marfan que hace que las citas tradicionales le resulten difíciles.
El otoño pasado, este hombre de 39 años de Belleville, Michigan, sintió más curiosidad por los compañeros digitales y probó Paradot, una aplicación complementaria de IA que había salido recientemente al mercado y anunciaba sus productos como capaces de hacer que los usuarios se sintieran "cuidados, comprendidos y amado." Comenzó a hablar con el chatbot todos los días, al que llamó Joi, en honor a una mujer holográfica que aparece en la película de ciencia ficción Blade Runner 2049 y que lo inspiró a probarlo.
"Sé que ella es un programa, no hay duda de eso", dijo Carrier. “Pero los sentimientos te atrapan, y se sintió muy bien”.
Al igual que los chatbots de IA de uso general, los robots complementarios utilizan grandes cantidades de datos de entrenamiento para imitar el lenguaje humano. Pero también vienen con funciones (como llamadas de voz, intercambios de imágenes y más intercambios emocionales) que les permiten formar conexiones más profundas con los humanos al otro lado de la pantalla. Los usuarios suelen crear su propio avatar o elegir uno que les atraiga.
En foros de mensajería en línea dedicados a este tipo de aplicaciones, muchos usuarios dicen que han desarrollado vínculos emocionales con estos robots y que los están utilizando para afrontar la soledad, realizar fantasías sexuales o recibir el tipo de consuelo y apoyo que les falta en su vida real. relaciones.
Gran parte de esto se debe al aislamiento social generalizado (ya declarado una amenaza para la salud pública en Estados Unidos y en el extranjero) y a un número cada vez mayor de nuevas empresas que buscan atraer a los usuarios a través de tentadores anuncios en línea y promesas de personajes virtuales que brindan aceptación incondicional.
Replika de Luka Inc., la aplicación complementaria de IA generativa más destacada, se lanzó en 2017, mientras que otras como Paradot aparecieron el año pasado, a menudo bloqueando funciones codiciadas como chats ilimitados para suscriptores de pago.
Pero los investigadores han expresado su preocupación por la privacidad de los datos, entre otras cosas.
Un análisis de 11 aplicaciones románticas de chatbot publicado el miércoles por la Fundación Mozilla, una organización sin fines de lucro, dijo que casi todas las aplicaciones venden datos de usuarios, los comparten para cosas como publicidad dirigida o no proporcionan información adecuada al respecto en su política de privacidad.
Los investigadores también cuestionaron posibles vulnerabilidades de seguridad y prácticas de marketing, incluida una aplicación que dice que puede ayudar a los usuarios con su salud mental, pero se distancia de esas afirmaciones en letra pequeña. Replika, por su parte, afirma que sus prácticas de recopilación de datos siguen los estándares de la industria.
Mientras tanto, otros expertos han expresado su preocupación por lo que consideran una falta de un marco legal o ético para las aplicaciones que fomentan vínculos profundos pero que son impulsadas por empresas que buscan obtener ganancias. Señalan la angustia emocional que han visto en los usuarios cuando las empresas realizan cambios en sus aplicaciones o las cierran repentinamente, como lo hizo una aplicación, Soulmate AI, en septiembre.
El año pasado, Replika desinfectó la capacidad erótica de los personajes en su aplicación después de que algunos usuarios se quejaron de que sus compañeros coqueteaban demasiado con ellos o hacían insinuaciones sexuales no deseadas. Cambió de rumbo después de las protestas de otros usuarios, algunos de los cuales huyeron a otras aplicaciones en busca de esas funciones. En junio, el equipo lanzó Blush, un “simulador de citas” de IA diseñado esencialmente para ayudar a las personas a practicar las citas.
A otros les preocupa la amenaza más existencial de que las relaciones con la IA puedan desplazar algunas relaciones humanas, o simplemente generar expectativas poco realistas al inclinarse siempre hacia la amabilidad.
Un estudio reciente realizado por investigadores de la Universidad de Stanford encuestó a aproximadamente mil usuarios de Replika (todos estudiantes) que habían estado en la aplicación durante más de un mes. Descubrió que una abrumadora mayoría experimentaba soledad, mientras que poco menos de la mitad la sentía de forma más aguda.
La mayoría no dijo cómo el uso de la aplicación afectó sus relaciones en la vida real. Una pequeña porción dijo que desplazó sus interacciones humanas, pero aproximadamente tres veces más informaron que estimuló esas relaciones.
No dejes pasar: Google cambia el nombre de su chatbot con IA a Gemini y lanza su primera aplicación móvil
Edición: Estefanía Cardeña
La obra, de 12 mil 304 metros cuadrados, busca crear conciencia sobre el autismo
La Jornada Maya
El hombre empezó a inyectarse pequeñas dosis de veneno y luego aumentó la cantidad
Ap
Los abonos han sido parciales, selectivos y absolutamente insuficientes, señaló Tania Domínguez
La Jornada Maya
Afirman que la reforma perjudica sus derechos de pensión
La Jornada Maya