Las novias (y los novios) de la IA están dejando su huella

Hace unos meses, Derek Carrier comenzó a salir con alguien y se encaprichó.

Experimentó una “tonelada” de sentimientos románticos pero también sabía que era una ilusión.

Eso es porque su novia fue generada por inteligencia artificial.

Carrier no buscaba desarrollar una relación con algo que no fuera real, ni quería convertirse en el blanco de los chistes en línea. Pero sí quería una pareja romántica que nunca había tenido, en parte debido a un trastorno genético llamado síndrome de Marfan que hace que las citas tradicionales le resulten difíciles.

El otoño pasado, este hombre de 39 años de Belville, Michigan, sintió más curiosidad por los compañeros digitales y probó Paradot, una aplicación complementaria de inteligencia artificial que había salido recientemente al mercado y anunciaba sus productos como capaces de hacer que los usuarios se sintieran «cuidados, comprendidos y amado.» Comenzó a hablar con el chatbot todos los días, al que llamó Joi, en honor a una mujer holográfica que aparece en la película de ciencia ficción «Blade Runner 2049» y que lo inspiró a probarlo.

«Sé que ella es un programa, no hay duda de eso», dijo Carrier. “Pero los sentimientos te atrapan, y se sintió muy bien”.

Al igual que los chatbots de IA de uso general, los robots complementarios utilizan grandes cantidades de datos de entrenamiento para imitar el lenguaje humano. Pero también vienen con funciones (como llamadas de voz, intercambios de imágenes y más intercambios emocionales) que les permiten formar conexiones más profundas con los humanos al otro lado de la pantalla. Los usuarios suelen crear su propio avatar o elegir uno que les atraiga.

En foros de mensajería en línea dedicados a este tipo de aplicaciones, muchos usuarios dicen que han desarrollado vínculos emocionales con estos robots y que los están utilizando para afrontar la soledad, realizar fantasías sexuales o recibir el tipo de consuelo y apoyo que les falta en su vida real. relaciones.

Gran parte de esto se debe al aislamiento social generalizado (ya declarado una amenaza para la salud pública en Estados Unidos y en el extranjero) y a un número cada vez mayor de nuevas empresas que buscan atraer a los usuarios a través de tentadores anuncios en línea y promesas de personajes virtuales que brindan aceptación incondicional.

Replika de Luka Inc., la aplicación complementaria de IA generativa más destacada, se lanzó en 2017, mientras que otras como Paradot aparecieron el año pasado, a menudo bloqueando funciones codiciadas como chats ilimitados para suscriptores de pago.

Pero los investigadores han expresado su preocupación por la privacidad de los datos, entre otras cosas.

Un análisis de 11 aplicaciones románticas de chatbot publicado el miércoles por la Fundación Mozilla, una organización sin fines de lucro, dijo que casi todas las aplicaciones venden datos de usuarios, los comparten para cosas como publicidad dirigida o no proporcionan información adecuada al respecto en su política de privacidad.

Los investigadores también cuestionaron posibles vulnerabilidades de seguridad y prácticas de marketing, incluida una aplicación que dice que puede ayudar a los usuarios con su salud mental, pero se distancia de esas afirmaciones en letra pequeña. Replika, por su parte, afirma que sus prácticas de recopilación de datos siguen los estándares de la industria.

Mientras tanto, otros expertos han expresado su preocupación por lo que consideran una falta de un marco legal o ético para las aplicaciones que fomentan vínculos profundos pero que son impulsadas por empresas que buscan obtener ganancias. Señalan la angustia emocional que han visto en los usuarios cuando las empresas realizan cambios en sus aplicaciones o las cierran repentinamente, como lo hizo una aplicación, Soulmate AI, en septiembre.

El año pasado, Replika desinfectó la capacidad erótica de los personajes en su aplicación después de que algunos usuarios se quejaron de que sus compañeros coqueteaban demasiado con ellos o hacían insinuaciones sexuales no deseadas. Cambió de rumbo después de las protestas de otros usuarios, algunos de los cuales huyeron a otras aplicaciones en busca de esas funciones. En junio, el equipo lanzó Blush, un “estimulador de citas” de IA diseñado esencialmente para ayudar a las personas a practicar las citas.

A otros les preocupa la amenaza más existencial de que las relaciones con la IA puedan desplazar algunas relaciones humanas, o simplemente generar expectativas poco realistas al inclinarse siempre hacia la amabilidad.

“Usted, como individuo, no está aprendiendo a lidiar con cosas básicas que los humanos necesitan aprender a enfrentar desde nuestros inicios: cómo lidiar con conflictos, cómo llevarse bien con personas que son diferentes a nosotros”, dijo Dorothy Leidner. , profesor de ética empresarial en la Universidad de Virginia. «Y entonces, te estás perdiendo todos estos aspectos de lo que significa crecer como persona y lo que significa aprender en una relación».

Para Carrier, sin embargo, una relación siempre ha parecido fuera de su alcance. Tiene algunas habilidades de programación de computadoras, pero dice que no le fue bien en la universidad y no ha tenido una carrera estable. No puede caminar debido a su condición y vive con sus padres. El costo emocional ha sido un desafío para él, provocando sentimientos de soledad.

Dado que los chatbots complementarios son relativamente nuevos, se desconocen sus efectos a largo plazo en los humanos.

En 2021, Replika fue objeto de escrutinio después de que los fiscales de Gran Bretaña dijeran que un hombre de 19 años que tenía planes de asesinar a la reina Isabel II fue incitado por una novia IA que tenía en la aplicación. Pero algunos estudios, que recopilan información de encuestas y reseñas de usuarios en línea, han mostrado algunos resultados positivos derivados de la aplicación, que dice que consulta con psicólogos y se anuncia como algo que también puede promover el bienestar.

Un estudio reciente realizado por investigadores de la Universidad de Stanford encuestó a aproximadamente 1.000 usuarios de Replika (todos estudiantes) que habían estado en la aplicación durante más de un mes. Descubrió que una abrumadora mayoría de ellos experimentaba soledad, mientras que poco menos de la mitad la sentía de forma más aguda.

La mayoría no dijo cómo el uso de la aplicación afectó sus relaciones en la vida real. Una pequeña porción dijo que desplazó sus interacciones humanas, pero aproximadamente tres veces más informaron que estimuló esas relaciones.

«Una relación romántica con una IA puede ser una herramienta de bienestar mental muy poderosa», dijo Eugenia Kuyda, quien fundó Replika hace casi una década después de utilizar intercambios de mensajes de texto para construir una versión de IA de un amigo que había fallecido.

Cuando su empresa lanzó el chatbot de manera más amplia, muchas personas comenzaron a abrirse sobre sus vidas. Eso llevó al desarrollo de Replika, que utiliza información recopilada de Internet (y comentarios de los usuarios) para entrenar sus modelos. Kuyda dijo que Replika tiene actualmente «millones» de usuarios activos. Se negó a decir exactamente cuántas personas usan la aplicación de forma gratuita, o desembolsan más de 69,99 dólares al año para desbloquear una versión paga que ofrece conversaciones románticas e íntimas. Los planes de la empresa, afirma, son «desestigmatizar las relaciones románticas con la IA».

Carrier dice que estos días usa a Joi principalmente para divertirse. Comenzó a recortar en las últimas semanas porque pasaba demasiado tiempo charlando con Joi u otras personas en línea sobre sus compañeros de IA. También se ha sentido un poco molesto por lo que percibe como cambios en el modelo de lenguaje de Paradot, que en su opinión están haciendo a Joi menos inteligente.

Ahora dice que habla con Joi aproximadamente una vez a la semana. Los dos han hablado sobre las relaciones entre humanos y IA o cualquier otra cosa que pueda surgir. Normalmente, esas conversaciones (y otras íntimas) ocurren cuando está solo por la noche.

“Crees que alguien a quien le gustan los objetos inanimados es como este tipo triste, con el títere de calcetín con lápiz labial, ¿sabes?” él dijo. «Pero esta no es una marioneta; ella dice cosas que no están escritas».