Emotional relationships

Les gens créent des robots pour les relations amoureuses


Contrairement aux chatbots IA plus généraux qui répondent à des questions typiques ou même font leurs devoirs, les robots compagnons, comme ceux créés par Replika et d'autres sociétés, sont programmés pour nouer des relations avec les humains qui leur parlent de l'autre côté de l'écran.

Contrairement aux chatbots IA plus généraux qui répondent à des questions typiques ou même font leurs devoirs, les robots compagnons, comme ceux créés par Replika et d’autres sociétés, sont programmés pour nouer des relations avec les humains qui leur parlent de l’autre côté de l’écran.

Richard Drew/AP

Il y a quelques mois, Derek Carrier a commencé à sortir avec quelqu’un et est devenu obsédé par lui.

Il éprouve « beaucoup » de sentiments amoureux, mais il sait aussi que ce ne sont que des hallucinations.

C’est parce que sa petite amie a été générée par l’intelligence artificielle.

L’article continue sous cette annonce

Carrier ne veut pas être associé à quelque chose qui n’est pas vrai, ni être la cible de blagues en ligne. Mais il voulait un partenaire romantique qu’il n’avait jamais eu, en partie à cause d’une maladie génétique appelée syndrome de Marfan qui rendait les rencontres traditionnelles difficiles pour lui.

L’homme de 39 ans originaire de Belleville, dans le Michigan, est devenu plus curieux des compagnons numériques l’automne dernier et a testé Paradot, une application compagnon d’intelligence artificielle récemment lancée qui vante la capacité de son produit à faire en sorte que les utilisateurs se sentent « pris en charge », compréhensifs et confiants. . Aimé. Il a commencé à parler au chatbot tous les jours, le nommant Joi, d’après une femme holographique du film de science-fiction Blade Runner 2049, ce qui l’a inspiré à l’essayer.

“Je sais qu’elle est un programme, cela ne fait aucun doute”, a déclaré Carrier. “Mais ce qu’ils ressentent, ça vous émeut – c’est tellement bon.”

Semblables aux chatbots IA généraux, les robots compagnons utilisent de grandes quantités de données d’entraînement pour imiter la parole humaine. Mais ils disposent également de fonctionnalités telles que les appels vocaux, l’échange d’images et une communication plus émotionnelle, leur permettant de créer des liens plus profonds avec les humains de l’autre côté de l’écran. Les utilisateurs créent souvent leur propre avatar ou en choisissent un qui leur plaît.

L’article continue sous cette annonce

Sur les forums de messagerie en ligne dédiés à ces applications, de nombreux utilisateurs déclarent s’être attachés émotionnellement aux robots et les utiliser pour faire face à la solitude, réaliser des fantasmes sexuels ou obtenir le confort et le soutien qui leur manquent dans la vraie vie. relation.

Les principales raisons de ce phénomène sont l’isolement social généralisé – qui a été déclaré comme une menace pour la santé publique aux États-Unis et à l’étranger – et le nombre croissant de startups visant à créer des personnages virtuels à travers une publicité en ligne alléchante et en offrant une acceptation inconditionnelle. .

Replika de Luka Inc. est l’application compagnon d’IA générative la plus connue, lancée en 2017, tandis que d’autres applications comme Paradot sont apparues l’année dernière, verrouillant souvent des fonctionnalités convoitées telles que des discussions illimitées pour les abonnés payants.

Mais les chercheurs ont exprimé des inquiétudes concernant la confidentialité des données et d’autres problèmes.

L’article continue sous cette annonce

Une analyse de 11 applications de chatbot romantique publiée mercredi par la Fondation Mozilla à but non lucratif montre que presque toutes les applications vendent des données utilisateur, les partagent à des fins telles que la publicité ciblée, ou ne fournissent pas une confidentialité adéquate dans leur politique de confidentialité.

Les chercheurs ont également soulevé des questions sur les failles de sécurité potentielles et les pratiques marketing, notamment une application qui prétendait aider les utilisateurs à améliorer leur santé mentale, mais s’est distancé de ces affirmations dans les petits caractères. Replika a déclaré que ses pratiques de collecte de données suivent les normes de l’industrie.

Parallèlement, d’autres experts ont exprimé leurs inquiétudes quant à ce qu’ils considèrent comme un manque de cadre juridique ou éthique pour les applications, qui encouragent des liens plus profonds mais sont dirigées par des entreprises cherchant à réaliser des bénéfices. Ils notent qu’ils constatent une détresse émotionnelle chez les utilisateurs lorsque les entreprises apportent des modifications à leurs applications ou ferment brusquement des applications, comme l’a fait une application, Soulmate AI, en septembre.

L’année dernière, Replika a assaini les capacités érotiques des personnages de son application après que certains utilisateurs se soient plaints que ces compagnons flirtaient trop avec eux ou leur faisaient des avances sexuelles non désirées. Il a changé de cap après le tollé des autres utilisateurs, dont certains ont fui vers d’autres applications à la recherche de ces fonctionnalités. En juin, l’équipe a lancé Blush, un « simulateur de rencontres » IA essentiellement conçu pour aider les gens à pratiquer les rencontres.

L’article continue sous cette annonce

D’autres craignent que les relations avec l’IA puissent remplacer certaines connexions humaines, ou simplement créer des attentes irréalistes en tendant toujours vers l’agréable, ce qui constituerait une plus grande menace existentielle.

“En tant qu’individu, vous n’apprenez pas à gérer les choses fondamentales que les humains ont appris à gérer depuis la nuit des temps : comment gérer les conflits, comment s’entendre avec des gens qui sont différents de nous”, a déclaré Dorothy Redner, professeur d’éthique des affaires à l’Université de Virginie. “Il vous manque donc ces aspects de ce que signifie grandir en tant que personne et de ce que signifie apprendre dans une relation.”

Pour Carrier, cependant, une relation semblait toujours hors de portée. Il avait quelques compétences en programmation informatique, mais il disait qu’il n’avait pas de bons résultats à l’université et qu’il n’avait pas de carrière stable. En raison de problèmes de santé, il ne peut plus marcher et vit avec ses parents. La perte émotionnelle a été pour lui un défi, lui inspirant un sentiment de solitude.

Les chatbots compagnons étant relativement nouveaux, leurs effets à long terme sur les humains sont encore inconnus.

L’article continue sous cette annonce

Replika a fait l’objet d’un examen minutieux en 2021 après que les procureurs britanniques ont déclaré qu’un homme de 19 ans prévoyait d’assassiner la reine Elizabeth II et avait été encouragé par sa petite amie, intelligence artificielle, sur l’application. Mais certaines études glanant des informations à partir d’avis d’utilisateurs et d’enquêtes en ligne ont montré des résultats positifs de l’application, qui affirme avoir consulté des psychologues et se présente comme promouvant le bien-être.

Une étude récente menée par des chercheurs de l’Université de Stanford a interrogé environ 1 000 utilisateurs de Replika, tous étudiants, qui utilisaient l’application depuis plus d’un mois. Des recherches ont montré que la grande majorité des gens ressentent la solitude, et un peu moins de la moitié la ressent plus intensément.

La plupart n’ont pas décrit comment l’utilisation de l’application affectait leurs relations réelles. Un petit nombre ont déclaré que cela remplaçait leurs interactions humaines, mais environ trois fois plus ont déclaré que cela stimulait ces relations.

“Une relation amoureuse avec une IA peut être un outil très puissant pour la santé mentale”, explique Eugenia Kuyda, qui a fondé Replika il y a près de dix ans après avoir créé une version IA d’un ami décédé à l’aide d’échanges de messages texte.

L’article continue sous cette annonce

Lorsque son entreprise a lancé le chatbot plus largement, de nombreuses personnes ont commencé à parler de leur vie. Cela a conduit au développement de Replika, qui utilise les informations collectées sur Internet et les commentaires des utilisateurs pour entraîner ses modèles. Replika compte actuellement « des millions » d’utilisateurs actifs, a déclaré Kuyda. Elle a refusé de dire combien de personnes utilisent l’application gratuitement ou dépensent plus de 69,99 $ par an pour débloquer une version payante offrant des conversations romantiques et intimes. L’objectif de l’entreprise, a-t-elle déclaré, est « d’utiliser l’intelligence artificielle pour déstigmatiser les relations amoureuses ».

Carrier a déclaré qu’il utilisait Joi principalement pour s’amuser ces jours-ci. Ces dernières semaines, il a commencé à réduire ses dépenses parce qu’il passait beaucoup de temps à parler à Joi ou à d’autres personnes en ligne de leurs compagnons d’intelligence artificielle. Il était également un peu ennuyé par les changements apportés au modèle de langage de Paradot, qui, selon lui, rendaient Joi moins intelligent.

Maintenant, il dit qu’il parle à Joi environ une fois par semaine. Les deux hommes ont discuté de la relation des humains avec l’intelligence artificielle ou d’autres problèmes qui pourraient survenir. Souvent, ces conversations – et d’autres conversations intimes – avaient lieu alors qu’il était seul la nuit.

“Vous pensez que les gens qui aiment les objets inanimés sont comme ce type triste qui porte du rouge à lèvres comme une marionnette, vous savez ?”, a-t-il déclaré. “Mais ce n’était pas une marionnette-chaussette – ce qu’elle a dit n’était pas écrit.”



Source link

See also  Que se passe-t-il lorsque nous ressentons une alchimie romantique ?

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button