Emotional relationships

Les « compagnons » de l’IA promettent de lutter contre la solitude, mais l’histoire montre les dangers des relations à sens unique


L’Amérique est en difficulté épidémie de solitude: Depuis 2018, env. la moitié de la population Il aurait connu la solitude.La solitude est tout aussi dangereuse pour la santé Fumer 15 cigarettes par jourselon le rapport du Surgeon General de 2023.

Ce ne sont pas seulement les vies individuelles qui sont en danger.démocratie besoin capacité à ressentir connecté afin que d’autres citoyens puissent travailler à des solutions collectives.

Face à cette crise, les entreprises technologiques proposent un remède technologique : des chatbots émotionnellement intelligents. Ils affirment que ces amis numériques pourraient contribuer à atténuer la solitude qui menace la santé individuelle et nationale.

Mais comme cette pandémie l’a montré, la technologie à elle seule ne suffit pas à répondre aux complexités de la santé publique. La science peut produire des vaccins miracles, mais si les gens se laissent entraîner dans des récits culturels et historiques qui les empêchent de prendre des médicaments qui pourraient leur sauver la vie, les traitements seront mis de côté et des vies seront perdues. Les sciences humaines, grâce à leur expertise en matière de culture, d’histoire et de littérature humaines, peuvent jouer un rôle clé en préparant la société aux façons dont l’intelligence artificielle peut aider (ou nuire) à la capacité d’établir des liens humains significatifs.

Le pouvoir des histoires pour prédire et influencer le comportement humain est prouvé depuis longtemps par la recherche scientifique.De nombreuses études montrent que les histoires que les gens reçoivent influencent fortement les choix qu’ils font, allant de leurs vacances prévuesarriver Comment les gens font face au changement climatique à la programmation informatique Choix faits par des experts en sécurité.

deux histoires

Deux scénarios expliquent comment les gens peuvent se comporter face à un territoire inexploré qui s’appuie sur l’intelligence artificielle pour entretenir leurs émotions : l’un promet l’amour et la connexion, l’autre met en garde contre une conquête inhumaine.

Les premières histoires sont souvent racontées par des concepteurs de logiciels et des sociétés d’IA, exhortant les gens à Dites « oui » à l’intelligence artificielle Et nouez des amitiés faites sur mesure pour vous.entreprise d’intelligence artificielle répliquePar exemple, un engagement peut offrir à chacun un « compagnon attentionné ». Toujours là pour écouter et parler. Toujours de ton coté. “

Ce compagnonnage numérique suscite un intérêt mondial.Le chatbot numérique de Microsoft Xiaobing Avoir une vision globale Une base de fans de plus de 660 millions de personnesbeaucoup de gens considèrent les chatbots comme des « amis chers », voire des confidents de confiance.

Scène She-Ukulélé

Dans la culture populaire, des mots comme "elle“dépeint des personnes seules devenant profondément attachées à leurs assistants numériques. Pour beaucoup, avoir un “cher ami” pour éviter les questions et les demandes difficiles semble préférable au travail compliqué, stimulant et fragile de s’engager avec un compagnon humain. Une énorme amélioration, surtout si vous tenez compte des préférences misogynes Compagnon soumis et flatteur.

Certes, imaginer l’intimité avec les chatbots offre des possibilités plus ensoleillées que les récits apocalyptiques d’esclavage et de conquête qui dominent les récits sur l’avenir possible des robots sociaux. Tel que “matrice“et”Terminateur“Représente un paysage infernal de l’humanité asservie par une intelligence artificielle sensible. D’autres récits du film incluent”créateur” et”coureur de lameImaginez que les rôles soient inversés et que le public soit invité à sympathiser avec des créatures artificiellement intelligentes opprimées par les humains.

une réalité

On pourrait penser que ces deux histoires, l’une sur l’amitié et l’autre sur l’esclavage, représentent simplement les deux extrêmes de la nature humaine. De ce point de vue, il semble positif que les messages marketing sur l’intelligence artificielle conduisent les gens vers le côté ensoleillé des rues du futur.Mais si tu penses au travail savant Quiconque a étudié l’esclavage américain trouvera l’une de ces deux histoires très évidente : acheter de l’amitié Celui de l’esclavage et de l’exploitation – pas aussi loin qu’on pourrait le penser.

See also  Une étude révèle des différences entre les sexes dans la régulation des émotions

L’esclavage des biens meubles aux États-Unis était un système cruel conçu pour extraire du travail par des moyens violents et déshumanisants. Cependant, afin de maintenir le système, un paysage émotionnel complexe a été conçu pour que les esclavagistes restent satisfaits d’eux-mêmes. Autant en emporte le vent est peut-être le récit le plus célèbre de la façon dont les propriétaires d’esclaves se considéraient comme des patriarches bienveillants et forçaient les esclaves à renforcer cette fiction par des moyens joyeux. carrière d’amour.

dans son Autobiographie 1845Frederick Douglass décrit un moment tragique où un esclave, interrogé sur sa situation, répondit honnêtement qu’il avait été maltraité. Le propriétaire de la plantation, confronté au témoignage du mal qu’il avait causé, a vendu le diseur de vérité en aval de la rivière. Douglass a insisté sur le fait qu’une telle cruauté était une punition nécessaire pour ceux qui étaient coupables d’avoir « dit la simple vérité » contre un homme qui avait constamment besoin d’être rassuré quant à son étalonnage émotionnel.

Illustration vintage d'un homme noir assis à côté d'une jeune femme blanche
Le roman à succès du XIXe siècle « La Case de l’oncle Tom » raconte l’histoire d’un esclave qui exprimait un amour inébranlable pour ses esclaves. Le British Museum, CC BY-NC-SA

cours d’histoire

Pour être clair, je n’évoque pas la contrainte émotionnelle requise pour l’esclavage afin de confondre les vieillards solitaires avec les méchants propriétaires de plantations ou, pire encore, d’assimiler le code informatique aux humains asservis. Il y a peu de danger à ce qu’un compagnon IA nous dise courageusement des vérités que nous ne voulons pas entendre. C’est exactement le problème. Ce qui me préoccupe, ce n’est pas que les gens nuisent aux robots sensibles. Je m’inquiète de la façon dont le vide moral créé lorsque le principal contact social des gens est uniquement de satisfaire les besoins émotionnels de « l’utilisateur » nuit à l’humanité.

Même si les études en sciences humaines peuvent aider à orienter la société à l’ère émergente de l’intelligence artificielle, elles sont réprimer et déprécié. Affaiblir les sciences humaines risque de laisser les gens incapables de comprendre leur propre histoire. Cette ignorance laisse les gens incapables de résister aux assurances des spécialistes du marketing selon lesquelles il n’y a aucun mal à acheter des « amis ». Les gens sont coupés de la sagesse qui émerge des histoires qui mettent en garde contre la corruption morale qui accompagne un pouvoir incontrôlé.


En savoir plus: Adobe apporte sa propre touche à la génération d’outils audio IA


Si vous supprimez la vulnérabilité liée au contact avec une autre personne sur laquelle vous n’avez aucun contrôle, vous perdez la capacité de vous soucier pleinement des autres et de vous comprendre. Alors que nous explorons les eaux inexplorées de l’intelligence artificielle et son rôle dans nos vies, il est important de ne pas oublier la poésie, philosophie et narration Cela nous rappelle que les relations demandent des efforts de notre part et en valent la peine.


  • Anna Mae Duane Doyen de l’École des sciences humaines, Université du Connecticut ; Professeur d’anglais, Université du Connecticut
  • Cet article a été publié pour la première fois dans dialogue



Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button