Emotional relationships

Une solution à la solitude ou une relation à sens unique ?


Les États-Unis sont au milieu d’une épidémie de solitude : depuis 2018, environ la moitié de la population a déclaré souffrir de solitude. Selon un rapport du Surgeon General de 2023, la solitude est aussi nocive pour la santé que fumer 15 cigarettes par jour.

Ce ne sont pas seulement les vies individuelles qui sont en danger. La démocratie nécessite la capacité de se sentir connecté aux autres citoyens afin de travailler à des solutions collectives.

Face à cette crise, les entreprises technologiques proposent un traitement technique: Un chatbot à haute intelligence émotionnelle. Ils affirment que ces amis numériques pourraient contribuer à atténuer la solitude qui menace la santé individuelle et nationale.

Mais comme cette pandémie l’a montré, la technologie à elle seule ne suffit pas à répondre aux complexités de la santé publique. La science peut produire des vaccins miracles, mais si les gens se laissent entraîner dans des récits culturels et historiques qui les empêchent de prendre des médicaments qui pourraient leur sauver la vie, les traitements seront mis de côté et des vies seront perdues. Les sciences humaines peuvent jouer un rôle clé dans le développement humain grâce à leur expertise en matière de culture humaine, d’histoire et de littérature. Préparer La société s’inquiète de la manière dont l’intelligence artificielle peut aider (ou nuire) à la capacité d’entretenir des relations significatives.

Le pouvoir des histoires pour prédire et influencer le comportement humain est prouvé depuis longtemps par la recherche scientifique. De nombreuses études ont montré que les histoires que les gens reçoivent influencent largement les choix qu’ils font, depuis les vacances qu’ils planifient jusqu’à la façon dont les gens réagissent au changement climatique, en passant par les choix de programmation informatique que font les experts en sécurité.

deux histoires

Deux scénarios expliquent comment les gens peuvent se comporter face à un territoire inexploré qui s’appuie sur l’intelligence artificielle pour entretenir leurs émotions : l’un promet l’amour et la connexion, l’autre met en garde contre une conquête inhumaine.

La première histoire, souvent racontée par les concepteurs de logiciels et les sociétés d’IA, incite les gens à dire « oui » à une IA et à nouer une amitié personnalisée pour vous. Par exemple, la société d’intelligence artificielle Replika promet de pouvoir offrir à chacun un « compagnon attentionné ». Toujours là pour écouter et parler. Toujours de ton coté. “

Ce compagnonnage numérique suscite un intérêt mondial. Le chatbot numérique de Microsoft, XiaoIce, compte plus de 660 millions de fans dans le monde, dont beaucoup considèrent le chatbot comme un « ami cher », voire un confident de confiance.

Dans la culture pop, des films comme Her dépeignent des personnes seules profondément attachées à leurs assistants numériques. Pour beaucoup de gens, avoir un « ami cher » qui peut éviter les questions et exigences difficiles semble être une énorme amélioration par rapport au travail désordonné, stimulant et vulnérable d’être avec un partenaire humain, surtout si l’on prend en compte le besoin de soumis, le mots préférés misogynes d’un partenaire complaisant.

Bien sûr, imaginez une personne proche relation Les chatbots offrent des possibilités plus ensoleillées que les récits apocalyptiques d’esclavage et de conquête qui dominent les récits sur l’avenir possible des robots sociaux. Des superproductions telles que “The Matrix” et “The Terminator” dépeignent un paysage infernal de l’humanité asservie par une intelligence artificielle sensible. D’autres récits dans des films comme “The Creator” et “Blade Runner” imaginent des inversions de rôles et invitent le public à sympathiser avec des êtres artificiellement intelligents opprimés par les humains.

See also  Exemples, causes, effets et contre-mesures

une réalité

Vous pourriez penser que l’une de ces deux histoires est compréhensible amitiéL’autre aspect de l’esclavage représente simplement les deux extrêmes de la nature humaine. De ce point de vue, il semble positif que les messages marketing sur l’intelligence artificielle conduisent les gens vers le côté ensoleillé des rues du futur. Mais si vous examinez les travaux des chercheurs qui ont étudié l’esclavage américain, vous constaterez que ces deux histoires – celle d’une amitié achetée et celle de l’esclavage et de l’exploitation – ne sont pas aussi éloignées qu’on pourrait le penser.

L’esclavage des biens meubles aux États-Unis était un système cruel conçu pour extraire du travail par des moyens violents et déshumanisants. Cependant, afin de maintenir le système, un paysage émotionnel complexe a été conçu pour que les esclavagistes restent satisfaits d’eux-mêmes. Autant en emporte le vent est peut-être la représentation la plus célèbre de la façon dont les propriétaires d’esclaves se considéraient comme des patriarches bienveillants et forçaient les esclaves à renforcer cette fiction avec de joyeuses professions d’amour.

Dans son autobiographie de 1845, Frederick Douglass décrit un moment tragique où un esclave, interrogé sur sa situation, répondit honnêtement qu’il avait été maltraité. Le propriétaire de la plantation, confronté au témoignage du mal qu’il avait causé, a vendu le diseur de vérité en aval de la rivière. Douglass a insisté sur le fait qu’une telle cruauté était une punition nécessaire pour ceux qui étaient coupables d’avoir « dit la simple vérité » contre un homme qui avait constamment besoin d’être rassuré quant à son étalonnage émotionnel.

Le roman à succès du XIXe siècle « La Case de l'oncle Tom » raconte l'histoire d'un esclave qui exprimait un amour inébranlable pour ses esclaves. Musée britannique, CC BY-NC-SA
Le roman à succès du XIXe siècle « La Case de l’oncle Tom » raconte l’histoire d’un esclave qui exprimait un amour inébranlable pour ses esclaves. Le British Museum, CC BY-NC-SA

cours d’histoire

Pour être clair, je n’évoque pas la contrainte émotionnelle requise pour l’esclavage afin de confondre les vieillards solitaires avec les méchants propriétaires de plantations ou, pire encore, d’assimiler le code informatique aux humains asservis. Il y a peu de danger à ce qu’un compagnon IA nous dise courageusement des vérités que nous ne voulons pas entendre. C’est exactement le problème. Ce qui me préoccupe, ce n’est pas que les gens nuisent aux robots sensibles. Je m’inquiète de la façon dont le vide moral créé lorsque le principal contact social des gens est uniquement de satisfaire les besoins émotionnels de « l’utilisateur » nuit à l’humanité.

À une époque où les études en sciences humaines peuvent aider à guider la société dans l’ère émergente de l’intelligence artificielle, elles sont supprimées et dévalorisées. Affaiblir les sciences humaines risque de laisser les gens incapables de comprendre leur propre histoire. Cette ignorance laisse les gens incapables de résister aux assurances des spécialistes du marketing selon lesquelles il n’y a aucun mal à acheter des « amis ». Les gens sont coupés de la sagesse qui émerge des histoires qui mettent en garde contre la corruption morale qui accompagne un pouvoir incontrôlé.

si tu te débarrasses de toi vulnérabilité Lorsque vous entrez en contact avec une autre personne dont vous n’avez aucun contrôle sur la réaction, vous perdez la capacité de vous soucier pleinement des autres et de vous comprendre. Alors que nous explorons les eaux inexplorées de l’intelligence artificielle et son rôle dans nos vies, il est important de ne pas oublier la poésie, la philosophie et la narration qui nous rappellent que la connexion humaine demande un certain effort de notre part et en vaut la peine.

Cet article a été publié pour la première fois dans ce dialogue Auteur : Anna Mae Duane, doyenne de la faculté des sciences humaines de l’université du Connecticut ; professeur d’anglais à l’université du Connecticut.dialogue



Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button