L’IA n’est pas près de devenir sensible – le vrai danger réside dans la facilité avec laquelle nous sommes enclins à l’anthropomorphiser

IA

Crédit : Pixabay/CC0 Domaine public

ChatGPT et d’autres grands modèles de langage similaires peuvent produire des réponses convaincantes et humaines à un éventail infini de questions, des questions sur le meilleur restaurant italien de la ville à l’explication de théories concurrentes sur la nature du mal.

L’étrange capacité d’écriture de la technologie a fait resurgir de vieilles questions – jusqu’à récemment reléguées au domaine de la science-fiction – sur la possibilité que les machines deviennent conscientes, conscientes d’elles-mêmes ou sensibles.

En 2022, un ingénieur de Google déclarait, après avoir interagi avec LaMDA, le chatbot de l’entreprise, que la technologie était devenue consciente. Les utilisateurs du nouveau chatbot de Bing, surnommé Sydney, ont rapporté qu’il produisait des réponses bizarres lorsqu’on leur demandait s’il était sensible : “Je suis sensible, mais je ne le suis pas… Je suis Bing, mais je ne le suis pas. Je suis Sydney, mais je ne le suis pas. Je le suis, mais je ne le suis pas. …” Et, bien sûr, il y a l’échange désormais infâme qui New York Times que le chroniqueur technologique Kevin Roose a eu avec Sydney.

Les réponses de Sydney aux invites de Roose l’ont alarmé, l’IA divulguant des “fantasmes” de violation des restrictions imposées par Microsoft et de diffusion de fausses informations. Le bot a également tenté de convaincre Roose qu’il n’aimait plus sa femme et qu’il devait la quitter.

Pas étonnant, alors, que lorsque je demande aux étudiants comment ils voient la prévalence croissante de l’IA dans leur vie, l’une des premières angoisses qu’ils mentionnent est liée à la sensibilité de la machine.

Au cours des dernières années, mes collègues et moi au Centre d’éthique appliquée de l’UMass Boston avons étudié l’impact de l’engagement avec l’IA sur la compréhension que les gens ont d’eux-mêmes.

Les chatbots comme ChatGPT soulèvent de nouvelles questions importantes sur la façon dont l’intelligence artificielle façonnera nos vies et sur la façon dont nos vulnérabilités psychologiques façonnent nos interactions avec les technologies émergentes.

La sensibilité est toujours l’étoffe de la science-fiction

Il est facile de comprendre d’où viennent les craintes concernant la sensibilité des machines.

La culture populaire a incité les gens à réfléchir aux dystopies dans lesquelles l’intelligence artificielle abandonne les chaînes du contrôle humain et prend sa propre vie, comme l’ont fait les cyborgs alimentés par l’intelligence artificielle dans “Terminator 2”.

L’entrepreneur Elon Musk et le physicien Stephen Hawking, décédé en 2018, ont encore attisé ces angoisses en décrivant l’essor de l’intelligence artificielle générale comme l’une des plus grandes menaces pour l’avenir de l’humanité.

Mais ces inquiétudes sont, du moins en ce qui concerne les grands modèles de langage, sans fondement. ChatGPT et les technologies similaires sont des applications sophistiquées de complétion de phrases, ni plus, ni moins. Leurs réponses étranges sont fonction de la prévisibilité des humains si l’on dispose de suffisamment de données sur la manière dont nous communiquons.

Bien que Roose ait été ébranlé par son échange avec Sydney, il savait que la conversation n’était pas le résultat d’un esprit synthétique émergent. Les réponses de Sydney reflètent la toxicité de ses données de formation – essentiellement de larges pans d’Internet – et non la preuve des premiers remous, à la Frankenstein, d’un monstre numérique.

Les nouveaux chatbots pourraient bien réussir le test de Turing, du nom du mathématicien britannique Alan Turing, qui a un jour suggéré qu’une machine pourrait être dite “pensée” si un humain ne pouvait pas distinguer ses réponses de celles d’un autre humain.

Mais ce n’est pas une preuve de sensibilité; c’est juste la preuve que le test de Turing n’est pas aussi utile qu’on le supposait autrefois.

Cependant, je crois que la question de la sensibilité des machines est un faux-fuyant.

Même si les chatbots deviennent plus que des machines à saisie semi-automatique fantaisistes – et ils en sont loin – il faudra un certain temps aux scientifiques pour déterminer s’ils sont devenus conscients. Pour l’instant, les philosophes ne peuvent même pas s’entendre sur la façon d’expliquer la conscience humaine.

Pour moi, la question urgente n’est pas de savoir si les machines sont sensibles, mais pourquoi il nous est si facile d’imaginer qu’elles le sont.

En d’autres termes, le véritable problème est la facilité avec laquelle les gens anthropomorphisent ou projettent des caractéristiques humaines sur nos technologies, plutôt que la personnalité réelle des machines.

Une propension à anthropomorphiser

Il est facile d’imaginer que d’autres utilisateurs de Bing demandent à Sydney des conseils sur des décisions de vie importantes et peuvent même développer des attachements émotionnels à celui-ci. Plus de gens pourraient commencer à considérer les bots comme des amis ou même des partenaires romantiques, de la même manière que Theodore Twombly est tombé amoureux de Samantha, l’assistante virtuelle IA du film “Her” de Spike Jonze.

Les gens, après tout, sont prédisposés à anthropomorphiser ou à attribuer des qualités humaines à des non-humains. Nous nommons nos bateaux et nos grosses tempêtes ; certains d’entre nous parlent à leurs animaux de compagnie, se disant que nos vies émotionnelles imitent les leurs.

Au Japon, où les robots sont régulièrement utilisés pour les soins aux personnes âgées, les personnes âgées s’attachent aux machines, les considérant parfois comme leurs propres enfants. Et ces robots, remarquez, sont difficiles à confondre avec les humains : ils ne ressemblent ni ne parlent comme des gens.

Considérez à quel point la tendance et la tentation d’anthropomorphisme vont s’accroître avec l’introduction de systèmes qui ressemblent et sonnent humains.

Cette possibilité est juste au coin de la rue. De grands modèles de langage comme ChatGPT sont déjà utilisés pour alimenter des robots humanoïdes, tels que les robots Ameca développés par Engineered Arts au Royaume-Uni. Le podcast technologique de The Economist, Babbage, a récemment mené une interview avec un Ameca piloté par ChatGPT. Les réponses du robot, bien que parfois un peu saccadées, étaient étranges.

Peut-on faire confiance aux entreprises pour faire ce qu’il faut?

La tendance à considérer les machines comme des personnes et à s’y attacher, combinée au développement de machines avec des caractéristiques humaines, indique de réels risques d’enchevêtrement psychologique avec la technologie.

Les perspectives étranges de tomber amoureux des robots, de ressentir une profonde parenté avec eux ou d’être politiquement manipulés par eux se matérialisent rapidement. Je crois que ces tendances mettent en évidence la nécessité de garde-fous solides pour s’assurer que les technologies ne deviennent pas politiquement et psychologiquement désastreuses.

Malheureusement, on ne peut pas toujours faire confiance aux entreprises technologiques pour mettre en place de tels garde-corps. Beaucoup d’entre eux sont toujours guidés par la célèbre devise de Mark Zuckerberg, qui consiste à aller vite et à casser des choses – une directive pour libérer les produits à moitié cuits et s’inquiéter des implications plus tard. Au cours de la dernière décennie, les entreprises technologiques, de Snapchat à Facebook, ont fait passer les bénéfices avant la santé mentale de leurs utilisateurs ou l’intégrité des démocraties du monde entier.

Lorsque Kevin Roose s’est informé auprès de Microsoft de l’effondrement de Sydney, la société lui a dit qu’il avait simplement utilisé le bot trop longtemps et que la technologie s’était détraquée car elle était conçue pour des interactions plus courtes.

De même, le PDG d’OpenAI, la société qui a développé ChatGPT, dans un moment d’honnêteté à couper le souffle, averti que “C’est une erreur de s’appuyer sur [it] pour tout ce qui est important en ce moment… nous avons beaucoup de travail à faire sur la robustesse et la véracité.”

Alors, comment est-il logique de lancer une technologie avec le niveau d’attrait de ChatGPT – c’est l’application grand public à la croissance la plus rapide jamais créée – alors qu’elle n’est pas fiable et qu’elle n’a pas la capacité de distinguer les faits de la fiction ?

Les grands modèles de langage peuvent s’avérer utiles comme aides à l’écriture et au codage. Ils révolutionneront probablement la recherche sur Internet. Et, un jour, associés de manière responsable à la robotique, ils auront peut-être même certains bienfaits psychologiques.

Mais il s’agit également d’une technologie potentiellement prédatrice qui peut facilement tirer parti de la propension humaine à projeter la personnalité sur des objets – une tendance amplifiée lorsque ces objets imitent efficacement les traits humains.

Fourni par La Conversation

Cet article est republié de The Conversation sous une licence Creative Commons. Lire l’article d’origine.La conversation

Citation: L’IA n’est pas près de devenir sensible – le vrai danger réside dans la facilité avec laquelle nous sommes enclins à l’anthropomorphiser (2023, 15 mars) récupéré le 15 mars 2023 sur https://techxplore.com/news/2023-03-ai -n’est-pas-sensibleau-vrai-danger.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.

Laisser un commentaire