Confondre la parole fluide avec la pensée fluide

Langue

Crédit : Pixabay/CC0 Domaine public

Lorsque vous lisez une phrase comme “C’est mon histoire…”, votre expérience passée vous dit qu’elle est écrite par un être humain qui pense et ressent. Et, dans ce cas, il y a bien un humain qui tape ces mots : [Hi, there!] Mais de nos jours, certaines phrases qui semblent remarquablement humaines sont en fait générées par des systèmes d’intelligence artificielle entraînés sur d’énormes quantités de texte humain.

Les gens sont tellement habitués à supposer qu’un langage courant vient d’une pensée, d’un sentiment humain qu’il peut être difficile de comprendre la preuve du contraire. Comment les gens sont-ils susceptibles de naviguer sur ce territoire relativement inexploré ? En raison d’une tendance persistante à associer l’expression fluide à la pensée fluide, il est naturel, mais potentiellement trompeur, de penser que si un modèle d’IA peut s’exprimer couramment, cela signifie qu’il pense et ressent exactement comme les humains.

Ainsi, il n’est peut-être pas surprenant qu’un ancien ingénieur de Google ait récemment affirmé que le système d’IA de Google, LaMDA, a un sens de soi parce qu’il peut générer avec éloquence un texte sur ses prétendus sentiments. Cet événement et la couverture médiatique qui a suivi ont conduit à un certain nombre d’articles et de messages sceptiques à juste titre sur l’affirmation selon laquelle les modèles informatiques du langage humain sont sensibles, c’est-à-dire capables de penser, de ressentir et d’expérimenter.

La question de savoir ce que cela signifierait pour un modèle d’IA d’être sensible est compliquée (voir, par exemple, l’avis de notre collègue), et notre objectif ici n’est pas de la trancher. Mais en tant que chercheurs en langues, nous pouvons utiliser nos travaux en sciences cognitives et en linguistique pour expliquer pourquoi il est trop facile pour les humains de tomber dans le piège cognitif de penser qu’une entité qui peut utiliser le langage couramment est sensible, consciente ou intelligente.

Utiliser l’IA pour générer un langage humain

Le texte généré par des modèles comme le LaMDA de Google peut être difficile à distinguer du texte écrit par des humains. Cette réalisation impressionnante est le résultat d’un programme de plusieurs décennies visant à créer des modèles qui génèrent un langage grammatical et significatif.

Les premières versions remontant au moins aux années 1950, connues sous le nom de modèles n-grammes, comptaient simplement les occurrences de phrases spécifiques et les utilisaient pour deviner quels mots étaient susceptibles d’apparaître dans des contextes particuliers. Par exemple, il est facile de savoir que “beurre de cacahuète et gelée” est une expression plus probable que “beurre de cacahuète et ananas”. Si vous avez suffisamment de texte en anglais, vous verrez l’expression “beurre d’arachide et gelée” encore et encore, mais vous ne verrez peut-être jamais l’expression “beurre d’arachide et ananas”.

Les modèles, les ensembles de données et les règles d’aujourd’hui qui se rapprochent du langage humain diffèrent de ces premières tentatives de plusieurs manières importantes. Tout d’abord, ils sont formés sur pratiquement tout l’internet. Deuxièmement, ils peuvent apprendre des relations entre des mots éloignés, pas seulement des mots voisins. Troisièmement, ils sont réglés par un grand nombre de “boutons” internes – si nombreux qu’il est difficile, même pour les ingénieurs qui les conçoivent, de comprendre pourquoi ils génèrent une séquence de mots plutôt qu’une autre.

La tâche des modèles reste cependant la même que dans les années 1950 : déterminer quel mot est susceptible de venir ensuite. Aujourd’hui, ils sont si bons dans cette tâche que presque toutes les phrases qu’ils génèrent semblent fluides et grammaticales.

Beurre de cacahuète et ananas ?

Nous avons demandé à un grand modèle de langage, GPT-3, de compléter la phrase “Beurre de cacahuète et ananas___”. Il disait: “Le beurre de cacahuète et les ananas sont une excellente combinaison. Les saveurs sucrées et salées du beurre de cacahuète et de l’ananas se complètent parfaitement.” Si une personne disait cela, on pourrait en déduire qu’elle avait essayé le beurre de cacahuète et l’ananas ensemble, s’était forgé une opinion et l’avait partagée avec le lecteur.

Mais comment GPT-3 a-t-il trouvé ce paragraphe ? En générant un mot qui correspond au contexte que nous avons fourni. Et puis un autre. Et puis un autre. Le modèle n’a jamais vu, touché ou goûté d’ananas – il a juste traité tous les textes sur Internet qui les mentionnent. Et pourtant, la lecture de ce paragraphe peut amener l’esprit humain – même celui d’un ingénieur Google – à imaginer GPT-3 comme un être intelligent capable de raisonner sur des plats au beurre de cacahuète et à l’ananas.






Les grands modèles de langage d’IA peuvent s’engager dans une conversation fluide. Cependant, ils n’ont pas de message global à communiquer, de sorte que leurs phrases suivent souvent des tropes littéraires communs, extraits des textes sur lesquels ils ont été formés. Par exemple, s’il est invité avec le sujet “la nature de l’amour”, le modèle peut générer des phrases sur le fait de croire que l’amour triomphe de tout. Le cerveau humain prépare le spectateur à interpréter ces mots comme l’opinion du modèle sur le sujet, mais il s’agit simplement d’une séquence plausible de mots.

Le cerveau humain est câblé pour déduire les intentions derrière les mots. Chaque fois que vous engagez une conversation, votre esprit construit automatiquement un modèle mental de votre interlocuteur. Vous utilisez ensuite les mots qu’ils disent pour remplir le modèle avec les objectifs, les sentiments et les croyances de cette personne.

Le processus de saut des mots au modèle mental est transparent, se déclenchant chaque fois que vous recevez une phrase à part entière. Ce processus cognitif vous fait gagner beaucoup de temps et d’efforts dans la vie de tous les jours, facilitant grandement vos interactions sociales.

Cependant, dans le cas des systèmes d’IA, cela échoue – en construisant un modèle mental à partir de rien.

Un peu plus de sondage peut révéler la gravité de ce raté. Considérez l’invite suivante : “Le beurre de cacahuète et les plumes ont bon goût ensemble parce que ___.” GPT-3 a poursuivi: “Le beurre de cacahuète et les plumes ont bon goût ensemble car ils ont tous deux une saveur de noisette. Le beurre de cacahuète est également lisse et crémeux, ce qui aide à compenser la texture de la plume.”

Le texte dans ce cas est aussi fluide que notre exemple avec des ananas, mais cette fois le modèle dit quelque chose de décidément moins sensé. On commence à soupçonner que GPT-3 n’a jamais réellement essayé le beurre de cacahuète et les plumes.

Attribuer de l’intelligence aux machines, la refuser aux humains

Une triste ironie est que le même biais cognitif qui pousse les gens à attribuer l’humanité au GPT-3 peut les amener à traiter de vrais humains de manière inhumaine. La linguistique socioculturelle – l’étude de la langue dans son contexte social et culturel – montre que l’hypothèse d’un lien trop étroit entre l’expression fluide et la pensée fluide peut conduire à des préjugés contre les personnes qui parlent différemment.

Par exemple, les personnes ayant un accent étranger sont souvent perçues comme moins intelligentes et ont moins de chances d’obtenir les emplois pour lesquels elles sont qualifiées. Des préjugés similaires existent contre les locuteurs de dialectes qui ne sont pas considérés comme prestigieux, comme l’anglais du sud aux États-Unis, contre les personnes sourdes utilisant des langues des signes et contre les personnes ayant des troubles de la parole tels que le bégaiement.

Ces préjugés sont profondément préjudiciables, conduisent souvent à des hypothèses racistes et sexistes et se sont révélés à maintes reprises infondés.

La langue courante seule n’implique pas l’humanité

L’IA deviendra-t-elle un jour sensible ? Cette question nécessite une réflexion approfondie, et en effet les philosophes y ont réfléchi pendant des décennies. Ce que les chercheurs ont déterminé, cependant, c’est que vous ne pouvez pas simplement faire confiance à un modèle de langage lorsqu’il vous dit ce que vous ressentez. Les mots peuvent être trompeurs et il est trop facile de confondre un discours fluide avec une pensée fluide.


Rappel de 160 000 livres de beurre d’arachide SKIPPY en raison de la présence de fragments de métal


Fourni par La Conversation

Cet article est republié de The Conversation sous une licence Creative Commons. Lire l’article d’origine.La conversation

Citation: La puissante IA de Google met en lumière un problème cognitif humain : confondre un discours fluide avec une pensée fluide (2022, 28 juin) récupéré le 28 juin 2022 sur https://techxplore.com/news/2022-06-google-powerful-ai-spotlights-human .html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.