Les limites du texte généré par l’IA

la messagerie texte

Crédit : Pixabay/CC0 domaine public

L’intelligence artificielle a atteint un point où elle peut composer un texte qui semble si humain qu’elle dupe la plupart des gens en leur faisant croire qu’il a été écrit par une autre personne. Ces programmes d’IA, basés sur ce que l’on appelle des modèles autorégressifs, sont utilisés avec succès pour créer et diffuser délibérément tout, des fausses nouvelles politiques aux articles de blog écrits par l’IA qui semblent authentiques pour la personne moyenne et sont publiés sous une signature à consonance humaine.

Cependant, bien que les modèles autorégressifs puissent tromper avec succès la plupart des humains, leurs capacités seront toujours limitées, selon les recherches de Chu-Cheng Lin, un doctorat. candidat au département d’informatique de la Whiting School of Engineering.

“Notre travail révèle que certaines qualités d’intelligence souhaitées, par exemple la capacité de former des arguments cohérents sans erreurs, n’apparaîtront jamais avec un modèle autorégressif de taille raisonnable et raisonnablement rapide”, a déclaré Lin, membre du Center for Language and Speech Processing. .

Les recherches de Lin ont montré que les modèles autorégressifs ont un processus de pensée linéaire qui ne peut pas utiliser le raisonnement car ils sont conçus pour prédire très rapidement le mot suivant en utilisant les mots précédents. C’est un problème car les modèles ne sont pas conçus pour revenir en arrière, éditer ou changer leur travail, comme le font les humains lorsqu’ils écrivent quelque chose.

“[Human] des professionnels dans tous les domaines le font. Le produit final peut afficher un travail impeccable, mais il est également probable que le travail n’a pas été effectué en un seul passage, sans édition ici et là “, a déclaré Lin. ” Mais lorsque nous formons ces [AI] modèles en leur faisant imiter l’écriture humaine, les modèles n’observent pas les multiples réécritures qui se sont produites avant la version finale.”

L’équipe de Lin a également montré que les modèles autorégressifs actuels ont une autre faiblesse : ils ne donnent pas à l’ordinateur suffisamment de temps pour « réfléchir » à ce qu’il doit dire après le mot suivant, il n’y a donc aucune garantie que ce qu’il dit ne sera pas un non-sens.

« Les modèles autorégressifs se sont révélés très utiles dans certains scénarios, mais ce ne sont pas des modèles de calcul appropriés pour le raisonnement. Je trouve également intéressant que nos résultats suggèrent que certains éléments d’intelligence n’émergent pas si tout ce que nous faisons est d’essayer d’obtenir des machines les humains parlent », a-t-il déclaré.

Le résultat est que plus les modèles autorégressifs produisent de texte, plus leurs erreurs deviennent évidentes, exposant le texte au risque d’être signalé ou remarqué par un autre programme informatique encore moins avancé qui nécessite moins de ressources pour distinguer efficacement ce qui a été écrit. par un modèle autorégressif, et ce qui a été écrit par un humain.

Parce que les programmes informatiques peuvent déchiffrer ce qui a été écrit par un modèle autorégressif et ce qui a été écrit par un humain, Lin pense que les avantages d’avoir une IA qui peut utiliser le raisonnement l’emportent de loin sur les négatifs, même si un négatif pourrait être la propagation de la désinformation. Il dit qu’un processus appelé “résumé de texte” fournit un exemple de la façon dont une IA capable d’utiliser le raisonnement serait utile.

“Ces tâches demandent à un ordinateur de lire un long article ou un tableau contenant des chiffres et des textes, puis l’ordinateur peut expliquer ce qui se passe en quelques phrases. Par exemple, résumer un article de presse ou les notes d’un restaurant sur Yelp, en utilisant quelques phrases », a déclaré Lin. « Les modèles capables de raisonner peuvent générer des textes plus précis et plus précis sur le plan factuel. »

Lin travaille sur cette recherche, qui fait partie de sa thèse, depuis plusieurs années avec son conseiller, le professeur Jason Eisner. Il espère utiliser ces résultats pour aider à concevoir une architecture de réseau neuronal pour sa thèse de recherche intitulée « Expressions régulières neuronales pour aider l’IA à mieux comprendre le sens des mots ».

“Parmi beaucoup de choses, les NRE peuvent être utilisés pour construire un système de dialogue où les machines peuvent déduire des choses non observées, telles que l’intention, de la conversation avec les humains, en utilisant un ensemble de règles prédéfinies par les humains. Ces choses non observées peuvent ensuite être utilisées pour façonner la réponse de la machine “, a déclaré Lin.


L’intelligence artificielle met en lumière la façon dont le cerveau traite le langage


Fourni par l’Université Johns Hopkins

Citation: Les limitations du texte généré par l’IA (2021, 23 novembre) récupéré le 23 novembre 2021 à partir de https://techxplore.com/news/2021-11-limitations-ai-generated-text.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.