Il n’est (pas) vivant ! Google row expose des problèmes d’IA

Google est au centre d'une récente querelle sur l'intelligence artificielle

Google est au centre d’une récente querelle sur l’intelligence artificielle.

Une lutte interne pour savoir si Google a construit une technologie avec une conscience humaine s’est répandue au grand jour, exposant les ambitions et les risques inhérents à l’intelligence artificielle qui peuvent sembler trop réels.

Le géant de la Silicon Valley a suspendu l’un de ses ingénieurs la semaine dernière qui a fait valoir que le système d’IA de l’entreprise, LaMDA, semblait “sensible”, une affirmation avec laquelle Google est officiellement en désaccord.

Plusieurs experts ont déclaré à l’AFP qu’ils étaient également très sceptiques quant à l’affirmation de la conscience, mais ont déclaré que la nature humaine et l’ambition pourraient facilement semer la confusion.

“Le problème est que … lorsque nous rencontrons des chaînes de mots qui appartiennent aux langues que nous parlons, nous leur donnons un sens”, a déclaré Emily M. Bender, professeur de linguistique à l’Université de Washington.

“Nous faisons le travail d’imaginer un esprit qui n’est pas là”, a-t-elle ajouté.

LaMDA est un système extrêmement puissant qui utilise des modèles avancés et une formation sur plus de 1,5 billion de mots pour pouvoir imiter la façon dont les gens communiquent dans des discussions écrites.

Le système a été construit sur un modèle qui observe la relation entre les mots, puis prédit les mots qui, selon lui, viendront ensuite dans une phrase ou un paragraphe, selon l’explication de Google.

“Il s’agit encore à un certain niveau de correspondance de modèles”, a déclaré Shashank Srivastava, professeur adjoint en informatique à l’Université de Caroline du Nord à Chapel Hill.

“Bien sûr, vous pouvez trouver des brins de ce qui semblerait vraiment une conversation significative, un texte très créatif qu’ils pourraient générer. Mais cela se transforme rapidement dans de nombreux cas”, a-t-il ajouté.

Pourtant, l’attribution de la conscience devient délicate.

Cela a souvent impliqué des critères de référence comme le test de Turing, qu’une machine est considérée comme ayant réussi si un humain a une conversation écrite avec une, mais ne peut pas le dire.

“C’est en fait un test assez facile à réussir pour toute IA de notre millésime ici en 2022”, a déclaré Mark Kingwell, professeur de philosophie à l’Université de Toronto.

“Un test plus difficile est un test contextuel, le genre de choses qui semblent faire trébucher les systèmes actuels, des connaissances de bon sens ou des idées de fond – le genre de choses avec lesquelles les algorithmes ont du mal”, a-t-il ajouté.

“Pas de réponses faciles”

L’IA reste un sujet délicat dans et en dehors du monde de la technologie, qui peut susciter l’étonnement mais aussi un peu d’inconfort.

Google, dans un communiqué, a été rapide et ferme en minimisant si LaMDA est conscient de lui-même.

“Ces systèmes imitent les types d’échanges trouvés dans des millions de phrases et peuvent riffer sur n’importe quel sujet fantastique”, a déclaré la société.

“Des centaines de chercheurs et d’ingénieurs ont conversé avec LaMDA et nous ne savons pas si quelqu’un d’autre a fait des affirmations de grande envergure ou anthropomorphisé LaMDA”, a-t-il ajouté.

Au moins certains experts ont considéré la réponse de Google comme un effort pour mettre fin à la conversation sur un sujet important.

“Je pense que le débat public sur la question est extrêmement important, car la compréhension du public à quel point la question est vexante est essentielle”, a déclaré l’universitaire Susan Schneider.

“Il n’y a pas de réponses faciles aux questions de conscience dans les machines”, a ajouté le directeur fondateur du Center for the Future of the Mind de la Florida Atlantic University.

Le manque de scepticisme de la part de ceux qui travaillent sur le sujet est également possible à un moment où les gens “nagent dans une énorme quantité de battage médiatique sur l’IA”, comme l’a dit le professeur de linguistique Bender.

“Et beaucoup, beaucoup d’argent est dépensé pour cela. Ainsi, les personnes qui y travaillent ont ce signal très fort qu’elles font quelque chose d’important et de réel”, ce qui les empêche de “maintenir un scepticisme approprié”, a-t-elle ajouté.

Ces dernières années, l’IA a également souffert de mauvaises décisions – Bender a cité des recherches qui ont révélé qu’un modèle linguistique pouvait capter les préjugés racistes et anti-immigrés en faisant de la formation sur Internet.

Kingwell, professeur à l’Université de Toronto, a déclaré que la question de la sensibilité de l’IA faisait partie de “Brave New World” et de “1984”, deux travaux dystopiques qui abordent des questions telles que la technologie et la liberté humaine.

“Je pense que pour beaucoup de gens, ils ne savent pas vraiment dans quelle direction se tourner, et donc l’anxiété”, a-t-il ajouté.


Un ingénieur logiciel de Google pense qu’une IA est devenue sensible. S’il a raison, comment le saurions-nous ?


© 2022 AFP

Citation: C’est (pas) vivant ! Google Row expose des problèmes d’IA (2022, 15 juin) récupéré le 15 juin 2022 sur https://techxplore.com/news/2022-06-alive-google-row-exposes-ai.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.