Un expert en intelligence artificielle se penche sur la montée en puissance des chatbots

Chatbot IA

Crédit : Pixabay/CC0 Domaine public

Et si un chatbot se présente comme un ami ? Et si un chatbot prolongeait ce qui pourrait être perçu comme des sentiments intimes pour un autre ? Les chatbots, s’ils sont utilisés de manière malveillante, pourraient-ils constituer une réelle menace pour la société ? Santu Karmaker, professeur adjoint en informatique et génie logiciel, a approfondi le sujet ci-dessous.

Que révèlent ces étranges rencontres avec les chatbots sur l’avenir de l’IA ?

Karmaker : Cela ne révèle pas grand-chose car les possibilités futures sont infinies. Quelle est la définition d’une rencontre étrange ? En supposant que “rencontre étrange” signifie ici que l’utilisateur humain se sent mal à l’aise lors de son interaction avec les chatbots, nous parlons essentiellement de sentiments/sensibilité humains.

Il y a deux questions importantes à poser : (1) N’avons-nous pas des rencontres étranges lorsque nous conversons avec de vrais humains ? (2) Entraînons-nous les chatbots IA à faire attention aux sentiments/sensibilité humains pendant les conversations ?

Nous pouvons faire mieux et nous progressons sur les questions d’équité/justice en matière d’IA. Mais c’est un long chemin à parcourir, et actuellement, nous n’avons pas de modèle informatique robuste pour simuler les sentiments/sensibilité humains, c’est pourquoi l’IA signifie intelligence “artificielle”, pas intelligence “naturelle”, du moins pour le moment.

Les entreprises publieront-elles bientôt des chatbots au public ?

Karmaker : D’un point de vue critique, des produits comme ChatGPT ne seront jamais prêts à fonctionner à moins que nous ayons une technologie d’IA fonctionnelle qui prend en charge l’apprentissage continu tout au long de la vie. Nous vivons dans un monde en constante évolution, et nos expériences/opinions/connaissances évoluent également. Cependant, les produits d’IA actuels sont formés principalement sur un ensemble de données historiques fixes, puis déployés dans la vie réelle dans l’espoir qu’ils puissent se généraliser à des scénarios invisibles, ce qui souvent ne s’avère pas vrai. Cependant, de nombreuses recherches se concentrent désormais sur l’apprentissage tout au long de la vie, mais le domaine en est encore à ses balbutiements.

De plus, des technologies comme ChatGPT et l’apprentissage tout au long de la vie ont des objectifs orthogonaux et se complètent. Une technologie comme ChatGPT peut révéler de nouveaux défis pour la recherche sur l’apprentissage tout au long de la vie en recevant des commentaires du public à grande échelle. Bien qu’ils ne soient pas tout à fait “prêts à l’emploi”, la publication de produits tels que ChatGPT peut aider à collecter de grandes quantités de données qualitatives et quantitatives pour évaluer et identifier les limites des modèles d’IA actuels. Par conséquent, lorsque nous parlons de technologie d’IA, la question de savoir si un produit est effectivement “prêt à l’emploi” est très subjective/discutable.

Si ces produits sortent avec de nombreux pépins, deviendront-ils un problème de société ?

Karmaker : Les problèmes dans un système de chatbot/IA diffèrent considérablement des problèmes logiciels habituels auxquels nous nous référons normalement. Un pépin est généralement défini comme un comportement inattendu d’un produit logiciel utilisé. Mais qu’est-ce qu’un bug pour un chatbot ? Quel est le comportement attendu ?

Je pense que les attentes générales d’un chatbot sont que les conversations doivent être pertinentes, fluides, cohérentes et factuelles.

De toute évidence, tout chatbot/assistant intelligent disponible aujourd’hui n’est pas toujours pertinent, fluide, cohérent et factuel. Que cela devienne un problème social dépend principalement de la façon dont nous traitons cette technologie en tant que société. Si nous promouvons des cadres de collaboration homme-IA pour bénéficier du meilleur des humains et des machines, cela atténuera les préoccupations sociétales des problèmes dans les systèmes d’IA et, en même temps, augmentera l’efficacité et la précision de la tâche que nous voulons accomplir.

Les législateurs semblent hésitants à réglementer l’IA. Cela pourrait-il changer ?

Karmaker : Je ne vois pas de changement dans un futur proche. Comme la technologie et la recherche sur l’IA évoluent à une vitesse très rapide, un produit/une technologie particulière devient obsolète/démodée très rapidement. Par conséquent, il est vraiment difficile de comprendre avec précision les limites d’une telle technologie en peu de temps et de réglementer ces technologies en créant des lois. Parce qu’au moment où nous découvrons les problèmes de la technologie de l’IA à grande échelle, de nouvelles technologies sont créées, ce qui déplace notre attention des précédentes vers les nouvelles. Par conséquent, l’hésitation des législateurs à réglementer la technologie de l’IA pourrait se poursuivre.

Quels sont vos plus grands espoirs pour l’IA ?

Karmaker : Nous vivons dans une ère d’explosion de l’information. Traiter rapidement une grande quantité d’informations n’est plus un luxe ; c’est plutôt devenu un besoin pressant. Mon plus grand espoir pour l’IA est qu’elle aidera les humains à traiter les informations à grande échelle et rapidement et, par conséquent, les aidera à prendre des décisions plus éclairées qui peuvent avoir un impact sur tous les aspects de notre vie, y compris les soins de santé, les affaires, la sécurité, le travail, l’éducation, etc.

On craint que l’IA ne soit utilisée pour produire une désinformation généralisée. Ces préoccupations sont-elles valables ?

Karmaker : Nous avons eu des inconvénients depuis l’aube de la société. La seule façon de les traiter est de les identifier rapidement et de les traduire en justice. L’une des principales différences entre la criminalité traditionnelle et la cybercriminalité est qu’il est beaucoup plus difficile d’identifier un cybercriminel qu’un cybercriminel ordinaire. Cette vérification d’identité est un problème général de la technologie Internet, plutôt que d’être spécifique à la technologie de l’IA.

La technologie de l’IA peut fournir aux escrocs des outils pour répandre la désinformation, mais si nous pouvons identifier rapidement la source et capturer les inconvénients qui se cachent derrière, la diffusion de la désinformation peut être stoppée. Les législateurs peuvent empêcher un résultat catastrophique en : (1) appliquant des exigences de licence strictes pour tout logiciel pouvant générer et diffuser de nouveaux contenus sur Internet ; (2) créer une équipe de surveillance de la cybercriminalité bien dotée en ressources avec des experts en intelligence artificielle servant de consultants ; (3) fournir en permanence des informations vérifiées sur les sites Web GOV/de confiance, ce qui permettra au grand public de vérifier les informations provenant de sources en lesquelles ils ont déjà confiance ; et (4) rendre obligatoire une formation de base en cybersécurité et rendre le matériel pédagogique plus accessible au public.

Fourni par l’Université d’Auburn à Montgomery

Citation: Un expert en intelligence artificielle pèse sur la montée des chatbots (17 mars 2023) récupéré le 30 mars 2023 sur https://Testeur Joe.com/news/2023-03-artificial-intelligence-expert-chatbots.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.

Laisser un commentaire