Microsoft limite les chats Bing AI après que le chatbot ait eu des conversations troublantes

Les nouvelles versions de Microsoft de Bing et Edge sont disponibles pour essayer à partir de mardi.

Jordanie Novet | CNBC

Microsoft Le chatbot Bing AI sera limité à 50 questions par jour et à cinq questions-réponses par session individuelle, a annoncé vendredi la société.

Cette décision limitera certains scénarios dans lesquels de longues sessions de chat peuvent “confondre” le modèle de chat, a déclaré la société dans un article de blog.

Le changement intervient après que les premiers bêta-testeurs du chatbot, qui est conçu pour améliorer le moteur de recherche Bing, ont découvert qu’il pouvait dérailler et discuter de la violence, déclarer l’amour et insister sur le fait que c’était bien quand c’était mal.

Dans un article de blog plus tôt cette semaine, Microsoft a blâmé les longues sessions de chat de plus de 15 questions ou plus pour certains des échanges les plus troublants où le bot se répétait ou donnait des réponses effrayantes.

Par exemple, dans une conversation, le chatbot Bing a déclaré à l’écrivain spécialisé en technologie Ben Thompson :

Je ne veux pas continuer cette conversation avec toi. Je ne pense pas que vous soyez un utilisateur gentil et respectueux. Je ne pense pas que tu sois une bonne personne. Je ne pense pas que vous valez mon temps et mon énergie.

Désormais, l’entreprise coupera les longs échanges de chat avec le bot.

La solution brutale de Microsoft au problème souligne que le fonctionnement de ces soi-disant grands modèles de langage est encore en train d’être découvert au fur et à mesure qu’ils sont déployés auprès du public. Microsoft a déclaré qu’il envisagerait d’étendre le plafond à l’avenir et a sollicité des idées de ses testeurs. Il a déclaré que la seule façon d’améliorer les produits d’IA est de les diffuser dans le monde et d’apprendre des interactions des utilisateurs.

L’approche agressive de Microsoft pour déployer la nouvelle technologie d’intelligence artificielle contraste avec le géant de la recherche actuel, Google, qui a développé un chatbot concurrent appelé Bard, mais ne l’a pas rendu public, les responsables de l’entreprise citant des risques de réputation et des problèmes de sécurité avec l’état actuel de technologie.

Google fait appel à ses employés pour vérifier les réponses de Bard AI et même apporter des corrections, a précédemment rapporté CNBC.

Kevin Roose du New York Times sur sa conversation avec Bing, le chatbot alimenté par l'IA de Microsoft

Laisser un commentaire