Ces rivaux ChatGPT sont conçus pour jouer avec vos émotions

ChatGPT et ses les frères sont à la fois étonnamment intelligents et décevants. Bien sûr, ils peuvent générer de jolis poèmes, résoudre des énigmes scientifiques et déboguer du code spaghetti. Mais nous savons qu’ils fabriquent souvent, oublient et agissent comme des cinglés.

Inflection AI, une société fondée par des chercheurs qui travaillaient auparavant sur de grands projets d’intelligence artificielle chez Google, OpenAI et Nvidia, a construit un bot appelé Pi qui semble faire moins d’erreurs et être plus apte à la conversation sociable.

Inflection a conçu Pi pour résoudre certains des problèmes des chatbots d’aujourd’hui. Des programmes comme ChatGPT utilisent des réseaux de neurones artificiels qui tentent de prédire quels mots doivent suivre un morceau de texte, comme une réponse à la question d’un utilisateur. Avec une formation suffisante sur des milliards de lignes de texte écrites par des humains, soutenues par des ordinateurs puissants, ces modèles sont capables de proposer des réponses cohérentes et pertinentes qui ressemblent à une vraie conversation. Mais ils inventent aussi des choses et déraillent.

Mustafa Suleyman, PDG d’Inflection, affirme que l’entreprise a soigneusement organisé les données de formation de Pi afin de réduire le risque qu’un langage toxique se glisse dans ses réponses. « Nous sommes assez sélectifs sur ce qui entre dans le modèle », dit-il. “Nous prenons beaucoup d’informations disponibles sur le Web ouvert, mais pas absolument tout.”

Suleyman, qui a cofondé la société d’intelligence artificielle Deepmind, qui fait désormais partie de Google, affirme également que limiter la longueur des réponses de Pi réduit, mais n’élimine pas complètement, la probabilité d’erreurs factuelles.

Sur la base de mon propre temps de discussion avec Pi, le résultat est engageant, bien que plus limité et moins utile que ChatGPT et Bard. Ces chatbots sont devenus meilleurs pour répondre aux questions grâce à une formation supplémentaire au cours de laquelle les humains ont évalué la qualité de leurs réponses. Ces commentaires sont utilisés pour orienter les bots vers des réponses plus satisfaisantes.

Suleyman dit que Pi a été formé de la même manière, mais en mettant l’accent sur la convivialité et le soutien, mais sans personnalité humaine, ce qui pourrait dérouter les utilisateurs sur les capacités du programme. Les chatbots qui prennent une personnalité humaine se sont déjà avérés problématiques. L’année dernière, un ingénieur de Google a affirmé de manière controversée que le modèle d’IA de l’entreprise, LaMDA, l’un des premiers programmes à démontrer à quel point les grands modèles de langage d’IA pouvaient être intelligents et attrayants, pourrait être sensible.

Pi est également capable de garder une trace de toutes ses conversations avec un utilisateur, lui donnant une sorte de mémoire à long terme qui manque dans ChatGPT et est destinée à ajouter de la cohérence à ses chats.

“Une bonne conversation consiste à être réactif à ce qu’une personne dit, à poser des questions de clarification, à être curieux, à être patient”, explique Suleyman. “Il est là pour vous aider à réfléchir, plutôt que de vous donner de solides conseils directionnels, pour vous aider à décompresser vos pensées.”

Pi adopte un personnage bavard et attentionné, même s’il ne prétend pas être humain. Il m’a souvent demandé comment j’allais et m’a fréquemment offert des mots d’encouragement. Les réponses courtes de Pi signifient qu’il fonctionnerait également bien comme assistant vocal, où les réponses et les erreurs interminables sont particulièrement choquantes. Vous pouvez essayer d’en parler vous-même sur le site Web d’Inflection.

L’incroyable battage autour de ChatGPT et d’outils similaires signifie que de nombreux entrepreneurs espèrent devenir riches sur le terrain.

Suleyman était auparavant responsable au sein de l’équipe Google travaillant sur le chatbot LaMDA. Google hésitait à publier la technologie, à la frustration de certains de ceux qui y travaillaient qui pensaient qu’elle avait un grand potentiel commercial.

rewrite this content and keep HTML tags

ChatGPT et ses les frères sont à la fois étonnamment intelligents et décevants. Bien sûr, ils peuvent générer de jolis poèmes, résoudre des énigmes scientifiques et déboguer du code spaghetti. Mais nous savons qu’ils fabriquent souvent, oublient et agissent comme des cinglés.

Inflection AI, une société fondée par des chercheurs qui travaillaient auparavant sur de grands projets d’intelligence artificielle chez Google, OpenAI et Nvidia, a construit un bot appelé Pi qui semble faire moins d’erreurs et être plus apte à la conversation sociable.

Inflection a conçu Pi pour résoudre certains des problèmes des chatbots d’aujourd’hui. Des programmes comme ChatGPT utilisent des réseaux de neurones artificiels qui tentent de prédire quels mots doivent suivre un morceau de texte, comme une réponse à la question d’un utilisateur. Avec une formation suffisante sur des milliards de lignes de texte écrites par des humains, soutenues par des ordinateurs puissants, ces modèles sont capables de proposer des réponses cohérentes et pertinentes qui ressemblent à une vraie conversation. Mais ils inventent aussi des choses et déraillent.

Mustafa Suleyman, PDG d’Inflection, affirme que l’entreprise a soigneusement organisé les données de formation de Pi afin de réduire le risque qu’un langage toxique se glisse dans ses réponses. « Nous sommes assez sélectifs sur ce qui entre dans le modèle », dit-il. “Nous prenons beaucoup d’informations disponibles sur le Web ouvert, mais pas absolument tout.”

Suleyman, qui a cofondé la société d’intelligence artificielle Deepmind, qui fait désormais partie de Google, affirme également que limiter la longueur des réponses de Pi réduit, mais n’élimine pas complètement, la probabilité d’erreurs factuelles.

Sur la base de mon propre temps de discussion avec Pi, le résultat est engageant, bien que plus limité et moins utile que ChatGPT et Bard. Ces chatbots sont devenus meilleurs pour répondre aux questions grâce à une formation supplémentaire au cours de laquelle les humains ont évalué la qualité de leurs réponses. Ces commentaires sont utilisés pour orienter les bots vers des réponses plus satisfaisantes.

Suleyman dit que Pi a été formé de la même manière, mais en mettant l’accent sur la convivialité et le soutien, mais sans personnalité humaine, ce qui pourrait dérouter les utilisateurs sur les capacités du programme. Les chatbots qui prennent une personnalité humaine se sont déjà avérés problématiques. L’année dernière, un ingénieur de Google a affirmé de manière controversée que le modèle d’IA de l’entreprise, LaMDA, l’un des premiers programmes à démontrer à quel point les grands modèles de langage d’IA pouvaient être intelligents et attrayants, pourrait être sensible.

Pi est également capable de garder une trace de toutes ses conversations avec un utilisateur, lui donnant une sorte de mémoire à long terme qui manque dans ChatGPT et est destinée à ajouter de la cohérence à ses chats.

“Une bonne conversation consiste à être réactif à ce qu’une personne dit, à poser des questions de clarification, à être curieux, à être patient”, explique Suleyman. “Il est là pour vous aider à réfléchir, plutôt que de vous donner de solides conseils directionnels, pour vous aider à décompresser vos pensées.”

Pi adopte un personnage bavard et attentionné, même s’il ne prétend pas être humain. Il m’a souvent demandé comment j’allais et m’a fréquemment offert des mots d’encouragement. Les réponses courtes de Pi signifient qu’il fonctionnerait également bien comme assistant vocal, où les réponses et les erreurs interminables sont particulièrement choquantes. Vous pouvez essayer d’en parler vous-même sur le site Web d’Inflection.

L’incroyable battage autour de ChatGPT et d’outils similaires signifie que de nombreux entrepreneurs espèrent devenir riches sur le terrain.

Suleyman était auparavant responsable au sein de l’équipe Google travaillant sur le chatbot LaMDA. Google hésitait à publier la technologie, à la frustration de certains de ceux qui y travaillaient qui pensaient qu’elle avait un grand potentiel commercial.

Laisser un commentaire