Google s’attaque à ChatGPT avec Bard et montre l’IA dans la recherche • TechCrunch

Google se précipite pour participer à la soudaine ferveur pour l’IA conversationnelle, portée par le succès omniprésent du ChatGPT de son rival OpenAI. Bard, la nouvelle expérience d’IA de l’entreprise, vise à « combiner l’étendue des connaissances mondiales avec la puissance, l’intelligence et la créativité de nos grands modèles linguistiques ». Pas à court d’ambition, Google !

Le modèle, ou service, ou chatbot IA, comme vous souhaitez le décrire, a été annoncé dans un article de blog par le PDG Sundar Pichai. Il note avec insistance le recentrage de Google autour de l’IA il y a quelques années, ainsi que le fait que le concept le plus influent (le Transformer) a été créé par les chercheurs de l’entreprise en 2017.

“C’est une période vraiment excitante de travailler sur ces technologies alors que nous traduisons des recherches approfondies et des percées en produits qui aident vraiment les gens”, écrit Pichai. Il est difficile de ne pas se demander en lisant ceci comment Google a réussi à se faire dépasser de manière si décisive par OpenAI, ce dernier étant désormais synonyme des technologies dont le premier a été le pionnier.

La courte explication est que la technologie évolue rapidement et que les grandes entreprises avancent lentement, et tandis que Google a publié papier après papier et a essayé de comprendre comment intégrer l’IA dans ses stratégies commerciales existantes, OpenAI s’est concentré sur la création des meilleurs modèles et a laissé les gens comprendre leur propres applications.

Bard montre que Google prend une page de ce livre de jeu, publiant une version “légère” du modèle à des fins de test. Le modèle utilise le propre LaMDA (Language Model for Dialogue Applications) de Google pour alimenter une IA conversationnelle qui peut également tirer parti des informations du Web. Comment exactement cela ne ressort-il pas du billet de blog, mais il semble au moins rester plus ou moins à jour.

Barde “aide[s] expliquez les nouvelles découvertes du télescope spatial James Webb de la NASA à un enfant de 9 ans, ou apprenez-en plus sur les meilleurs attaquants du football en ce moment, puis obtenez des exercices pour développer vos compétences.

Crédits image : Google

Google conserve bien sûr l’enregistrement le plus à jour du contenu Web sur Terre, et Bard utilisera sans aucun doute ces informations à son avantage, mais la manière exacte dont il traite et regroupe ces informations pour vous et votre enfant de neuf ans ne sera que clair une fois que les gens commencent à l’utiliser.

Le post note que vous pouvez également utiliser Bard pour “planifier la baby shower d’un ami”, “comparer deux films nominés aux Oscars” et “planifier un voyage en Équateur”. On peut imaginer comment un modèle d’IA pourrait faire l’une de ces choses en utilisant les différents résultats de recherche et les tuyaux d’incendie de données auxquels Google a accès, mais cette expérience se limitera probablement à vous dire des choses, sans faire d’intégrations profondes avec des choses comme votre calendrier ou les compagnies aériennes.

Bien sûr, chaque IA conversationnelle doit faire face aux inévitables tentatives (de nos jours, presque instantanées) de l’inciter à dire quelque chose de haineux, de stupide ou d’embarrassant. Google enregistrera sûrement les conversations avec les utilisateurs “pour s’assurer que les réponses de Bard atteignent un niveau élevé de qualité, de sécurité et d’ancrage dans les informations du monde réel”. Le dernier est clairement un coup à travers les arcs d’OpenAI, ainsi que ceux de Microsoft, puisque les modèles du premier ne citent pas leurs sources et que le Galactica de courte durée du second les a inventés.

(Mise à jour: “À la lumière des récentes annonces”, Microsoft a maintenant rendu public un événement auparavant confidentiel qui se tiendra demain à Redmond. Le sujet n’est pas officiellement déclaré, mais on s’attend généralement à ce qu’il s’agisse d’un lien Bing-OpenAI qui apporte un modèle de langage de nouvelle génération au moteur de recherche perpétuellement assiégé de Microsoft. Une première version des fonctionnalités aurait été testée et divulguée par l’étudiant Owen Lin, mais nous n’avons rien pu confirmer à partir de ce message.)

L’IA arrivera plus directement dans la recherche Google sous la forme de plusieurs nouvelles fonctionnalités “qui peuvent aider à synthétiser les informations pour les questions où il n’y a pas de bonne réponse. Bientôt, vous verrez ces fonctionnalités alimentées par l’IA dans la recherche qui distillent des informations complexes et plusieurs points de vue dans des formats faciles à digérer, afin que vous puissiez rapidement comprendre la situation dans son ensemble et en apprendre davantage sur le Web », a déclaré la société dans un communiqué séparé. e-mail. Nuance mais format à puces, j’ai compris.

Bien que les gens lui demanderont sans aucun doute des variantes du problème du chariot, l’exemple fourni est quelqu’un qui demande “Est-ce que le piano ou la guitare sont plus faciles à apprendre et combien de pratique chacun a-t-il besoin?”

Crédits image : Google

Pas une requête chargée d’éthique (pour la plupart) mais pas nécessairement avec un résultat simple. Mais si parmi une centaine d’articles comparant les différents taux d’apprentissage des instruments, il existe une sorte de consensus sur la difficulté, avec diverses mises en garde et astuces également courantes, Google peut simplement les aspirer et les afficher en haut des résultats de recherche.

Les questions ne manquent pas : n’est-ce pas du plagiat ? Les résultats sponsorisés iront-ils au-dessus ou au-dessous, et seront-ils inclus et/ou promus dans le cadre de l’IA ? Qu’est-ce qui est considéré comme une question sans bonne réponse ? Les utilisateurs peuvent-ils personnaliser les résultats ou le processus d’exploration ?

Nous pourrions très bien apprendre les réponses à ces questions lors de l’événement de recherche et d’intelligence artificielle de Google mercredi matin, événement qui, étrangement, n’est pas mentionné dans le message de Pichai. Vous pouvez regarder le livestream ici à 6h30, heure du Pacifique, ou consulter la première page pour plus d’informations.

Laisser un commentaire