Des chercheurs ont formé un modèle d’IA pour “penser” comme un bébé, et il a soudainement excellé

Des chercheurs ont formé un modèle d'IA pour

Crédit : Shutterstock

Dans un monde rempli de points de vue opposés, attirons l’attention sur une chose sur laquelle nous pouvons tous être d’accord : si je vous montre mon stylo, puis que je le cache derrière mon dos, mon stylo existe toujours, même si vous ne le voyez plus. Nous pouvons tous convenir qu’il existe toujours et qu’il a probablement la même forme et la même couleur qu’avant qu’il ne passe derrière mon dos. Ceci est juste du bon sens.

Ces lois de bon sens du monde physique sont universellement comprises par les humains. Même les nourrissons de deux mois partagent cette compréhension. Mais les scientifiques sont encore intrigués par certains aspects de la manière dont nous parvenons à cette compréhension fondamentale. Et nous n’avons pas encore construit d’ordinateur capable de rivaliser avec les capacités de bon sens d’un enfant en développement typique.

Une nouvelle recherche de Luis Piloto et de ses collègues de l’Université de Princeton, que je passe en revue pour un article dans Nature Comportement humain—fait un pas en avant pour combler cette lacune. Les chercheurs ont créé un système d’intelligence artificielle (IA) d’apprentissage en profondeur qui a acquis une compréhension de certaines lois de bon sens du monde physique.

Les résultats aideront à construire de meilleurs modèles informatiques qui simulent l’esprit humain, en abordant une tâche avec les mêmes hypothèses qu’un nourrisson.

Comportement enfantin

En règle générale, les modèles d’IA commencent par une page blanche et sont formés sur des données avec de nombreux exemples différents, à partir desquels le modèle construit des connaissances. Mais la recherche sur les nourrissons suggère que ce n’est pas ce que font les bébés. Au lieu de construire des connaissances à partir de zéro, les nourrissons commencent par des attentes fondées sur des principes concernant les objets.

Par exemple, ils s’attendent à ce que s’ils s’occupent d’un objet qui est ensuite caché derrière un autre objet, le premier objet continuera d’exister. Il s’agit d’une hypothèse de base qui les lance dans la bonne direction. Leurs connaissances s’affinent ensuite avec le temps et l’expérience.

La découverte passionnante de Piloto et de ses collègues est qu’un système d’IA d’apprentissage en profondeur modélisé sur ce que font les bébés surpasse un système qui commence par une ardoise vierge et essaie d’apprendre en se basant uniquement sur l’expérience.

Cube glisse et boules dans les murs

Les chercheurs ont comparé les deux approches. Dans la version vierge, le modèle d’IA a reçu plusieurs animations visuelles d’objets. Dans certains exemples, un cube glisserait sur une rampe. Dans d’autres, une balle a rebondi dans un mur.

Le modèle a détecté des modèles à partir des différentes animations, puis a été testé sur sa capacité à prédire les résultats avec de nouvelles animations visuelles d’objets. Cette performance a été comparée à un modèle qui avait des “attentes fondées sur des principes” intégrées avant de faire l’expérience d’animations visuelles.

Ces principes étaient basés sur les attentes des nourrissons quant à la façon dont les objets se comportent et interagissent. Par exemple, les bébés s’attendent à ce que deux objets ne se croisent pas.

Si vous montrez à un bébé un tour de magie où vous violez cette attente, il peut détecter la magie. Ils révèlent cette connaissance en regardant beaucoup plus longtemps les événements avec des résultats inattendus ou « magiques », par rapport aux événements où les résultats sont attendus.

Les bébés s’attendent également à ce qu’un objet ne puisse pas simplement apparaître et disparaître. Ils peuvent également détecter quand cette attente est violée.

Piloto et ses collègues ont trouvé que le modèle d’apprentissage en profondeur qui a commencé avec une ardoise vierge a fait du bon travail, mais le modèle basé sur le codage centré sur l’objet inspiré de la cognition infantile a fait beaucoup mieux.

Ce dernier modèle pouvait prédire avec plus de précision comment un objet se déplacerait, réussissait mieux à appliquer les attentes à de nouvelles animations et apprenait à partir d’un plus petit ensemble d’exemples (par exemple, il y parvenait après l’équivalent de 28 heures de vidéo).

Une compréhension innée ?

Il est clair que l’apprentissage au fil du temps et de l’expérience est important, mais ce n’est pas tout. Cette recherche menée par Piloto et ses collègues apporte un éclairage sur la question séculaire de ce qui peut être inné chez l’homme et de ce qui peut être appris.

Au-delà de cela, cela définit de nouvelles limites pour le rôle que les données perceptives peuvent jouer lorsqu’il s’agit de systèmes artificiels acquérant des connaissances. Et cela montre également comment les études sur les bébés peuvent contribuer à construire de meilleurs systèmes d’IA qui simulent l’esprit humain.


De nouvelles informations sur l’apprentissage des mots chez le nourrisson rapportées dans une étude


Plus d’information:
Luis S. Piloto et al, Apprentissage intuitif de la physique dans un modèle d’apprentissage en profondeur inspiré de la psychologie du développement, Nature Comportement humain (2022). DOI : 10.1038/s41562-022-01394-8

Fourni par La Conversation

Cet article est republié de The Conversation sous une licence Creative Commons. Lire l’article d’origine.La conversation

Citation: Des chercheurs ont formé un modèle d’IA pour “penser” comme un bébé, et il a soudainement excellé (2022, 12 juillet) récupéré le 12 juillet 2022 sur https://techxplore.com/news/2022-07-ai-baby-suddenly-excelled .html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.