Les découvertes mathématiques nécessitent de l’intuition et de la créativité, et maintenant un peu d’aide de l’IA

Les découvertes mathématiques nécessitent de l'intuition et de la créativité - et maintenant un peu d'aide de l'IA

Crédit : Shutterstock

La recherche en mathématiques est un processus profondément imaginatif et intuitif. Cela pourrait surprendre ceux qui se remettent encore de l’algèbre du lycée.

A quoi ressemble le monde à l’échelle quantique ? Quelle forme prendrait notre univers si nous étions aussi grands qu’une galaxie ? Comment serait-ce de vivre dans six ou même 60 dimensions ? Tels sont les problèmes auxquels les mathématiciens et les physiciens sont confrontés chaque jour.

Pour trouver les réponses, les mathématiciens comme moi essaient de trouver des modèles qui relient des objets mathématiques compliqués en faisant conjectures (idées sur la façon dont ces modèles pourraient fonctionner), qui sont promus à théorèmes si nous pouvons prouver qu’ils sont vrais. Ce processus repose autant sur notre intuition que sur nos connaissances.

Au cours des dernières années, j’ai travaillé avec des experts de la société d’intelligence artificielle (IA) DeepMind pour savoir si leurs programmes peuvent aider avec les aspects créatifs ou intuitifs de la recherche mathématique. Dans un nouvel article publié dans La nature, nous montrons qu’ils le peuvent : les techniques récentes en IA ont été essentielles à la découverte d’une nouvelle conjecture et d’un nouveau théorème dans deux domaines appelés « théorie des nœuds » et « théorie des représentations ».

Intuition mécanique

D’où vient l’intuition d’un mathématicien ? On peut poser la même question dans n’importe quel domaine de l’activité humaine. Comment un grand maître d’échecs sait-il que son adversaire est en difficulté ? Comment un surfeur sait-il où attendre une vague ?

La réponse courte est que nous ne savons pas. Quelque chose de miraculeux semble se produire dans le cerveau humain. De plus, ce « quelque chose de miraculeux » prend des milliers d’heures à se développer et ne s’enseigne pas facilement.

La dernière décennie a vu les ordinateurs afficher les premiers indices de quelque chose comme l’intuition humaine. L’exemple le plus frappant s’est produit en 2016, lors d’un match de Go entre le programme AlphaGo de DeepMind et Lee Sedol, l’un des meilleurs joueurs du monde.

AlphaGo a gagné 4-1, et les experts ont observé que certains des mouvements d’AlphaGo affichaient une intuition de niveau humain. Un coup particulier (« coup 37 ») est désormais connu comme une nouvelle découverte dans le jeu.

Comment les ordinateurs apprennent-ils ?

Derrière ces avancées se cache une technique appelée apprentissage en profondeur. Sur un ordinateur, on construit un réseau de neurones, essentiellement un modèle mathématique grossier d’un cerveau, avec de nombreux neurones interconnectés.

Au début, la sortie du réseau est inutile. Mais au fil du temps (de quelques heures à même des semaines ou des mois), le réseau s’entraîne, essentiellement en ajustant les taux de décharge des neurones.

De telles idées ont été essayées dans les années 1970 avec des résultats peu convaincants. Vers 2010, cependant, une révolution s’est produite lorsque les chercheurs ont considérablement augmenté le nombre de neurones dans le modèle (de centaines dans les années 1970 à des milliards aujourd’hui).

Les programmes informatiques traditionnels sont aux prises avec de nombreuses tâches que les humains trouvent faciles, telles que le traitement du langage naturel (lecture et interprétation de texte) et la reconnaissance de la parole et des images.






Avec la révolution de l’apprentissage en profondeur des années 2010, les ordinateurs ont commencé à bien s’acquitter de ces tâches. L’IA a essentiellement apporté la vision et la parole aux machines.

L’entraînement des réseaux de neurones nécessite d’énormes quantités de données. De plus, les modèles d’apprentissage en profondeur entraînés fonctionnent souvent comme des « boîtes noires ». Nous savons qu’ils donnent souvent la bonne réponse, mais nous ne savons généralement pas (et ne pouvons pas déterminer) pourquoi.

Une rencontre chanceuse

Mon implication dans l’IA a commencé en 2018, lorsque j’ai été élu membre de la Royal Society. Lors de la cérémonie d’intronisation à Londres, j’ai rencontré Demis Hassabis, directeur général de DeepMind.

Au cours d’une pause-café, nous avons discuté de l’apprentissage en profondeur et des applications possibles en mathématiques. L’apprentissage automatique pourrait-il conduire à des découvertes en mathématiques, comme il l’a fait au Go ?

Cette conversation fortuite a conduit à ma collaboration avec l’équipe de DeepMind.

Les mathématiciens comme moi utilisent souvent des ordinateurs pour vérifier ou effectuer de longs calculs. Cependant, les ordinateurs ne peuvent généralement pas m’aider à développer mon intuition ou à suggérer une ligne d’attaque possible. Nous nous sommes donc demandé : le deep learning peut-il aider les mathématiciens à développer leur intuition ?

Avec l’équipe de DeepMind, nous avons formé des modèles pour prédire certaines quantités appelées polynômes de Kazhdan-Lusztig, que j’ai passé la majeure partie de ma vie mathématique à étudier.

Dans mon domaine, nous étudions les représentations, que vous pouvez considérer comme des molécules en chimie. De la même manière que les molécules sont constituées d’atomes, la constitution des représentations est régie par les polynômes de Kazhdan-Lusztig.

Étonnamment, l’ordinateur a pu prédire ces polynômes de Kazhdan-Lusztig avec une précision incroyable. Le modèle semblait être sur quelque chose, mais nous ne pouvions pas dire quoi.

Cependant, en « regardant sous le capot » du modèle, nous avons pu trouver un indice qui nous a conduit à une nouvelle conjecture : que les polynômes de Kazhdan-Lusztig peuvent être distillés à partir d’un objet beaucoup plus simple (un graphe mathématique).

Cette conjecture suggère une voie à suivre pour résoudre un problème qui embarrasse les mathématiciens depuis plus de 40 ans. Remarquablement, pour moi, le modèle était une intuition !

Parallèlement à leurs travaux avec DeepMind, les mathématiciens Andras Juhasz et Marc Lackenby de l’Université d’Oxford ont utilisé des techniques similaires pour découvrir un nouveau théorème dans le domaine mathématique de la théorie des nœuds. Le théorème donne une relation entre des traits (ou « invariants ») de nœuds qui proviennent de différentes zones de l’univers mathématique.

Notre article nous rappelle que l’intelligence n’est pas une variable unique, comme le résultat d’un test de QI. L’intelligence est mieux considérée comme ayant de nombreuses dimensions.

Mon espoir est que l’IA puisse fournir une autre dimension, approfondissant notre compréhension du monde mathématique, ainsi que du monde dans lequel nous vivons.


Des chercheurs en mathématiques saluent une percée dans les applications de l’intelligence artificielle


Plus d’information:
Alex Davies et al, Faire progresser les mathématiques en guidant l’intuition humaine avec l’IA, La nature (2021). DOI : 10.1038/s41586-021-04086-x

Fourni par La Conversation

Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l’article original.La conversation

Citation: Les découvertes mathématiques nécessitent de l’intuition et de la créativité, et maintenant un peu d’aide de l’IA (2021, 2 décembre) récupéré le 2 décembre 2021 sur https://techxplore.com/news/2021-12-mathematical-discoveries-intuition-creativity-ai. html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.