OpenAI pourrait créer un modèle d’IA avancé qui connecte 10 millions de GPU NVIDIA ensemble

La course pour sécuriser la domination de l’IA bat son plein avec des sociétés de logiciels et de matériel essayant de se surpasser, en tant que telles, NVIDIA et OpenAI pourraient travailler sur un modèle d’IA qui peut combiner non pas des milliers mais des millions de GPU ensemble.

OpenAI et NVIDIA pourraient créer un modèle de GPU AI pour mettre fin à tous les modèles

Jusqu’à présent, NVIDIA et OpenAI ont collaboré sur ChatGPT dont le dernier modèle GPT-4 utilise plusieurs milliers de GPU AI du géant des puces. Il est rapporté que NVIDIA a fourni environ 20 000 de ses tout nouveaux GPU AI à OpenAI, qui seront encore étendus dans les mois à venir. Mais ce n’est que la pointe de l’iceberg.

Selon Wang Xiaochuan, l’homme d’affaires et fondateur du moteur de recherche chinois Sogou, on dit que ChatGPT travaille déjà sur un modèle informatique d’IA plus avancé qui utilise des méthodes de formation beaucoup plus avancées. Ce modèle aurait la capacité de connecter 10 millions de GPU AI ensemble.

Atteindre même 100 000 GPU semble être un gros problème, mais plus d’un million de GPU AI semble tout simplement trop ambitieux. Mais pour ajouter à sa crédibilité, Wang lui-même a investi dans une nouvelle société de renseignement connue sous le nom de Baichuan Intelligence for China, qui vise à être un concurrent majeur d’OpenAI dans le pays. Il convient de souligner que la société a récemment publié son modèle de langage Baichuan-13B, capable de fonctionner sur du matériel grand public tel qu’un GPU NVIDIA GeForce RTX 3090. Mais la possibilité qu’OpenAI soit une force dominante à l’avenir est également évoquée et, à ce titre, il propose sur son compte Weibo que la Chine a désespérément besoin de sa propre OpenAI.

10 millions de GPU AI alimentant les futurs modèles de langage d’OpenAI, c’est astronomique en termes d’échelle. Compte tenu de la capacité actuelle de NVIDIA, la société ne peut produire qu’un million de GPU AI, ce qui prendra 10 ans pour concrétiser la véritable vision de ce projet massif.

Mais NVIDIA travaille avec TSMC pour augmenter l’offre et la production peut bientôt augmenter d’un facteur énorme bien qu’il y ait d’autres choses qui peuvent devenir un obstacle comme le coût, la puissance et, plus important encore, les moyens d’interconnecter une si grande quantité de GPU ensemble. Ce n’est peut-être qu’une chimère, mais si nous obtenons un million de systèmes alimentés par GPU AI, ce serait une véritable merveille technique.

Source de l’actualité : MyDrivers

Partagez cette histoire

Facebook

Twitter

Laisser un commentaire