NVIDIA dévoile le modèle “ACE” pour les jeux de nouvelle génération, intégrant l’IA dans les personnages virtuels

NVIDIA dévoile Avatar Cloud Engine (ACE), un modèle d’IA personnalisé qui intègre l’IA dans les personnages non jouables (PNJ) pour des interactions en langage de jeu naturel.

À l’aide de cet outil, les développeurs de logiciels et de jeux pourront créer et intégrer des modèles uniques d’IA de voix, de conversation et de mouvement. Le projet est mené en partenariat avec Convai, une entreprise développant une IA conversationnelle pour les environnements de jeu en ligne.

Voici comment NVIDIA décompose les fondations du modèle :

  • NVIDIA NeMo — pour créer, personnaliser et déployer des modèles de langage à l’aide de données propriétaires. Les grands modèles de langage peuvent être personnalisés avec des histoires de traditions et de personnages et protégés contre les conversations contre-productives ou dangereuses via NeMo Guardrails.
  • NVIDIA Riva – pour la reconnaissance vocale automatique et la synthèse vocale pour permettre une conversation vocale en direct.
  • NVIDIA Omniverse Audio2Face – pour créer instantanément une animation faciale expressive d’un personnage de jeu pour correspondre à n’importe quelle piste vocale. Audio2Face propose des connecteurs Omniverse pour Unreal Engine 5, afin que les développeurs puissent ajouter une animation faciale directement aux personnages MetaHuman.

NVIDIA a également présenté le modèle en démontrant un exemple de conversation générée par l’IA avec un PNJ. Comme vous pouvez le voir dans la vidéo ci-dessous, le personnage répond à des questions basées sur la trame de fond narrative à l’aide de l’IA générative.

Le nouvel outil de NVIDIA est une avancée significative pour l’industrie du jeu. Nous sommes ravis de voir comment l’IA sera intégrée dans les jeux à venir, car elle changera considérablement l’expérience de jeu d’un titre particulier, principalement lorsqu’il s’agit de PNJ.

NVIDIA ACE : Donner vie aux PNJ

Les développeurs de jeux et les startups utilisent déjà les technologies d’IA générative de NVIDIA. Par exemple, GSC Game World utilise Audio2Face dans le très attendu STALKER 2 Coeur de Tchernobyl. Et le développeur indépendant Fallen Leaf utilise Audio2Face pour l’animation faciale des personnages dans Fort-Solis, leur thriller de science-fiction à la troisième personne se déroulant sur Mars. De plus, Charisma.ai, une entreprise permettant des personnages virtuels via l’IA, utilise Audio2Face pour alimenter l’animation dans son moteur de conversation.

via Nvidia

NVIDIA tire parti de l’IA à tous les niveaux et les jeux sont un segment essentiel où la société apporte également sa technologie de compression neurale pour des détails jusqu’à 16x, formant les modèles DLSS 3 dans les serveurs NVIDIA pour des détails et une qualité améliorés et une nouvelle technologie de cache radiance qui peut aider à améliorer les performances du traçage de chemin dans des titres tels que Cyberpunk 2077 qui l’utilisent.

Partagez cette histoire

Facebook

Twitter

Laisser un commentaire