Grâce à Nvidia ACE, les PNJ (personnages non joueurs) des jeux vont bientôt bénéficier de la puissance des LLM.
Lors du salon COMPUTEX 2023, le géant de la technologie NVIDIA a dévoilé une démo de son moteur NVIDIA « Avatar Cloud Engine » (ACE) pour les jeux, lors d’une keynote qui a attiré beaucoup de monde, montrant le potentiel de l’exploitation de l’intelligence artificielle dans les jeux vidéo.
Nvidia ACE pourrait révolutionner la façon dont nous interagissons avec les personnages virtuels, en particulier avec les PNJ dans les jeux vidéo. Pour autant, en quoi consiste exactement cette technologie et quels en seront ses avantages dans le futur ?
Sommaire
ToggleQue signifie Nvidia ACE ?
Le nom Nvidia ACE signifie « Avatar Cloud Engine ». Cette technologie utilise l’IA générative pour permettre à des personnages virtuels de converser avec une personne réelle sans avoir besoin d’un script préalablement écrit. Nvidia ACE est conçue pour donner vie à des personnages de jeux grâce à des capacités de conversation en langage naturel, d’expression faciale, de synthèse vocale et sémantique.
Lancée initialement en 2022, le modèle d’IA personnalisé a fait son retour au Computex 2023 à Taipei, où Nvidia parle d’un « aperçu de l’avenir des jeux ». Au cours de l’événement, le PDG de Nvidia, Jensen Huang, en a profité pour montrer une démo de jeu dans laquelle un PNJ nommé « Jin », gérant d’un magasin de ramen, interagissait avec un joueur humain qui lui posait des questions vocales et obtenait des réponses réalistes correspondant à l’histoire du PNJ.
« Ceci est l’avenir des jeux vidéo. Non seulement l’IA contribuera au rendu et à la consolidation de l’environnement, mais elle animera également les personnages », a déclaré Jensen Huang.
En quoi cette IA diffère-t-elle des autres ?
Contrairement à Chat-GPT et d’autres IA, les personnages développés via Nvidia ACE auront toujours leur propre personnalité et leur propre histoire. Nvidia a expliqué qu’elle avait fourni au personnage dans la vidéo ci-dessus un profil semblable à celui d’un personnage de Dungeons and Dragons, mais qu’elle avait laissé à l’IA le soin de générer le dialogue en temps réel.
Nvidia ACE utilise plusieurs modèles d’IA pour créer de telles expériences. À titre d’exemple, Nvidia NeMo sert à construire et à déployer des modèles de langage, avec des options de personnalisation pour l’ajout de récits et d’histoires de personnages. Nvidia Riva utilise, quant à lui, la reconnaissance automatique de la vitesse et la fonctionnalité de synthèse vocale, afin de rendre possible les conversations vocales en direct.
ACE ne se limite pas seulement aux dialogues, puisqu’il fait appel à Nvidia Omniverse Audio2Face pour créer des animations faciales expressives correspondant aux dialogues générés par l’intelligence artificielle. Cela devrait permettre au PNJ de ne pas sourire lorsqu’il aborde un sujet pénible, ou de faire des grimaces lorsqu’il raconte une blague, ce qui est extrêmement important étant donné que le dialogue ne sera pas pré-écrit. Ainsi, toutes ces technologies se combinent pour créer une conversation authentique.
Rédacteur web chez Teknologik. Très passionné, il a commencé sa carrière de rédacteur en 2019 et depuis lors, il s’est spécialisé dans la rédaction d’articles sur des sujets variés tels que la technologie, le gaming, le streaming, et bien d’autres encore. Sa curiosité insatiable l’a poussé à explorer en profondeur ces domaines passionnants, lui permettant de partager ses connaissances et son expertise avec un large public.