Les domaines d’application de l’intelligence artificielle sont nombreux et le gaming s’est déjà approprié cette technologie qui est en train d’évoluer pour devenir plus réaliste. Leader des GPU dans le monde, Nvidia revient à la charge avec ACE et promet des interactions encore plus immersives avec les PNJ (Personnes Non Joueur) qui deviennent capables de répondre et de discuter avec le joueur en temps réel.
L’intelligence artificielle dans le jeu vidéo est déjà là
Les technologies basées sur l’IA sont nombreuses et le jeu vidéo en bénéficie déjà. Le DLSS (Deep Learning Super Sampling) de Nvidia et le FSR (FidelityFX Super Resolution) d’AMD sont issus des recherches autour des réseaux de neurones artificiels. Ces technologies permettent d’obtenir davantage d’images par seconde, sans sacrifier la qualité graphique des jeux.
Les derniers travaux d’Ubisoft permettent d’animer des personnages de manière réaliste, sans capturer la performance d’un acteur. La technologie ZeroEGGS est capable de produire des animations à partir de courtes séquences vidéos qui servent de modèle. Le travail des développeurs est ainsi simplifié et les jeux plus dynamiques.
Qu’est-ce que Nvidia ACE et Nvidia NeMo ?
Présenté lors du CES 2024, Nvidia ACE (Avatar Cloud Engine) permet d’animer les PNJ (Personnages Non Joueur) avec des mouvements et des expressions faciales réalistes. Calculés en temps réel, cela permet de proposer des personnages davantage convaincants dans les jeux vidéo. Le fabricant de GPU a également dévoilé des outils destinés aux développeurs, afin de faciliter l’implémentation de cette technologie.
Basé sur l’intelligence artificielle générative Nvidia NeMo, il s’agit d’un modèle de langage, à la manière d’un ChatGPT, capable de produire du contenu à partir de simples prompts. Dans la pratique, il suffit d’indiquer à l’IA dans quel univers se déroule le jeu, l’histoire du personnage et son caractère pour qu’il prenne vie automatiquement. Nvidia fournit une interface de programmation d’application (API) qui peut être intégrée dans n’importe quel applicatif, y compris les jeux vidéo.
Lors de la Game Developers Conference 2024, Nvidia a donné un peu plus d’informations sur cette solution clé en main. Les possibilités de cette technologie ont été expliquées au travers d’une démo, intitulée Covert Protocol et développée par Inworld AI. Les PNJ ont conscience du monde qui les entoure, sont capables d’apprendre et adaptent leur discours en fonction des interactions avec le joueur.
Comment fonctionne la démo Covert Protocol ?
Cette démo technique tourne sous l’Unreal Engine 5 et utilise des personnages 3D générés grâce à MetaHuman d’Epic Games. Elle exploite le kit de développement (SDK) de la société Inworld AI qui fait le pont entre ces modèles 3D et Nvidia ACE. Cela intègre la reconnaissance automatique de la parole Nvidia Riva (ASR) et Nvidia Audio2Face (A2F) qui se charge de produire des animations réalistes.
Les outils de développement proposés par Inworld AI servent de chef d’orchestre à toutes ces technologies et permettent de générer les dialogues en fonction des interactions et de produire des animations réalistes. Ils sont aussi capables de générer des voix avec des intentions précises, selon le sujet de la conversation ou de l’émotion. Dans la pratique, on pourrait ainsi obtenir des récits et des dialogues dynamiques, dictés par les choix du joueur.
Pour Kylan Gibbs, le PDG d’Inworld AI, cette démo ne fait “qu’effleurer ce qu’il est possible de faire”. C’est pour cette raison que le code source de Covert Protocol est proposé aux développeurs afin qu’ils s’en emparent pour aller plus loin. De cette manière, ils pourront plus facilement s’approprier ces technologies et se baser sur un modèle existant.
Neo NPC : la technologie d’Inworld AI pour les PNJ d’Ubisoft
Fruit de la recherche et développement de l’entreprise Ubisoft, Neo NPC va également dans ce sens et utilise l’intelligence artificielle pour proposer des personnages qui interagissent en temps réel avec les joueurs, leur environnement et d’autres PNJ. Une solution qui ouvre de nouvelles perspectives vers une narration dynamique et émergente.
L’éditeur Breton se sert des technologies d’Inworld AI et de leur modèle de langage LLM pour donner vie à ses personnages. Ainsi, les PNJ sont capables de tenir des conversations. Ils interagissent en fonction du contexte et de l’environnement, tout en produisant des animations en temps réel. Ils sont aussi en mesure d’aider le joueur dans ses choix stratégiques et pour faire avancer la mission.
Dans cette démo, qui se déroule dans l’univers de Watch Dogs, le PNJ donne des indications en temps réel au joueur. Il est capable de détecter les ennemis à l’écran et de trouver l’objectif principal de la mission. Ici, le personnage est complètement intégré à la diégèse du jeu et utilise naturellement le vocabulaire du hacking et de l’infiltration.
L’avenir du jeu vidéo passera par une IA réaliste
Pour le moment, Nvidia ACE et les outils d’Inworld AI n’en sont qu’au stade de démos techniques, mais il est certain que ces technologies vont rapidement intégrer les jeux vidéo à venir. L’avenir est incertain pour les comédiens de doublage et les acteurs qui prêtent régulièrement leurs talents pour incarner des personnages dans les jeux. Toutefois, l’IA apportera davantage de réalisme et d’immersion.
Ces nouvelles solutions pour les développeurs vont grandement faciliter leur intégration dans les jeux. L’IA est en train de bouleverser de nombreux secteurs et le gaming aura, lui aussi, le droit à sa révolution. Des histoires évolutives, une difficulté adaptative, des univers plus riches et plus réalistes sont autant de promesses faites par Nvidia ACE.
Suivez toute l’actualité de Son-Vidéo.com sur Google Actualités.