Audio et jeu vidéo : comment la musique transforme l’expérience du joueur

En collaboration avec EICAR

La musique de jeu vidéo est née… avec le jeu vidéo. Si celle des premiers jeux se résumait à une série de bruits brefs, de « bips » rudimentaires, elle a connu une évolution comparable à celle des graphismes. Des sons criards des ordinateurs des années 1980, en passant par les cartes son 8-bit et 16-bit, les joueurs sont aujourd’hui habitués aux compositions pour orchestre au grand complet, avec une conception sonore (un sound design) qui s’adapte aux événements du jeu en temps réel. Une instru qui immerge le joueur toujours plus puissamment dans l’univers virtuel qui lui est proposé.

On parle peu de la musique de jeu vidéo. Pourtant, elle contribue à l’identité même du jeu qu’elle sert. Elle accompagne et mène le joueur dans toutes les émotions. Elle constitue le supplément d’âme de l’expérience offerte par le jeu et, souvent, la madeleine de Proust qui, plus tard, rappelle au joueur nostalgique son aventure et le chemin parcouru. Notons que sur le plan créatif, son élaboration n’a souvent rien à envier aux grosses productions musicales hollywoodiennes, parfois signées par des compositeurs de renom. Une autre partie, moins connue, touche au développement, à la programmation, aux scripts, qui permettent d’adapter la bande sonore à l’action de manière interactive et de jouer avec sa spatialisation.

Lisez ce billet pour plonger dans l’histoire de la musique du jeu vidéo, comprendre son évolution au fil des progrès techniques et appréhender son rôle, son apport au jeu vidéo ainsi que ses enjeux actuels et à venir.

 

Une brève histoire de la musique de jeu vidéo

La jeunesse d’une industrie : la musique soumise aux contraintes de la technologie

Quand le jeu vidéo gagne en popularité dans les années 1970, la musique est produite par des puces de synthétiseurs aux possibilités limitées. À cette époque, les dispositifs numériques ne permettent pas de transmettre la richesse des instruments enregistrés en studio. Afin que le joueur bénéficie d’un accompagnement musical, les compositeurs et programmeurs utilisent les sons qu’il est possible d’émettre à partir de puces électroniques spécifiques intégrées aux dispositifs.

Celles-ci convertissent le signal électrique en son analogique et le diffusent par les haut-parleurs. Les puces n’émettent que quelques sons courts, des sortes de « bip » rudimentaires et des effets sonores grossiers, un son à la fois, comme dans Pong, premier jeu d’arcade de sport, né en 1972. Trois ans plus tard, Gun Fight intègre une célèbre citation de la sonate pour piano n°2 de Chopin qui se déclenche lorsqu’un personnage meurt. Puis, les premiers jingles apparaissent : parmi les plus connus, celui de Pac-Man (1980), composé par Shigeichi Ishimura et Toshio Kai.

game-over-jeu-pacman
Crédit photo : Unsplash / Sei

Au début des années 1980, le nombre de canaux sonores augmente. C’est l’époque des premières cartes son pour PC et des consoles 8-bit. Les pistes musicales des jeux consistent en un fichier MIDI joué par la carte son du PC. Ces sons dépendent du hardware utilisé. La console NES de Nintendo (1983) possède cinq canaux, chacun ne pouvant émettre qu’un son à la fois. Les deux premiers produisent une onde sonore de type « carré » et sont destinés à la mélodie ; le troisième génère une onde de type « triangle » utilisée pour la basse ; le quatrième émet un bruit blanc, une sorte de souffle, utilisé pour le rythme ; le dernier permet la diffusion de courts échantillons sonores (nommés samples en anglais). La Master System de Sega (1985) possède, quant à elle, quatre canaux : trois de pure onde carrée et un de bruit très particulier qui peut être modulé pour générer un autre type de son (de type pulsé).

Les compositions sont essentiellement des mélodies accompagnées d’une basse et d’une batterie. Une configuration contraignante qui a pourtant vu la naissance de thèmes fondateurs, parmi lesquels ces deux classiques légendaires que sont Super Mario Bros. (1985) et The Legend Of Zelda (1986), composés par Koji Kondo. Enfin, Rob Hubbard est un pionnier de la musique de jeu vidéo qui révolutionne la création musicale sur l’ordinateur Commodore 64. Il tire parti du SID, la puce sonore de la machine et, avec plus de 80 jeux à son actif, montre que malgré la faible qualité sonore des ordinateurs de l’époque, il est possible d’être créatif et de composer des mélodies convaincantes.

Mais, il faut attendre la fin des années 1980 pour que de nouvelles avancées technologiques permettent, enfin, au son de trouver sa voix.

 

Le progrès technique libère la musique

À la fin de la décennie 80, les consoles 16-bit offrent de nouvelles possibilités techniques. Elles intègrent d’abord un son stéréo et une meilleure qualité sonore que les consoles 8-bit. Surtout, la synthèse FM est intégrée au jeu vidéo. La synthèse FM, née en 1973, est une technologie basée sur la modulation de fréquences électriques. Celle-ci permet de générer des signaux sonores naturels et variés, comme des sons de cloche, par exemple. La Mega Drive de Sega (1988) est une console 16-bit qui possède dix canaux sonores fournis par deux puces dédiées : la première (Yamaha YM2612) génère six voix FM, la seconde (Texas Instruments SN76489) produit quatre voix non FM (trois voix « carrées » et une de bruit). La première puce prend en charge la musique et la seconde les bruitages et les éléments musicaux additionnels.

Désormais, le joueur peut expérimenter la musique du jeu en continu, sans que celle-ci soit interrompue par les bruitages. La composition de Makoto Uchida pour Golden Axe (1989) illustre à merveille les capacités de la machine.

De son côté, la Super NES (1990) utilise une puce à huit canaux qui ouvre la voie aux effets sonores, comme le delay, une sorte de réverbération qui donne de la profondeur au son. Le thème de Mega Man X (1993) fait un usage intensif du delay.

Pour entendre la différence entre les générations de consoles 8-bit et 16-bit, écoutez le thème principal de Donkey Kong Country (1994). Le thème, qui démarre sur des sonorités 8-bit puis enchaîne sur des sonorités en 16-bit, met parfaitement en évidence l’évolution générationnelle.

Par ailleurs, en 8 ou 16-bit, les puces dédiées au son peuvent jouer des échantillons de musique numérisés, dits « samples PCM ». Ceux-ci permettent d’intégrer au jeu un court enregistrement sonore pouvant provenir de n’importe quel enregistrement, tels qu’un motif musical, une voix ou un bruitage. Les acclamations de la foule en délire dans le jeu d’arcade Smash TV (1990) sont un exemple des possibilités offertes par les samples PCM.

Mais chaque échantillon sonore pèse lourd et la généralisation de leur usage se heurte à une faible capacité de mémoire qui en restreint l’usage.

La baisse du coût de la mémoire, l’arrivée de processeurs plus performants et, surtout, l’apparition du CD comme support de jeu pallient ce problème. La PlayStation (1994) est équipée d’un lecteur CD-ROM et possède 24 canaux d’échantillons 16-bit lui permettant d’atteindre la qualité d’un CD audio. Notamment, le CD permet à la console de jouer des enregistrements d’instruments acoustiques. Une évolution qui ouvre la porte à des productions musicales élaborées dont le son se libère de plus en plus des contraintes technologiques. La bande originale de Tekken 2 (1996) propose aux joueurs des compositions aux sonorités modernes avec des orages plus vrais que nature, des voix parlées et des solos de guitare rageurs (signées Yoshie Arakawa et Yoshie Takayanagi).

De son côté, Nobuo Uematsu, figure de légende parmi les compositeurs de musique de jeu, signe la bande son pour un jeu d’un genre nouveau : la série des Final Fantasy. Avec Uematsu, naissent des bandes originales marathonesques de plus de 4h30 (Final Fantasy VII, 1997) et les joueurs tombent sous le charme des thèmes envoûtants joués par des formations orchestrales complètes qui invitent toujours plus le monde réel dans le monde virtuel. Qui peut se rappeler sans éprouver une certaine émotion, le titre Eyes on Me, chanté par Faye Wong dans une cinématique du jeu Final Fantasy VIII (1999) ?

Le passage à une production musicale enregistrée en studio ouvre ensuite un nouvel horizon de possibilités pour les concepteurs de jeux : motifs spécifiques attribués à des personnages ou des actions, usage des cordes et des vents pour susciter des émotions spécifiques, silences… Le jeu vidéo intègre aujourd’hui dans son processus créatif tous les attributs et clichés longtemps réservés au monde du cinéma. L’artiste danois Jesper Kyd est principalement reconnu pour la bande originale du jeu d’action-infiltration aux graphismes réalistes Assassin’s Creed (2016). Il combine instruments classiques, chœurs et musique électronique pour donner à cet opus une envergure digne d’un film hollywoodien. Harry Gregson-Williams, compositeur de musiques de film à Hollywood (notamment responsable de la BO de Shrek) est aussi le créateur de la musique de Metal Gear Solid (à partir du 2ème épisode, 2001). Une partition qui reprend tous les codes de la musique hollywoodienne et sa puissance émotionnelle. L’Américain Jeremy Soule a, quant à lui, collaboré à plus de 60 jeux. Il reste connu pour avoir créé la musique épique de Skyrim (2011).

Déliés des contraintes techniques, les artistes laissent libre cours à leur créativité dans tous les styles de musique imaginables et jouent avec les codes et l’histoire du jeu vidéo. Darren Korb travaille avec des éléments rythmiques échantillonnés mêlés à des synthétiseurs et des instruments acoustiques (Bastion en 2011 et Transistor, 2014). Andrew Prahlow a créé pour Outer Wilds (2019), une œuvre post-rock planante aux accents folk/bluegrass et dont la beauté n’est sans doute pas totalement étrangère au succès du jeu. Chipzel est une compositrice spécialisée dans le « Chiptune » (de chip : puce électronique, et tune : air), qui reprend à la sauce moderne les sonorités des jeux rétros, comme dans le trépidant Dicey Dungeons (2019). Enfin, avec la musique de Journey (2012), Austin Wintory est le premier compositeur de musique de jeu vidéo à être nominé pour un Grammy Award dans la catégorie « Meilleure bande originale pour un média visuel ». L’artiste a créé pour ce jeu, un univers sonore unique parfaitement adapté au style narratif du jeu.

Ainsi, si la musique de jeu vidéo emprunte les codes (et les compositeurs) de la musique de film, on peut se demander ce qui fait sa spécificité.

 

La musique de jeu vidéo : un genre à part entière ?

Le jeu vidéo ne « vit », en quelque sorte, que par l’action du joueur. Il est un média qui s’adapte. Un média interactif. Parce que le jeu vidéo est un média non linéaire, la musique qui l’accompagne doit s’adapter à cette contrainte organique. C’est précisément ce caractère adaptatif qui distingue la musique de jeu vidéo de toutes les autres compositions, et de la musique de film en particulier. Une spécificité dont témoigne l’histoire de la musique de jeu vidéo depuis ses débuts. Comment l’interactivité musicale se manifeste-t-elle dans le jeu vidéo ? Sous quelle forme peut-on l’observer ? Quel est son rôle ?

 

La musique interactive comme spécificité de la musique de jeu vidéo

Dans une recherche d’immersion du joueur la plus complète possible, la musique doit s’adapter en permanence au contexte du jeu. Un ennemi en approche ? Un nouvel item obtenu ? Un personnage qui meurt ? Musique et bruitages marquent chaque événement, la musique ne s’arrêtant que lorsque le jeu prend fin (après le défilement des crédits dignes d’un film du grand écran). C’est ce que l’on appelle la musique adaptative, ou interactive (ou encore dynamique). Une musique fonctionnelle où le volume, le rythme, la mélodie changent en réaction à des événements spécifiques dans le jeu. L’art de la musique de jeu vidéo réside d’ailleurs dans la gestion de ces transitions d’un événement à un autre. Des changements assez contrastants pour alerter le joueur mais paraissant fluides et naturels. Une difficulté technique qui s’ajoute à celle, calculée, de la manipulation des émotions du joueur.

La musique interactive pourrait elle-même être classée en trois grandes catégories : la musique narrative, la musique systémique et la musique gameplay. Ces grands types d’interactivité permettent de comprendre les rôles de la musique vidéoludique et d’en observer ses fonctionnements.

mains-joueur-ecran-telephone-jeu-video
Crédit photo : Unsplash / SCREEN POST

 

La musique narrative raconte l’histoire

La musique vidéoludique et les effets sonores participent à la narration du jeu au même titre que le texte ou les dialogues. Elle se situe en dehors du récit, c’est-à-dire que les personnages du jeu ne l’entendent pas. Elle n’est destinée qu’au joueur dans le but de lui apporter des informations non textuelles sur un lieu, un personnage ou une situation particulière. Un schéma hérité de la musique de film et dont le double objectif est d’aider le spectateur/joueur à identifier les traits principaux des éléments du jeu et de créer des ancrages émotionnels. Comme dans les films, les compositeurs jouent avec les tonalités et les couleurs des instruments pour retranscrire des ambiances singulières : un clavecin entonne un thème princier, léger et insouciant ? Bienvenue au château de la princesse Peach (Mario 64 sur Nintendo 64, 1996). Quelques notes de synthé lourdes et tout droit sorties des abymes en mode mineur ? Vous pénétrez le monde souterrain, volcanique, apocalyptique de Bowser, le big boss (ibid.)

L’interactivité entre le joueur et le jeu a toujours été une préoccupation des programmeurs. En 1972, Pong faisait déjà retentir un « bip » pour marquer chaque frappe de la raquette du joueur, un second « bip », différent du premier, pour indiquer les rebonds de la balle contre les bords de l’écran, et un bruit dédié lorsque le joueur perd la partie. En 1978, le classique Space Invaders, déclenche un « bip » pour chaque alien éliminé et introduit une musique à chaque approche d’un vaisseau ennemi.

Plus tard, les boucles musicales et l’ajout de bruitages de plus en plus variés améliorent l’interactivité du joueur avec le jeu. À l’ère de la musique 8-bit, Super Mario Bros. (1985) et The Legend of Zelda (1986) sont des piliers de la musique de jeu vidéo et du sound design. Les thèmes s’adaptent à l’ambiance des mondes et changent dès que le héros passe de l’un à l’autre, parfois au sein d’un même niveau. La musique change également lorsque Mario change d’état : une musique retentit lorsque le plombier moustachu ingère un champignon qui le fait grandir et une autre musique « plus rapide » se fait entendre lorsque le héros attrape une étoile qui le rend momentanément invincible. Les bruitages aussi sont variés : Mario possède un son pour le saut, un pour la frappe, un pour le lancer, etc. Autant d’attributs qui immergent le joueur dans le jeu et l’incitent à poursuivre l’aventure. La licence fête ses 37 ans en 2022 et la recette de ce jeu de plateforme en 2D a relativement peu changé depuis sa création. Pixels et sons 8-bit fascinent le joueur autant que les mondes virtuels super réalistes et ultra-sophistiqués produits de nos jours. Nul besoin donc, d’une partition flamboyante jouée par l’orchestre au complet pour susciter chez le joueur de puissantes émotions.

Lorsqu’on aborde le sujet de la musique narrative, on peut difficilement ignorer Journey (2012) comme exemple de jeu moderne où le concept de musique narrative a été poussé au plus loin. Dans celui-ci, le joueur est confronté à un monde dans lequel les informations textuelles conventionnelles in game (dans l’univers du jeu) sont inexistantes et les personnages muets, ne communiquant entre eux qu’à l’aide de sons. La musique de Journey, principalement orchestrale, fait converser instruments réels (violoncelle, flûte, viole, harpe…) et instruments virtuels issus de logiciels (le reste des cordes, cloches, timbales, cymbales…).

Dans une interview pour TheSixthAxis, le compositeur Austin Wintory définit sa création comme un « grand concerto pour violoncelle où le joueur serait le violoncelle et le reste des instruments l’univers dans lequel le personnage évolue ». Pour composer sa musique, Austin Wintory a travaillé avec le créateur sonore du jeu et l’équipe de programmation afin que le développement musical s’adapte le plus possible aux actions du joueur et s’intègre parfaitement à l’univers sonore. Question de cohérence et de cohésion. Un univers vidéoludique homogène qui sait gommer aux yeux du joueur la distinction entre musique et univers sonore est un univers crédible qui accentue ses chances de happer le joueur.

Toutefois, la musique narrative possède les défauts de ses qualités : située en dehors du récit pour développer des thèmes musicaux puissants, elle pénètre peu les mécaniques de jeu. Parce qu’elle est quasiment indépendante du gameplay, la musique narrative ne pousse pas les possibilités d’interaction du joueur avec le jeu à leur maximum. Pour ce faire, les créatifs ont imaginé une musique plus intégrée aux mécaniques de jeu, une musique systémique, qui permettrait au joueur de mieux interagir avec lui.

 

La musique systémique au service du gameplay

On définit comme systémique, une musique mise en place au sein d’un système de jeu. Alors que la musique narrative ne fait qu’accompagner musicalement l’univers de fiction, la musique systémique peut interagir avec les règles internes. L’interactivité musicale pousse ainsi son lien avec l’univers du jeu en se tournant vers les règles de gameplay (les mécaniques de jeu) et les objets présents dans le récit. La musique est alors soumise aux règles de ce système et requiert une mise en place technique précise.

L’un des effets les plus remarquables de la musique systémique est une interprétation musicale des actions et événements du jeu à chaque instant. En ce sens, la musique systémique se rapproche d’un effet cinématographique appelé mickeymousing. Nommé ainsi en référence aux productions cinématographiques de Walt Disney, cet effet désigne une musique qui illustre musicalement chaque action visible à l’écran. Imaginez, par exemple, un personnage d’animation qui chuterait dans des escaliers.

L’effet mickeymousing reviendrait à utiliser un instrument dont le musicien, pour illustrer la chute, jouerait une descente des notes à chaque rebond du personnage. Ainsi, la musique systémique se lie plus étroitement avec l’image et diffuse sa musicalité dans l’univers visuel jusqu’à se confondre avec le sound design et devenir informative. Or, si le mickeymousing accompagne une action unique dans le film (linéaire), le jeu vidéo peut proposer au joueur de vivre plusieurs fois la même séquence, selon la volonté du joueur (non-linéaire).

Un exemple de musique systémique informative : dans Xenoblade Chronicles 2 (2017), la musique est liée, entre autres, au système de combat. Lorsque le personnage joueur évolue dans le jeu, un thème A joue jusqu’à l’instant où un ennemi repère le personnage joueur. Un thème B remplace alors le thème A et, ce faisant, alerte le joueur d’une rencontre ennemie tout en le faisant passer émotionnellement dans une posture de combat. Puis, lorsque le combat est engagé, un thème C démarre. Cette mécanique musicale récurrente informe le joueur sur un type de situation et l’invite à rester à l’écoute de son environnement sonore.

Mais la musique systémique laisse encore le joueur à l’extérieur de l’univers du jeu. Pour accroître son immersion, les game designers ont voulu que le joueur puisse agir directement sur la musique, transformant celle-ci en mécanique de jeu.

 

Inception musicale : musique gameplay et musique à l’écran

Troisième élément de cette classification de musique fonctionnelle, la musique gameplay et la musique à l’écran.

La musique à l’écran recouvre les musiques qui sont entendues dans le monde fictionnel. Dans Rayman Origins (2011), ce procédé est utilisé comme point de départ de l’aventure : la musique produite par les personnages agace la vieille dame du dessous qui lance une attaque contre eux afin de les capturer. Dans Fallout 3 (2008), jeu d’aventure postapocalyptique, le joueur incarne un personnage qui doit survivre dans une Amérique dévastée. En guise de bande originale, il écoute, via la radio du jeu, des musiques jazzy qui accentuent la désolation des lieux et font naître une certaine nostalgie chez les personnages qui se remémorent des souvenirs d’un temps révolu.

La musique gameplay, quant à elle, se définit par le fait qu’elle crée un lien entre les actions du joueur et l’existence de la musique : le joueur peut interagir avec la musique du jeu, voire la détourner, et en être maître. C’est le cas dans Hitman 2 (2018) où le personnage joueur éteint une radio pour attirer un garde et l’éliminer (en prenant soin de laisser le garde rallumer la radio avant de s’en débarrasser en toute discrétion). Dans Grand Theft Auto: Vice City (2002), le joueur peut écouter un grand nombre de stations de radio en montant dans les voitures qui sont à sa disposition dans le jeu. Parmi celles-ci, Flash FM joue des tubes des années 1980 du monde réel (Billie Jean de Michael Jackson, Self Control de Laura Branigan…). Fever 105 diffuse également des morceaux du monde réel sur une thématique R&B, disco et soul. La radio est animée par un animateur in game nommé Oliver Biscuit. Les personnages non joueurs (PNJ) écoutent la station, notamment Lance Vance, un escroc notoire du jeu.

Qu’ils soient issus de musique gameplay ou de musique à l’écran, certains moments de jeu dépendent entièrement de la musique qui se rend alors essentielle à la progression du joueur. Dans The Legend of Zelda : Twilight Princess (2006), le joueur doit prêter l’oreille à la mélodie que joue Skull Kid pour retrouver son chemin. Une mécanique qui fait écho à The Legend of Zelda : Ocarina of Time (1998) où le joueur doit suivre la musique pour rejoindre le Temple de la forêt à travers les Bois perdus. Dans ce même opus, le joueur doit aussi jouer des mélodies à l’ocarina en effectuant des actions précises à la manette. Des actions entraînant un impact direct sur la musique en jeu et qui engendrent des conséquences importantes pour la progression du joueur.

Enfin, la progression des jeux musicaux tels que Guitar Hero (2011) ou Fract OSC (2014) est, de toute évidence, conditionnée à la capacité d’action du joueur, soit en produisant directement de la musique pour le premier (via un périphérique en forme de guitare), soit en résolvant des énigmes musicales pour le second.

La musique de jeu, malgré ses nombreuses fonctions et applications, n’a qu’un seul objectif : améliorer constamment l’immersion du joueur. Pour ce faire, elle profite des avancées technologiques qu’elle exploite au service d’une interactivité croissante et de nouvelles expériences que ces évolutions techniques pourraient offrir au joueur. Quelles sont ces nouvelles possibilités ?

Podcast


Interactivité et immersion : la technologie au service de l’expérience du joueur

Dans la quête d’une immersion toujours plus complète du joueur, l’apport des logiciels de sound design est considérable. Des suites complètes d’outils de conception et de développement facilitent le travail du concepteur sonore dans sa création d’expériences interactives, notamment lorsqu’il s’agit de projets à grande échelle.

Le sound designer est confronté à deux grandes problématiques liées à la gestion de la musique dans le temps et dans l’espace.

 

La musique dans le temps : booster la synchronisation entre musique et image

La production vidéoludique se complexifie et évolue vers des contenus toujours plus riches. Les éditeurs proposent aux joueurs des extensions et des niveaux additionnels (DLC) pour enrichir et faire vivre leurs titres. Dans le même temps, des jeux dits « à génération procédurale » nécessitent de préparer des extraits musicaux toujours plus importants tout en conservant un rendu final cohérent et harmonieux. Or, la synchronisation de la musique à l’image est un travail fastidieux et chronophage et les acteurs de la chaîne musicale du jeu vidéo doivent s’adapter à l’évolution permanente du marché.

De plus, les budgets de production pour un jeu vidéo s’élèvent parfois à des millions d’euros, avec pour les plus grosses boîtes, 300 personnes travaillant sur un même projet pendant plusieurs années. La production vidéoludique, comme tout business, est soumise à la loi de la rentabilité. La production musicale est donc, elle aussi, naturellement assujettie à cette contrainte. L’enjeu est donc de taille pour certaines agences qui cherchent à optimiser leur travail.

De nouveaux outils faisant appel à l’intelligence artificielle facilitent cette étape de la postproduction. Des logiciels interactifs de génération musicale sont spécifiquement dédiés au jeu vidéo. C’est le cas de MuseMind par exemple, qui permet de travailler un fichier musical, ou plusieurs pistes d’un même morceau, en le décomposant à volonté pour le caler avec une extrême précision sur des images. MuseMind s’intègre dans le workflow habituel du concepteur sonore, de l’intégrateur audio ou du compositeur, entre les outils dédiés à la station audionumérique (Pro Tools, Cubase…) et le moteur audio (Wwise, Fmod…).

Pour les compositeurs, MuseMind permet de contrôler et piloter l’usage de la musique, de packager la musique pour une exploitation dans le jeu vidéo. Pour les audio-designers ou les intégrateurs audio, le logiciel crée, par exemple, des boucles musicales complexes de musique procédurale ou adaptative, automatiquement. En automatisant des tâches fastidieuses et chronophages, MusicMind fait gagner du temps à l’opérateur et optimise les interactions entre les différentes équipes son.

Ainsi, les logiciels de synchronisation spécialisés proposent leur solution moyennant un pourcentage infime sur des budgets souvent colossaux. Le modèle économique de MuseMind se situe au moment de l’acquisition des droits d’un morceau de musique : le client achète un plugin qui, en fonction de son utilisation, déclenche un pourcentage sur le prix des droits. Une solution qui a séduit Ubisoft, mastodonte français du jeu vidéo. Mais cette proposition s’étend aujourd’hui partout où l’image a besoin de musique. Car, si le monde du cinéma reste attaché à un certain artisanat et réalise encore montage et synchronisation « à la main », les agences de publicité, par exemple, sont elles aussi confrontées à des problématiques de temps.

 

La musique dans l’espace : mixage dynamique et audio spatialisé

Les sons d’un jeu sont rendus par ce qu’on appelle un moteur son dont le rôle est de restituer l’ambiance d’un jeu tel que le joueur l’entendrait s’il était lui-même présent dans l’univers du jeu. Le moteur son est actif en permanence pendant que le jeu est en cours d’exécution. Il joue l’ensemble des musiques et sons tels qu’ils ont été programmés dans le code du jeu. Comme vous l’avez vu, un moteur son doit au minimum permettre de jouer des sons ou des musiques sur différentes pistes afin de permettre à plusieurs sons de se jouer en même temps.

De nos jours, des fonctionnalités plus avancées sont disponibles, qui permettent d’agir sur des paramètres variés (volume, tonalité) ou d’appliquer des effets encore plus avancés de type tridimensionnel ou de modelage du son en fonction de l’environnement : des bruits de pas, par exemple, résonneront différemment dans une grotte ou dans une chambre.

Les effets peuvent être appliqués directement sur les fichiers audio au préalable. Toutefois, le fait de pouvoir appliquer les effets pendant le déroulement du jeu offre au concepteur une plus grande souplesse d’utilisation. C’est l’intérêt principal des logiciels de traitement sonore comme Wwise qui permettent de mixer les sons dynamiquement en fonction des événements du jeu et des changements de conditions.

table-mixage-son
Crédit photo : Unsplash / James Kovin

Les compositeurs et programmeurs peuvent aujourd’hui influer sur la propagation du son dans l’espace par la maîtrise de l’acoustique virtuelle. Un progrès technique qui offre une perception sensorielle nouvelle. Le logiciel de spatialisation audio Wwise permet aux compositeurs de créer des musiques adaptatives avec une gestion des transitions assurant la lecture du meilleur segment de musique possible à tout moment.

Wwise dispose également d’un éventail de synthétiseurs sonores intégrés, donnant aux concepteurs sonores le pouvoir de générer une variété infinie de sons avec un faible impact sur les ressources. Plusieurs plugins intégrés de haute qualité, ainsi que des plugins partenaires et développés par la communauté, peuvent être utilisés afin de cibler les besoins spécifiques des projets interactifs.

 

Quel avenir pour l’interactivité musicale ?

Le jeu vidéo bâtit son existence sur des supports technologiques qui évoluent en permanence. L’audio, qui accompagne le jeu vidéo depuis ses premiers balbutiements, en se refondant sans cesse ; s’est émancipé de nombreuses contraintes technologiques et a aujourd’hui trouvé une voix convaincante. Les évolutions de la technique ont permis la naissance de créations sonores de haut vol et à la puissance d’évocation sidérante, si bien qu’aujourd’hui, l’interactivité d’un jeu dépend certainement plus de l’approche du compositeur ou du directeur artistique que des mécaniques offertes par le jeu lui-même. Est-ce à dire que l’interactivité musicale dans le jeu vidéo a atteint son plein potentiel ? Il semble que pour nombre de systèmes de jeux actuels, la conception sonore qui lui est attribuée apporte peu de changement, sinon aucun, sur le gameplay et l’expérience vécue.

Une approche qui rappelle au joueur une conception primaire du rôle de l’environnement sonore vidéoludique, ainsi relégué au rôle de faire-valoir d’une mécanique de jeu. Pour Olivier Derivière, compositeur de musique originale, primé à l’IFMA (International Film Music Critics Association) et questionné dans Musique et jeux vidéo, de l’interactivité d’un média singulier (Adrien Soulier, 2016), si l’interactivité vidéoludique semble piétiner, c’est à cause de la méconnaissance, par les créatifs eux-mêmes, des possibilités qui leur sont offertes.

Ainsi, selon Olivier Derivière, tout se passe comme si les créatifs n’utilisaient pas les possibilités mises à leur service par les ingénieurs et les concepteurs des moteurs sons. Quel avenir, alors, pour l’interactivité musicale dans le jeu vidéo ? L’avènement de la réalité virtuelle – et plus récemment, du metaverse – semble orienter le joueur vers son immersion physique complète, dans un monde à 360°. Une proposition qui amène avec elle beaucoup de questions sur l’avenir et la place du son dans le jeu vidéo. Car si les technologies de synchronisation, de spatialisation audio et de mixage dynamique semblent être arrivées à un degré de maturité éblouissant, il reste à savoir comment les créatifs du jeu vidéo s’empareront de ces technologies pour toucher toujours plus les cœurs des joueurs.

« Pour répondre à la somme des évolutions techniques et artistiques de l’industrie du JV dans le domaine du son, et à la demande croissante du marché du travail, l’école EICAR propose des modules de formation orientés vers l’audio pour le jeu vidéo au sein de son cursus ingénieur du son à l’image. L’objectif de cette formation est de permettre aux étudiants de développer leurs compétences afin de prendre en charge la création complète de la bande son pour un jeu vidéo. Devant les possibilités quasi infinies de création, la formation s’organise autour de workshops techniques orientés sound design et intégration d’une part et de séminaires dirigés vers la direction artistique d’autre part » explique Clément Hallet, Directeur des études au sein de l’EICAR.

jeu-video-musique-audio
Crédit photo : Unsplash / Yara

 

Intéressé par cette formation ? Envie d’en savoir plus l’EICAR ? Rendez-vous sur sa page dédiée !

Page école EICAR

Tag :

emoji-email Ne manquez aucune actualité, abonnez-vous !

Chaque semaine, le meilleur de la communication et du digital directement dans votre inbox...