Retour au blog
March 31, 2017

Combinaison d'instruments virtuels et acoustiques

Introduction

Les musiciens réels sont des êtres humains, comme le prouvent des études récentes.

Les êtres humains ressentent des choses et ont des émotions. La musique qui nous fait ressentir des choses est encore, croyez-le ou non, créée par des êtres humains.

Ce qui nous ramène au début : les musiciens réels peuvent être la clé pour créer les émotions que nous éprouvons en écoutant de la musique.

Ce genre de théorème elliptique et virtuose est à la base d’un problème répandu dans la production musicale : beaucoup de gens écrivent et arrangent de la musique qui implique le son de musiciens réels mais ne peuvent pas se permettre d’engager de vrais musiciens.

Si l’on suit ma déclaration initiale, on pourrait conclure que peu de gens peuvent se permettre d’avoir des sentiments et des émotions dans leur musique. Mais non ! Pour le meilleur ou pour le pire, la technologie est là pour aider (note : léger sarcasme).

En tant que pianiste et claviériste moi-même, j’étais tout jeune lorsque le MIDI a commencé à éclore et que toutes sortes de sons sont devenus accessibles au bout de mes doigts. Tout d’un coup, je pouvais disposer d’un orchestre complet ou des percussions les plus étranges à jouer, sous les mêmes touches noires et blanches que j’utilisais pour mon piano acoustique. Les années ont passé et des échantillons de 4MB nous sommes passés à des bibliothèques qui nécessiteraient un disque dur entier.

Échantillonnant chaque articulation, les bibliothèques d’échantillons modernes sont capables de recréer méticuleusement tous les aspects timbraux d’un instrument. Certaines sont coûteuses et lourdes pour nos systèmes mais elles existent néanmoins et sonnent incroyablement bien.

Comme dans toute bonne série de science-fiction, au moment même où l’humanité semble submergée par les machines et que tout paraît perdu, une bande-son épique surgit (ironiquement réalisée avec des sample libraries) et le cours de la bataille change. Au fond, une voix nous rappelle sans cesse qu’il y a quelque chose chez les êtres humains réels qui ne peut tout simplement pas être capturé dans un échantillon.

Ainsi aujourd’hui, même si tout et n’importe quoi a déjà été échantillonné, les producteurs et studios professionnels prennent souvent soin de mêler “virtual” et “real” performances. Que se passe-t-il donc quand vous avez besoin du son d’un orchestre réel ?

L’un de mes premiers emplois comme musicien dans les ‘90s a été d’assister un chef d’orchestre et son orchestre lors d’enregistrements et de mixages pour certains des artistes pop les plus célèbres d’Italie. La plupart des meilleurs studios et arrangeurs/auteurs-compositeurs de l’époque utilisaient des bibliothèques d’échantillons pour poser le son orchestral de base, puis comptaient sur de vrais musiciens pour superposer de vrais instruments.

 L’idée était d’obtenir la masse et le poids du corps orchestral à partir de la banque sonore virtuelle et le détail, le réalisme et l’air des musiciens réels.

Dans cet article nous allons nous concentrer sur la superposition de violons, puisque j’ai récemment travaillé précisément sur cela. Cependant, les techniques et astuces que j’expliquerai ici peuvent être utilisées à votre avantage pour n’importe quel instrument chaque fois que vous avez besoin que des versions “virtuelles et réelles” coexistent et se mélangent.

The Starting Point

Il y a quelque temps, le compositeur et ami Noe a apporté dans mon studio un court morceau de bande-son qui comportait des cordes orchestrales et une piste de piano, dans le but d’y superposer un vrai violon afin d’obtenir un son plus émotionnel et réaliste. La base du morceau est déjà vraiment bonne. Écoutons-le tel qu’il m’a été apporté, simplement en sommant les stems bruts tels qu’ils ont été importés dans Pro Tools.

Piste d’accompagnement (Brouillon)

Setting Up The Live Room

Noe lui-même va jouer du violon sur cette piste, nous avons donc un avantage interprétatif clair d’avoir le compositeur et l’interprète étant la même personne.

Pour l’enregistrement, j’ai installé deux paires de microphones dans la plus grande salle de prise. Cette pièce fait presque 50sqm, de forme rectangulaire et construite dès le départ (proportions incluses) pour être utilisée à cette fin. Comme vous l’entendrez dans les exemples bruts, un grand soin a été apporté pour conserver une certaine queue de réverbération naturelle et éviter un son mort. Mais pour les instruments orchestraux, il s’agit tout de même d’un environnement très contrôlé comparé aux salles de musique de chambre classiques et aux salles de concert.

La première chose que j’ai faite a été de placer quatre chaises dans la salle et de les étiqueter “Front Left”, “Front Right”, “Rear Left” et “Rear Right”. L’idée est de capturer l’interprète quatre fois en jouant exactement la même partie, dans le but de mélanger différents “points de vue” pour obtenir ce son d’ensemble.

Pour les microphones, j’ai décidé d’utiliser une paire “close” (Neumann KM-184s), positionnée près des chaises, et une seconde paire “far” (Lauten Atlantis), très haute et très éloignée (près de 6 mètres, à vue de nez). J’aime enregistrer les cordes en “les regardant” depuis très haut. Mon raisonnement est que le son qui résonne depuis l’instrument posé sur l’épaule du musicien a tendance à briller et éclore verticalement, comme de l’air chaud.

Les 184s ont été envoyés vers un Mindprint DTC et les Atlantis vers une paire de Neve 1073s. Aucune compression n’a été utilisée mais les 184s ont été égalisées par le DTC et les Atlantis par un égaliseur Roger Schult w2377.

Sur les deux EQs, l’idée est de filtrer une partie des graves extrêmes et d’ouvrir l’air dans les très hautes fréquences. Les Atlantis étant loin, j’ai pu pousser 4-5dBs jusqu’à 23k et sur les 184s je suis allé plus prudemment puisque leur position plus proche pouvait rendre le contenu hautes fréquences un peu strident. Néanmoins, le caractère à lampe du Mindprint a complété le détail et la précision des 184s.

Le Mindprint DTC (pour la paire Close) et le Roger Schult w2377 (pour la paire Far) pendant l’enregistrement

Nous avons obtenu 4 bonnes prises pour chaque chaise, soit un total de 64 pistes (32 paires stéréo) si vous comptez.

Editing Time

  • Peu importe à quel point vous le détestez, le deuxième facteur le plus important pour que ces pistes se fondent est de faire du comping.
  • D’abord, j’ai regroupé les deux paires enregistrées par nom de chaise, de sorte que toute modification faite sur le groupe soit transférée à chaque microphone utilisé sur cette prise.
  • Ensuite, j’ai écouté une chaise à la fois à la recherche d’erreurs et de problèmes. J’ai fait du comping sur chaque prise afin de créer une bonne interprétation globale pour chaque chaise.
  • Troisièmement, j’ai comparé chacune d’elles à la partie d’orchestre virtuelle déjà présente, en notant les disparités de dynamique, les temps d’attaque et de relâchement, le portamento, etc.
  • Quatrièmement, j’ai ajouté des fondus d’entrée et de sortie à toutes les prises (en groupe, encore une fois) en écoutant la piste d’accompagnement originale afin d’harmoniser les performances avec l’original.
  • Cinquièmement, j’ai réécouté toutes les chaises en solo, d’abord les micros proches puis les micros éloignés, pour m’assurer que les cordes réelles fonctionnaient seules.

Une considération très importante avant d’aller aux extraits audio : une bonne dose de goût est toujours impliquée, et elle ne se développe qu’en écoutant le travail des autres et en pratiquant cela des millions de fois. Alors qu’une méthode solide est essentielle, procéder uniquement de manière mathématique lors de l’édition vous fera ôter tout le facteur humain des enregistrements, anéantissant complètement le but initial.

Écoutons comment le violon sonnait, complètement brut, dans les deux paires de micros. J’ai choisi les chaises Front Right et Rear Left pour vous donner une idée de deux côtés opposés. Essayez de repérer les petites imperfections que j’ai appréciées dans ces prises.

Comparons d’abord deux chaises opposées entre les deux paires de micros :

Cordes réelles, proches - chaise Front Right (Brut)
Cordes réelles, proches - chaise Rear Left (Brut)
Cordes réelles, éloignées - chaise Front Right (Brut)
Cordes réelles, éloignées - chaise Rear Left (Brut)

Maintenant, écoutons comment toutes les chaises sonnaient dans les deux paires différentes.

Cordes réelles, proches - toutes les 4 chaises (Brut)
Cordes réelles, éloignées - toutes les 4 chaises (Brut)

Et enfin, écoutons comment les deux paires sonnent en présentant toutes les chaises que nous avons enregistrées.

Cordes réelles, proches+éloignées - toutes les 4 chaises (Brut)

Que faut-il utiliser ? Micros proches, micros éloignés ou les deux ? Les trois solutions fonctionnent et/ou peuvent être adaptées pour fonctionner, ne vous inquiétez pas. Il est un peu trop tôt pour décider, nous verrons cela plus tard.

Processing

Travailler le son de ces prises peut sembler un peu différent du flux de travail habituel, mais pour moi cela repose sur un principe simple que j’applique toujours : les priorités.

Reverb and Panning

Dans ce cas, je voulais travailler la réverbération et le positionnement spatial dès que possible. Dans un cas comme celui-ci, j’aime utiliser le Waves S1 Imager. Dans un vrai orchestre, vous auriez les Primi (premiers violons) et les Secondi (seconds violons) légèrement à gauche, les altos et les violoncelles légèrement à droite et les contrebasses juste derrière eux, un peu plus à droite. Ce n’est évidemment pas une règle (il existe de nombreuses variations sur ce thème) mais en écoutant la piste d’accompagnement j’ai remarqué que cette règle générale de positionnement était respectée, donc mes cordes réelles devaient s’y conformer.

Le S1 Imager utilisé pour positionner All Close (gauche) et All Far (droite) dans le champ stéréo

J’étais impatient de mettre à l’épreuve le nouvel Exponential Audio R4. J’ai créé deux réverbérations différentes (pratique, appelées rev1 et rev2), avec l’idée que la seconde soit beaucoup plus sombre et avec un pré-délai plus long, tout en restant basée sur les mêmes paramètres principaux que rev1.

Je voulais accentuer la différence entre les micros proches et éloignés, tout en restant dans le même espace virtuel.

Les deux réverbes, telles qu’utilisées dans la session

Cordes réelles proches (Reverb1 ajoutée)
Cordes réelles éloignées (Reverb2 ajoutée)

Preparing The Backing Track

Après cela, je voulais préparer la piste d’accompagnement. D’abord j’ai décidé d’atténuer les Primi d’environ -7dB, ce qui signifie nous allons principalement remplacer les premiers violons par nos vrais violons. Ensuite, tout ce que j’ai fait était vraiment minimal, sauf peut-être ce que j’ai fait sur les contrebasses. Je voulais accentuer les graves extrêmes dans l’équilibre typique de “bande sonore de film” que vous entendez dans les salles de cinéma. Après tout, ceci sera utilisé pour une séquence cinématographique.

Contrebasses (original, uniquement réverbération)
Contrebasses (EQ3 + MaxxBass)

Écoutons la piste d’accompagnement complète (sans cordes réelles ajoutées pour l’instant) après mon traitement.

Piste d’accompagnement (traitée)
Écrit par Alberto Rizzo Schettino

Pianist and Resident Engineer of Fuseroom Recording Studio in Berlin, Hollywood's Musicians Institute Scholarship winner and Outstanding Student Award 2005, ee's worked in productions for Italian pop stars like Anna Oxa, Marco Masini and RAF, Stefano 'Cocco' Cantini and Riccardo Galardini, side by side with world-class musicians and mentors like Roger Burn and since 2013 is part of the team at pureMix.net. Alberto has worked with David White, Niels Kurvin, Jenny Wu, Apple and Apple Music, Microsoft, Etihad Airways, Qatar Airways, Virgin Airlines, Cane, Morgan Heritage, Riot Games, Dangerous Music, Focal, Universal Audio and more.