ブログに戻る
March 31, 2017

バーチャル楽器とアコースティック楽器の組み合わせ

はじめに

実際のミュージシャンは人間だ、ということが最近の研究でも示されています。

人間は感じ、感情を持ちます。人の心を動かす音楽は、信じられないかもしれませんが、やはり人間によって作られています。

ここで話を最初に戻すと、本物のミュージシャンが音楽を聴いたときに得られる感情を生み出す鍵になっているのかもしれません。

この種の省略的で技巧的な定理は、音楽制作における広範な問題の根底にあります:多くの人が実際のミュージシャンの音を含む楽曲を作曲・編曲するが、実際の演奏者を雇う余裕がないのです。

最初の主張に従えば、音楽に感情を持たせられる人は少ないと結論づけられるかもしれません。しかし、いい意味でも悪い意味でも、テクノロジーが助けてくれます(注:やや皮肉)。

ピアニスト/キーボード奏者である私自身、MIDIが盛り上がり始めた頃はまだ子供でした。あらゆる種類の音が指先で扱えるようになり、突然フルオーケストラや奇妙な打楽器が同じ黒白の鍵盤で鳴らせるようになったのです。年月が流れ、4MBのサンプルから、ハードドライブ一台分を必要とするライブラリまで進化しました。

各アーティキュレーションをサンプリングすることで、現代のサンプルライブラリは楽器の音色的な側面を細密に再現できます。中には高価でシステム負荷の高いものもありますが、いずれにせよ存在し、素晴らしい音がします。

優れたSFドラマのように、人類が機械に圧倒されて万事休すに見えるとき、(皮肉にもサンプルライブラリで作られた)壮大なサウンドトラックが流れて戦況が変わることがあります。深いところで、ある声が私たちにこう告げ続けます:サンプルでは決して捉えきれない何かが人間にはあると。

だから今日では、すでにあらゆるものがサンプリングされ尽くしていても、プロの音楽プロデューサーやスタジオはしばしば「”バーチャル”と”リアル”の演奏」を慎重に混ぜ合わせています。では、本物のオーケストラの音が必要になったらどうするのでしょうか?

90年代にミュージシャンとして最初の仕事の一つで、私は有名なイタリアのポップアーティストのレコーディングやミキシングの現場で指揮者とそのオーケストラをアシストしていました。当時、多くのトップスタジオやアレンジャー/ソングライターは、基本的なオーケストラの音をサンプルライブラリで作り、その上に実際の演奏者でオーバーダブ(実演を重ね)していました。

 アイデアは、仮想音源からオーケストラの重みと質量を得て、実演奏者からディテール、リアリズム、そして空気感を得ることでした。

この記事ではバイオリンのオーバーダビングに焦点を当てます。というのも、ちょうど最近その作業をしたからです。しかし、ここで説明するテクニックやコツは、“バーチャルとリアル”の共存と融合が必要なあらゆる楽器に応用できます。

出発点

少し前、作曲家で友人のNoeがオーケストラの弦とピアノトラックをフィーチャーした短いサウンドトラック曲をスタジオに持ってきました。目的はそこに実際のバイオリンをオーバーダブして、より感情的でリアルなサウンドにすることです。トラックの基礎は既に十分良く出来ていました。持ち込まれたままの状態、すなわちPro Toolsにインポートされたままの生のステムを足し合わせたものをまず聴いてみましょう。

Backing Track (Rough)

ライブルームのセッティング

Noe本人がこのトラックにバイオリンを弾くため、作曲者と演奏者が同一人物であるという明確な解釈上の利点があります。

トラッキングのために、私は大きめのライブルームにマイクを2組ずつ設置しました。この部屋はほぼ50平方メートルで、長方形の形状、目的のために(寸法まで)最初から設計されています。生のサンプルを聴けばわかるように、自然な残響のテイルを保持し、デッドサウンドを避けるよう注意が払われています。しかしオーケストラ楽器にとっては、これはクラシックのオーケストラ室やコンサートホールと比べると依然として非常にコントロールされた環境です。

最初にしたことは、部屋に4脚の椅子を置き、それぞれに“Front Left”、“Front Right”、“Rear Left”、“Rear Right”とラベルを付けることでした。同じパートを演奏する奏者を四度取り、それぞれを録音して、異なる“視点(point of views)”をブレンドしてアンサンブル感を出す、という考えです。

マイクには、近接用のペア(Neumann KM-184s)を椅子の近くに置き、遠景用のペア(Lauten Atlantis)を高く遠くに(ほぼ約6メートル)設置しました。弦楽器は上方から“見下ろす”ように録るのが好きです。私の考えでは、演奏者の肩に共鳴する音は縦方向に少し輝きと広がり(shine and bloom)を持つ傾向があり、ちょうど暖かい空気のように立ち上がるからです。

184sはMindprint DTCへ、AtlantisはNeve 1073sへ送りました。コンプレッションは使わず、184sはDTCでEQし、AtlantisはRoger Schult w2377のEQで処理しました。

両方のEQでは、極端な低域をフィルタリングし、極端な高域で空気感を開く(open up the air)ことを意図しています。遠くに置いたAtlantisは23kで4〜5dBほど押し上げることができ、184sは近接位置のため高域がきつくならないよう慎重に扱いました。それでもMindprintのチューブ的なキャラクターが184sのディテールと正確さを補完してくれました。

The Mindprint DTC (for the Closed Pair) and the Roger Schult w2377 (for the Fair Pair) during tracking

最終的に各椅子につき4テイクずつ、合計で64トラック(ステレオペアで32組)になりました。数えているならその通りです。

編集作業

  • どれだけ嫌でも、第2に重要な要素はこれらのトラックをコンピング(comping)することです。
  • まず、録音した2組のマイクペアを椅子名ごとにグループ化し、そのグループに行った編集がそのテイクで使用された各マイクに転送されるようにしました。
  • 次に、私は一つずつ椅子を聴き、ミスや問題を探しました。各テイクをコンプして各椅子の全体として良い演奏を作り上げました。
  • 第三に、既に存在するバーチャルオーケストラのパートと各テイクを比較し、ダイナミクス、アタックとリリースの差、ポルタメントなどの不一致をメモしました。
  • 第四に、全てのテイクに(再びグループで)フェードインとフェードアウトを加え、オリジナルのバッキングトラックと馴染ませました。
  • 第五に、全椅子をソロで改めて聴き、まずは近接マイク、その後遠景マイクで、実際の弦が単体でも機能していることを確認しました。

オーディオクリップの前に非常に重要な考慮点:ある程度の審美眼(taste)は常に関与し、それは他者の作品を聴き、何度も繰り返すことでしか養われません。確固たる方法論は重要ですが、編集を単に数学的に進めると録音から人間的要素をすべて取り除いてしまい、元々の目的を完全に否定してしまいます。

それでは、2つのマイクペアでのバイオリンの完全な生(raw)サウンドを聴いてみましょう。対極に近い例としてFront RightとRear Leftの椅子を選びました。そこで聴こえる小さな不完全さを見つけてみてください。私はそれらの不完全さを大切にしました。

まずは、2つの対極の椅子を両マイクペアで比較します:

Real Strings, Close - Front Right Chair (Rough)
Real Strings, Close - Rear Left Chair (Rough)
Real Strings, Far - Front Right Chair (Rough)
Real Strings, Far - Rear Left Chair (Rough)

次に、各ペアで全椅子がどのように聞こえるかを聴いてみましょう。

Real Strings, Close - All 4 Chairs (Rough)
Real Strings, Far - All 4 Chairs (Rough)

そして最後に、録ったすべての椅子をフィーチャーしたときに両ペアがどのように聞こえるかを聴きましょう。

Real Strings, Close+Far - All 4 Chairs (Rough)

どれを使うべきか?クローズ、ファー、または両方?どの解も機能しますし、あるいは機能するように調整できます。今はまだ決めるには少し早いので、後で決めましょう。

プロセッシング

これらのテイクの音作りは通常のワークフローと多少異なるように見えるかもしれませんが、私がいつも用いる単純な原則に基づいています:優先順位(priorities)です。

リバーブとパンニング

今回はできるだけ早い段階でリバーブと空間配置に取り組みたかったので、Waves S1 Imagerを使うのが好きです。実際のオーケストラでは、Primi(第一バイオリン)とSecondi(第二バイオリン)はやや左寄り、ビオラとチェロはやや右、コントラバスはその後ろでさらに右寄り、という配置が一般的です。これは当然決まりごとではなく様々なバリエーションがありますが、バッキングトラックを聴くとこの配置の一般法則が守られているように感じたので、実弦もそれに従わせる必要がありました。

The S1 Imager used to position All Close (left) and All Far (right) sets in the stereo field

新しいExponential Audio R4を試すのが楽しみでした。私は2つの異なるリバーブ(便宜上rev1とrev2と呼んでいます)を作成し、2つ目をより暗く、プリディレイを長めにしつつもrev1の主要パラメータに基づかせました。

クローズとファーのマイクの違いを強調しつつ、同じ仮想空間内にいる感覚を保ちたかったのです。

The two reverbs, as used in the session

Real Strings Close (Reverb1 added)
Real Strings Far (Reverb2 added)

バッキングトラックの準備

これが終わったら、バッキングトラックの準備に取り掛かりました。まずPrimiを約-7dB下げることにしました。つまり第一バイオリンは主に我々の実演奏で置き換えるということです。それ以外は本当に最小限の処理しかしませんでしたが、コントラバスには少し手を入れました。典型的な映画サウンドトラックのバランスで劇場で聴くような極低域を強調したかったのです。結局これはシネマティックなシーケンスで使われますから。

Double Basses (original, reverb only)
Double Basses (EQ3 + MaxxBass)

処理後のバッキングトラック全体(まだ実弦は追加していません)を聴いてみましょう。

Backing Track (Processed)
Alberto Rizzo Schettinoによって書かれました

Pianist and Resident Engineer of Fuseroom Recording Studio in Berlin, Hollywood's Musicians Institute Scholarship winner and Outstanding Student Award 2005, ee's worked in productions for Italian pop stars like Anna Oxa, Marco Masini and RAF, Stefano 'Cocco' Cantini and Riccardo Galardini, side by side with world-class musicians and mentors like Roger Burn and since 2013 is part of the team at pureMix.net. Alberto has worked with David White, Niels Kurvin, Jenny Wu, Apple and Apple Music, Microsoft, Etihad Airways, Qatar Airways, Virgin Airlines, Cane, Morgan Heritage, Riot Games, Dangerous Music, Focal, Universal Audio and more.