製品情報
導入事例
サポート・サービス
オンラインストア
会社情報

ホーム > サポート・サービス > 展示会/セミナー > 

レポート

レポート

特別緊急企画!「George Massenburg氏のTACセミナー」レポート

ジョージ・マッセンバーグが考えるこれからのサラウンドレコーディング
平成19年11月7日(水)

・セッション1 : 11:00~14:00

・セッション2 : 15:00~18:00

at Tac4Fセミナールーム

 

George Massenburg氏のTACセミナ-

 

2007 AESニューヨークにて、レコーディングエンジニア/プロデューサーとして著名なジョージマッセンバーグ氏とミーティングをする機会が有り、その際,_これからのライブレコーディングのあり方やライブ・ブロードキャスト手法について、_彼の考えるテクニック等をこれからのエンジニアの方にお伝えしたいとのオファーを受け、このセミナーが実現しました。その内容をレポートします。

 



第1部 温故知新な音楽制作

現在のスタジオにはとてもパワルフなツールが溢れていますが、私の見解ではそれらが決して適切に使われているとは思えません。アメリカやヨーロッパで、そして日本でもCDセールス減少が起きていますが,それらが決して(iTune Music Storeと言ったWEBサービスによる)ファイルシェアリングだけの要因では無いと考えて頂きたいと思います。私は世間全般に録音産業の中でとてもクオリティの高い音楽を提供する事が出来ていないと思います。この問題を打破するのが私とBlackbird Studioのミッションです。そして今の時代が最適な環境と言えます。と言うのもレコード会社からの影響無く、音楽制作が行えるからです。今日のお客さんの中にレコード会社の方はいらっしゃいませんよね?(笑)
ではこれから新しいメソッドと伝統的なメソッドを取り入れた作業方法についてデモンストレーションして行きたいと思います。

伝統的と申し上げたのは歌手も含めすべてのミュージシャンが同時演奏を行うライブレコーディングを指します。一つの部屋の中でアイソレーションも少なく,クロストークも大変多い,音漏れも勿論有り,クリックは使いません。
今Blackbird Studioで私がプロデュース/レコーディングしている新人のDawn Langstrothを例にお話しします。最近はレコーディングの際には必ずビデオ録画も行います。クオリティに関してはあまり気にしていないのでプロのカメラマンは使いません。撮られる事で別の緊張感をミュージシャンに与えるのは本末転倒だからです。なのでセカンドエンジニアがレコーディングボタンを押したら直ぐにハンディカメラに持ち替えて撮影しています。こうすれば和気靄々とした環境で、雰囲気を壊す事無く収録が行えますからね。

ライブでの同時録音とは言え,ベストテイクを作る為には編集作業も行います。そこで皆さんに良く聞かれるのが、どうやってクリックも使っていないテイクを編集するかと言う点です。その為にテンポマップ機能を活用しています。録音し終えたテイクにテンポマップをすべて作成して、ベストテイクの編集ポイントを探る為の視覚的ガイドラインにします。MIDIシーケンスの同期にも役立ちますしね。えー私は決してデジデザインのセールスマンではありませんが(笑)Pro Tools 7.4の新機能のエラスティックオーディオは更に自由度を持っているのでテンポマップを打ち込む意義がより増しました。
かつて70年代頃のアース・ウィンド&ファイヤーの録音時は,ドラム,ベース,ギター,ピアノのベーシックな編成で、ベストテイクが録れるまで、ひたすら演奏し続けたのですから。

とは言え,どんなに技術が進んだとしても,演奏のパフォーマンスを良くするプラグインは存在しません。数十年来,音程を修正し,テンポを直し,ドラムをクオンタイズし、MIDIピアノを使用した楽曲が蔓延していますが、それらはとても悪影響な結果を招いています。機械的にテンポを合わせる必要が無い事を,私の作品が証明しています。テンポが揺れているから楽曲が心地良く聞けなかったなどと、どなたも感じられませんでしたよね?

先日も,東京芸術大学でセミナーを行ったのですが、生徒の方々はテンポのアップ&ダウンがデータ上では激しいのに,聴感上全く気づかなかったと大変驚いていました。編集作業なんてライブ録音されたモノでは不可能だと思っていたと言う感想が印象的でした。何故私が個別ブースにミュージシャンを分けずに1ルームで録音作業を行っているのかはパフォーマンスを優先する事が理由では有りますが,決してサウンドに妥協している訳では無くBlackbird Studio Cのルームアコースティックの成功に有ります。ここでは直接音と反射音の比率が数字的には30dB以上と言う無響室なみのスペックですが、決して吸音では無く「拡散」によって実現しています。こうしたルームアコースティックにより、各ミュージシャンは彼らの生音を直接聞ける位のセパレーションでもマイキングのクロストークは必要十分に取れています。唯一ボーカルを部屋のコーナーにプラステッィクガラスの遮蔽板で囲って,各ミュージシャンはボーカルを聞く目的をメインにヘッドホンを使用します。ケースバイケースでAuto TuneやMelodyneでピッチ修正をする事も有りますが,十分なアイソレーションは取れています。

 

 

第2部 デフォルトとしてのサラウンドレコーディング


オーディオの将来形として、私はサラウンドが主になると考えます。各セッションのレコーディングでは常にサラウンドマイキング/ミキシングを行って居り,必要に応じて何時でも使用可能です。音楽産業の未来は,あらゆる形でサラウンドが必要とされると確信しています。先程のビデオ録画素材もそうですが、セッションが終了した後,これらの素材はプロモーションビデオやネット配信の為にも即座に使用する事が出来ます。

一般的にはプロデューサーがDVD Videoを作成しようとした時,マネージメントに「サラウンドトラックはどこだい?」と電話を掛けて来ますが,多くの場合,当然素材はありませんから、アップサンプルしたり、Unwrap, Logic 7などを使用して擬似的に粗悪な作品をリリースしてしまう訳です(笑)。

話を戻して、Pro Toolsセッション上で,私はサラウンドバスを使用してステム化してあります。そこからダウンミックスをして2MIXを作ります。
今まで逆のケース=ステレオミックスからサラウンドを構築していく事も試しましたが、結果として圧倒的にサラウンドからステレオの方が良い結果を得られたので,最近は常にサラウンドモニタリングがメインとなりました。ミュージシャンも心地良い環境で喜んでいます。我々エンジニアもその他のクレームが減った事も喜ばしい結果でした(笑)。

勿論リスナー側のサラウンド環境の対応が必要ですが,全世界で5000万台のサラウンドシステムのセールスが有る様です。すべてが十分なクオリティとは言えないでしょうが、始まりとしてはOKでしょう。

音楽ビジネスとして一つ重要なお話をします。私はもはやレコード会社と仕事はしません。過去3年間,直接アーティストマネージメント会社と契約をしています。現在はCDセールスのみならず、パーセントは少ないながらもネット配信や、出版物,携帯電話にと、楽曲の使用範囲は多岐に渡っています。ですから著作物/権利の管理として将来的には1つに纏まりマネージメント会社やアーティスト本人が所有して行くと考えるからです。私も現段階では交渉が大変ですが、契約をこうした方針で行っています。

本題に戻って,現在サラウンドのアンビエンスマイクはSANKENのCO-100Kを4本使用しています。ダビング段階等ではまだどちらの方向を正面にするとか決定出来ないからです。
将来的には8本に増やし,あらゆるアンビエントを収録して行きたいと思っています。4本のアンビエンスマイクサウンドは非常に有効でサラウンドスピーカーの中を歩き回って位置を変えても方向性を感じ取る事が出来ます。これに近接マイクを追加して輪郭を明確にします。すべてのスタジオで有効かは難しいです。Blackbird Studioのアコーステックも大きく影響しているからです。しかし手法としては試して頂く価値はあると思います。

話題を少し変えて8月にブエノスアイレスで行ったAESサラウンドコンファレンスについてお話しします。私とMartha de Franciscoの2人のキーマンで行うプレゼンテーションスタイルは,恐らく初めてかと思います。Marthaは主にクラシックにおけるサラウンドレコーディングについて、そして私はポップミュージックのサラウンドについての内容だったのですが,特にストリングカルテットの実践録音は反響ありました。Marthaは近接マイクに双指向性,ルームマイクに単一指向性を使ったマイキングデモを、私は、SHURE SM57を楽器に限りなく近づけたロックンロールスタイルをデモしました。
余談ですが、実はこのSM57を使用するスタイルはビートルズのエンジニアとして有名なGeoff Emerickがサージェントペパーズ等で使用していた録音手法です。彼とは長年の付き合いのなんですが、テクニックについて多くを語らない人柄なので、私も、あのストリングスサウンドを録ってみたいと散々トライしたのですが上手く行かず,とある機会に彼が苦労話で「ミュージシャンに57から動くなと指示するのが大変だった」との情報をようやく得たのでした。

実際に57サウンドを使用する際には,たっぷりとコンプを掛けてアタック感や存在感を際立たせます。双指向性マイクで部屋の空気感や定位を持たせた上で,この57を加えると,小さな再生環境でも芯がハッキリします。これはゲームミュージックやヘッドホンで聞いた時にも有効です。

色々なケースについて聞いて頂きましたが、最後に,今後のメディアの見解について,述べたいと思います。

将来的には物理的な媒体の可能性は低いと考えています。HD DVDやBlue Ray等の次世代メディアの普及が中々進んでいません。よりネットワークによるダウンロードスタイルが新しいパラダイムとして台頭してくるでしょう。「ホームザーバー」が各家庭の中核となり、iPodに転送して持ち歩いたり,ホームシアターで視聴したりとユーザーが好きな形で楽しむ環境が有力です。現実に音楽のダウンロードサービスはCDセールスに対して圧倒的なシェアを誇っています。Mp3サウンドはクオリティが悪いと言うのも,過去の物となって来ました。
携帯プレーヤーで十分なサウンドが得られます。Mp3で足りないもの,それはサラウンドですが、それも技術的に近い将来にサラウンドヘッドホンとして可能となります。車メーカーも多くがサラウンドサウンドに力を入れて来ていますので,iPodを車に装着してサラウンドを楽しむと言う事もポピュラーになるでしょう。

いすれにせよ,大切な事は,むやみにフォーマットを乱立しない様に,また制作サイドとしてもモニタリング環境の規格化が重要なポイントであると言えるでしょう。

 


 

追加情報

 

Q:ミュージシャンへのCUEの返しはステレオミックスしか返していませんでしたが、個別の楽器を返してミュージシャン側でミックスしてもらった方が演奏しやすいのではないでしょうか?

A:それは間違った考えです。
モニタリングというのは、ミュージシャンに気持ちよく聞かせるためにあるのではありません。
正しいバランスをモニタリングすることで、良いミュージシャンは自分のプレイをより効果的に補正していきます。
CUE送りは、ミュージシャンへ現在のバランスを正しく伝えるためにあるので、そこでバランスを矯正してしまうと最良の演奏を引き出せないという結果を招くことになります。
EW&Fのメンバーでさえ、CUEミキサーを使ったら全部のVRをフルにして「このモニターは音が悪い」という始末です。
私はミュージシャンのミキシング能力は信用していません。
唯一私がミュージシャンにCUEで別々に返す素材は、バンドミックス+Vocalのみです。


Q:アナログのDAW用バスミックスユニットなどが製品として出されていますが、このようなユニットや従来のアナログコンソールでのミックスと、デジタルでのミックスではどちらが好ましいでしょうか?

A:私はもう2度とアナログミックスバスでのミキシングはしないでしょう。
S/N、ダイナミックレンジ、どれをとってもDAWボックス内でのミキシングスペックの方が圧倒的に優れています。
アナログコンソールのエフェクト効果によい点があることは理解できますから、その効果が重要ならば手っ取り早くアナログコンソールを使っても良いと思います。
ただ私はそういう効果もデジタルで再現できますし、デジタルのミキシングの方がより細やかで正確なミキシングが出来ます。
私は特に、昔の方が良かったとは思いませんし、そもそもアナログのコンソールでのミックスで完全に満足できたことはありません。
現在のデジタルミックスの環境の方が、より満足のいく結果が得られることがわかっているので、DAWボックス内でのミックスを推奨します。
また、より細かいミキシングを可能にするため、現在のProToolsの48BITバスミックスが64BITに拡張されることを望んでいます。


Q:ビンテージエフェクターのモデリングをしたプラグインについてどう思われますか?

A:ルックスを同じにすることは、セール的な要因以外何も意味がないと思います。
アウトボードの機器、アナログ機器にはそれぞれにとっての使いやすさがあるように、DAWのオペレーションにおいては、それに適した使いやすさが必要です。
また、デジタルでの処理の一番の利点は数値ではっきりと設定が出来るところにあります。
良いエンジニアは、一つの音を聞いてその音に含まれる周波数成分を分離して把握し、一つ一つの周波数が何Hzであるか判断できるべきであり、その判断に基づいた設定をエフェクタに与えると言うことが正しいアプローチです。
そのためにプラグインのルックスでは周波数などの数値がはっきり見やすいことが重要だと考え、私のプラグインは大きく表示するようにデザインされています。


Q:レコーディング時にアナログのコンプレサーを介してA/Dすることと、A/D後にデジタルのコンプレッサーを用いることとどちらを好みますか?

A:単純にA/D後にデジタルのコンプレッションをかけると言うことは、その分のダイナミックレンジを損なうことになります。
ですから、コンプレッションが録音時に必要であれば良いアナログのコンプレッサーを介した後、A/Dして録音することを薦めます。

一覧へ戻る