今回は、コンサート前の時間を利用してd&b audiotechnik Japan主催によるd&b Soundscapeのワークショップが実際のFOHブースを使用して行なわれました。講師には今回のFOHエンジニアであるJohn Gale氏とシステムエンジニアのJack Blenkinsopp氏があたり、実際に使用している状況の説明や使用に際しての注意事項、実際の音源を使用した2chとd&b Soundscapeとの比較試聴など、エンジニア自身の経験に基づく充実した内容のワークショップとなりました。
 
リポート:三村美照(M&Hラボラトリー)
画像: ワークショップの様子。コンサート本番前に実際のシステムを使って行なわれた

ワークショップの様子。コンサート本番前に実際のシステムを使って行なわれた

画像: ワークショップでは、普段聞くことのできない現場ならではの話しを聞くことができた。

ワークショップでは、普段聞くことのできない現場ならではの話しを聞くことができた。

─── 本日はお集まり頂きまして有り難うございます。最初に本日の講師をご紹介致します。FOHエンジニアのJohn Galeさんと、システムエンジニアのJack Blenkinsoppさんです。

画像: FOHエンジニアのJohn Gale氏。このツアーには5年前のスタート時から関わっている

FOHエンジニアのJohn Gale氏。このツアーには5年前のスタート時から関わっている

d&b Soundscapeとの出会いと印象

─── では早速質問させて頂きますが、Johnさんはいつ頃から今回のビョーク公演に関わっているのですか?

John このコーニュコピアのツアーは今年で5年目になりますが、最初はプロダクションの方からやらないかとのメールが届きました。

─── この公演をイマーシブ・オーディオでやろうとしたのはどのような経緯だったのですか?

John ビョーク本人から今回のショーを全周のサラウンドでやりたいから何が一番良いシステムか調べて欲しいとリクエストがありました。彼女はレコーディングではドルビーサラウンドなどは使っていましたからね。

─── d&b Soundscapeとの出会いはどのようなものだったのですか?

John 5年前にd&b audiotechnik Great Britainのテクニカル・ディレクターが、ある教会を借りてマルチトラックが再生できるシステムと共にd&b Soundscapeのデモを行なってくれました。その時は360のシステムでした。

─── どのようなところが他社と比べて良かったのですか?

John 音を定位させるのにレベルとディレイを使っていますのでその定位感が最も良かったと感じました。更に、ディレイを使っているシステムであることを最大限利用して、左右の定位だけでなく前後方向の定位(奥行き感)が分かるようなデモをして貰いました。また、色々な会場の大きさの違いに対応できるスケーラビリティーの良さを感じたのと同時に、一連の作業のワークフロー自体も簡単だと感じました。

─── 次にプリプロの時のお話を聞かせて下さい。

John フランスの離島にある灯台の中でプリプロを行なったのですが、ビョーク本人と作曲家のバーガー氏、そしてd&bチームとでバッキングトラック(Pro Tools)を使って音の定位や動きを確認していました。その時のYouTubeがあると思います。( https://www.youtube.com/watch?v=37Oy7WsIBlw
 次にTVスタジオに移動してバンドを入れたテクニカル・リハを行ない、コンソールやDS100も組んでデータ作りを行ないました。

─── 続いてjackさんにお伺いしますが、どの段階で参加されましたか?

Jack 灯台でのリハの後から参加しました。

─── d&b Soundscapeの最初の印象は如何でしたか?

Jack 通常のステレオシステムとは全く異なり、ミックスするのに広い空間を利用でき、オブジェクトがステージ上のどこに配置されているかがハッキリと分かるという印象でした。

─── 最終的にd&b Soundscapeに決めた理由は何ですか?

John 多くの機能を持っていることと、音の定位感ですね。(レベルだけでなく)ディレイを使って定位させているところに魅力を感じました。そして、d&b Soundscape独特のFunction Groupという概念で全体の制御を行なうという部分がとてもスマートなので、色々と可能性が広がると感じました。

今までどのような会場で?

─── このツアーは既に4年間行なわれているとのことですが、最も大きな会場は何処でしたか?

John ロンドンのO2アリーナで16,000人の会場です。使用したのは今回と同じ180と両サイドにエクステンションのサイドフィル、それにディレイ・スピーカーを加えたシステムで行ないました。

Jack この時に私達が要求して新しくDS100に加わった機能としてディレイ・エンベッテッドというのがあるのですが、これはファンクション・グループの新しい機能で、ディレイFGから必要の無い音を出さないようにする機能です(※1)。

─── 他に印象的な公演はありましたか?

Jack メキシコとオーストラリアの公演は奥行きが85m程もある大きなテントで行なったのですが、ステージに近い方に1つの360を組み、後方に同じくディレイとして360システムを組みました。ここは後部客席が一段高くなっていて、スピーカーの設置や頭上のスペースの確保、サラウンドスピーカーを吊るすポイントなど少し苦労しました。 この時の模様はYouTubeにアップされていると思います。( https://www.youtube.com/watch?v=1sBf7w93pAI

─── 他にd&b Soundscapeの良さを感じたところはありますか?

Jack 会場の規模が変わった場合でも、基本的にはニーズに合わせてスピーカーの数の増減で対応するのですが、その際の再プログラミングはほとんど必要ありません。 つまりシステム全体のスケールアップとスケールダウンが非常に簡単に行なえるところですね。

※1:ディレイ・エンベデッド
例えば、360システムでディレイFGを設定した場合、ディレイFGは基本的にそのスピーカーがセットされている位置よりも前方(ステージ側)にあるオブジェクトの音を補助する為に、図のように★の位置にオブジェクトを置いた時は従来だとディレイFGからも音が出てしまい不都合が起きる。そこで、メインFGより外側にオブジェクトが置かれた場合にはディレイFGからはその音が出ないようにする機能。つまり、ディレイFGはメインFGにあるオブジェクトの音だけを補助するようにする機能

図1 ディレイ・エンベデッド説明図

システム設計ワークフロー

─── 次にシステム設計のワークフローに付いてお伺いしますが、最初に行なったことは何ですか?

Jack まず、ArrayCalc を使用してスピーカーを配置しますが、今回はステージ上にビデオ スクリーンがあるため、キャビネットの底部は床から 11.5m以上低くすることはできません。これは、このような会場では特に厳しい条件となります。 更にその間には狭いバルコニーもありますしね。 メインFGは通常5つのアレイがあれば十分な解像度が得られます。 間口が広い場合は、その両側にエクステンションを設ける場合もあります。この作業を行なうとき、ArrayCalc には Soundscape というタブがあるので、これを使うと全体の配置がどのようになっているのかイメージしやすくなります。

─── 今回のシステムについて説明頂けますか?

Jack メインFGにはKSL14台のアレイを5列使用しています。その外側にV12を12本使用しサイド席用にアウトフィルを設置しています(詳細はテクニカルリポート編の「アウトプット・システム」を参照下さい)。このアウトフィルはモノ送りにしており、メインFGの音をミックスし、距離差を整合させて(ディレイを入れて)出しています。この時、メインFGに定位させている音はセンター以外のポジションでは左右のエクステンションまでの距離が変わるので、それも含めてディレイ補正された信号を左右のエクステンションにそれぞれ送っています。つまり左右のアウトフィルでは違うミックスが送られています。このようにすることでSoundscapeが持つ奥行きと空間の感覚を得つつ、メインシステムではカバー出来ない会場のサイド部分をカバーしています。つまり、このようなサイドの客席でもメインFGの端の音を聞くのではなく、全体のイメージを正確に聞くことができるようになります。この部分のFG名称は モノラル・アウトフィル・エンベデッドFGです。

 一方、フロントフィルFGはY10Pが10台と、1階のコーナー部分を補助するためにV10Pがグランドスタックで上手下手に1台ずつ設置されています。サブFGは床にSL-Subが2段スタックされたものが10ヶ所設置されているのと、フライングで4本吊っています。

チューニングについて

─── 次にチューニングのことを聞いてみたいと思います。

Jack まずArrayCalcの「Alignment」タブでレベルを事前に調整して確認します。次にマイクを立てるのですが、2パターンを測ります。ステージ上にオブジェクトを置いてそこから音を出すようにして、1回は通常のフルモード、もう1回は最も近いSPまでの距離が最短距離になるようなディレイのないTightモード(図-2・イの“d”がゼロの状態)で測定します。私はメインFGでは一番外側のアレイで測ることが多いですが、このようにすることでこれらのディレイタイムがアレイプロセッシングされている各アンプチャンネルとDS100のファンクション・グループに分配されアライメントが取れますので、これで正確に奥行き感が再現できます。その後通常のチューニングを行ないます。

図2 d&b Soundscapeの基本原理

─── 通常のチューニングはどのように行ないますか?

Jack FG内のすべてのアレイをONして約10回の測定を行ない、それに応じてEQを調整してシステムを可能な限り平坦化します。

─── サブのチューニングについて少し教えて頂けますか?

Jack まずArrayCalcを使って、客席のあるポイントにターゲットマイクを設定し、今回の場合は一番奥にあるフライングサブを基準にしていますが、それにメインFGと床にあるサブFGの時間差を合わせます。アレイ自体はアレイプロセッシングによって整合されていますので後はこれらを実際に耳で聞いて補正します。また、サブFG自体は45Hzで水平に約30度の指向性を持つようにArrayCalcで設定しています。

ネットワークとリダンダントについて

─── 次にネットワークについてですが、どのようになっていますか?

Jack ネットワークは3系統あります。DanteのPrimaryとSecondary、もうひとつはコントロールです。FOHブースからアンプラックへはオプティカルコンによる光ファイバーで接続し、その後各アンプへはアンプラックにあるDS10でAESに変換して送っています。

─── 次にリダンダントはどのようになっていますか?

Jack FOHラックには2台のDS100があり、2台目には同じIDとIPアドレスがセットされており、まったく同じパッチが設定されていますが、通常はオフにしています。そしてメインのDS100がダウンした場合、バックアップのDS100をオンにすると、すべてが元のメインDS100のとおりに再接続されます。 この場合のショーの停止時間は1分未満です。しかし、今まで一度もそれを行なったことはありませんけどね(笑)。最新バージョンではR1でミラーリングの設定ができるようになり、Danteのチェンジオーバーユニットを使えばボタンを押すだけで瞬時に切り替えができるようになりました。

─── 他のリダンダントはどうなっていますか?

Jack En-SnapとQ-Lab用に2台のMac-Miniを使用しており、この2台のMac-Miniでは両方のプログラムが動いています。 Q-labは常に両方のMac-miniでタイムコードによってパラレルで実行されており、メインのQlab用Mac-Miniに障害が発生した場合には、SD7Q のマクロスイッチを使って切り替えを行ないます。 En-Snap は両方のマシーンで起動していますが、タイムコードはメインマシーンでのみアクティブになっています。トラブルが発生した場合には、もう一方のEn-Snapのタイムコードを有効にします。

─── 全部で何台のPCを使用していますか?

Jack En-SnapとQ-Lab 用にMac-Miniを2台、R1とDante 用にWindows PCを1台、合計3台使用しています。 また、エフェクト用のリダンダント化されたPro Toolsとショー記録用のMacBook Proも使っています。

コンソールレイアウト

─── 次に今回のコンソールのレイアウトについてお伺いします。先ずコンソールの入力は何ch使用していますか?

John 160ch使用しています。その内56chはPro Toolsのプレイバック用です。

─── マイクは何本くらい使用されていますか?

John 100本ほど使用しています。その他ラインも数chあります。

─── DS100には入力が64chしかありませんが、コンソールではどのようにルーティングされているのですか?

John 本来は各入力chのダイレクトアウトからDS100に入れたいのですが、今回は100ch以上使用していますので、それを曲毎に64のグループにルーティングし直してDS100に入れています。このルーティングの組み直しにはコンソールのSnapshotを使用しています。たとえば、絶対にどの曲にもあるオブジェクト(ビョークの声)などは固定のグループに設定していますが、他に、Miscellaneous(色々)グループというものも幾つかあり、曲ごとに使用する音をまとめて、それを曲ごとにグループに当てはめていくようなイメージです。ちょっとパズルみたいですね。また、DS100に関してはテンプレートを作って一部のオブジェクトはその形に固定し、それ以外は曲毎にポジショニングを変えています。このテンプレートを作ることでデータを作るときの時間短縮になります。

タイムコード

─── 次にタイムコードについてお伺いします。どのようにタイムコードをお使いですか?

John タイムコードは非常に多く使用しています。全ての曲はタイムコードで動いており、ステージ上ではリダンダントで組まれたプレイバックシステムが動いているのですが、モニターエンジニアから出されたCue(タイムコード)がマニピュレーターやQ-Lab、En-Snap、コンソール等に送られ、更にオーディオだけでなくビデオや照明にも送られています。フリーで進行するシーンもあるのですが、ショー全体の90%はタイムコードで動いています。

画像: d&b Soundscapeを含めたサウンドシステムのコントロール画面。バックトラックやQ-Lab等ショー全体の90%はタイムコードによるコントロールが行なわれていた

d&b Soundscapeを含めたサウンドシステムのコントロール画面。バックトラックやQ-Lab等ショー全体の90%はタイムコードによるコントロールが行なわれていた

画像: サイレントクリック。ステージ上のクワイヤに向かって光でクリックを送っている。形や色を変えてスタンバイ、頭、小節等を表示していた

サイレントクリック。ステージ上のクワイヤに向かって光でクリックを送っている。形や色を変えてスタンバイ、頭、小節等を表示していた

Voのリバーブとポジショニング

─── ビョークのリバーブはEn-Spaceを使用しているのですか?

John 実はValhallaをプラグインで使っています。数10ポンドの安いヤツですけどね(笑)。これは彼女の好みなので…。それを掛けた後でEn-Spaceも少しかけています。

─── 先程ビョークのポジショニングが少し奥に聞こえるとのご質問がありましたが、その辺りは如何ですか?

John これは実際の彼女のステージ上の位置に合わせているのと、ビョーク本人の好みもあり、あまり前面に出さないで欲しいとのことからそのようになっています。

─── トラッキングは行なっていないのですか?

John トラッキングは行なっていません。彼女の衣装の関係でトラッキングを付けるのが難しいのです。このコーニュコピアに関しては彼女の動きはほぼ決まっているのでプリプログラムしたものを使っていますが、もしその動きから外れればマニュアルで修正しています。

─── En-Snapの使い方ですが、ビョークのVoポジションにだけに使用しているのか、それとも他にも使用してるのですか?

John 二通りの方法で行なっています。ひとつはPro Toolsの中にd&bから出ているプラグインを入れており、タイムコードでプレイバックオブジェクトを動かしています。もうひとつはEn-Snapです。それから、ライブでオブジェクトを動かしたときにそれをEn-Snapで記録しておきそれを再生することもあるのですが、これにはコンソールと同じようなリコールセーフ機能があるので、その時にそれを使うか使わないかを判断します。これらの作業はR1のEn-Sceneでも可能なのですが、ワークフロー的にこちらの方が便利なのでそれを使用しています。

質問コーナー

質問 曲毎にリバーブパターンは切り換えていますかという質問がありましたが、如何ですか?

John 今回はひとつのリバーブパターンしか使用していません。ラージクラシックのパターンです。

質問 音像の定位をステージの前にもって行くことは可能ですか?

John 180ではそれができませんが、360では客席内にオブジェクトを配置することができます。 ただし、客席内に置くことはできますが、ピンポイントのイメージが再現できるわけではありません。

質問 DS100の入力は64inで少ないと感じたことはありませんか?

John あれば使うかもしれません。ただ、この公演ではグループで64に纏めてDS100に送っているので特に必要は感じませんが、各chをバラバラに送れればより良いでしょうね。

質問 小さい場所で公演を行なう場合、レイテンシーは気になりませんか?

John 1.6msecですので気にはなりません。ビョーク自身も気にはならないと言ってます。

質問 将来のコンソールとの親和性に対して何か要求はありますか?

John DiGiCoではR1と双方向でやり取りが出来るので非常に有効だと思っています。ただ、En-Spaceに関してはコントロールが出来ないのでそれは改善して欲しいところです。

質問 音がセンターあたりに集中した時、例えはやキックやベースですが、音圧を上げたい時にダイナミックレンジ的に問題は無いですか?

John d&b Soundscapeひとつの音を色々なスピーカーから鳴らしているので私は大丈夫だと思います。これと同じ公演をメキシコで一回り小さなVシリーズでやったのですが、心配していたよりも問題なく出来ました。また、360システムでやるような場合には、例えば物理的に90dBでやっていたとしても、それ以上に大きな音に聞こえますからね。ですので、センターハングのヘッドルームの心配はしたことがありません。

質問 このショーを360でやる時には、周囲にはどんな音源を配置していますか?

John 曲によってですが、ビョークからのリクエストでステージ上に各音を集めながらリバーブやシンセの音や小鳥の声のようなエフェクト音を回りから出すこともあれば、ある曲ではクワイヤが後ろにいたりすることもあります。ただ、気を付けていることは、色々なところから色々な音がめまぐるしく出たりするとその効果が薄くなるので、回りから出たとしても最終的にはステージに集中して貰えるようにメリハリを付けることが重要だと思います。また、ある時はフルートの音を客席の回りに沿って動かしたことがあるのですが、彼女には好評でしたね。

質問 この会場で360をするとしたら回りのスピーカーはどのように配置しますか?

John バルコニー席が問題ですね。

Jack この会場で360を行なうためには、各バルコニーエリアでどのようなリギングポイントが利用可能かによりますが、かなりのチャレンジになると思います。 何故ならバルコニー部分の天井が低いため、聴衆の頭上に十分な高さのスピーカーを配置するスペースがなく、スピーカーの近くに座っている人は迫力がありすぎると感じる一方で、必要なエリアを確実にカバーすることが出来ないからです。 ただし、小型のE-Seriesの一部の機種は使用できる可能性があります。 また、全ての人に完全な360を提供するには、バルコニーごとに異なる 360 システムが必要になりますが、上手く設計すれば実現できる可能性はあると思います。

─── 他に質問が無いようでしたら、会場の時間もありますのでこの辺りでお開きとさせて頂きたいと思います。

本日はお集まり頂き有り難うございました。最後に本日講師をして下さったJohnさんとJackさんに拍手をお願い致します。有り難うございました。

画像: 右からFOHエンジニアのJohn Gale氏、システムエンジニアのJack Blenkinsopp氏、通訳兼進行の花野愛弓さん

右からFOHエンジニアのJohn Gale氏、システムエンジニアのJack Blenkinsopp氏、通訳兼進行の花野愛弓さん

終わりに

 2chPAとは全く異なる表現が可能なイマーシブ・オーディオによるライブコンサート。音量の大小によるミックスから音の幅や位置の違いによるミックス。音を混ぜるのではなく音を置いて行く…これらは従来からある音楽のミックスやアンサンブルの手法を根底から覆す新たな表現方法であると同時に、その音楽を再生する「空間」を最大限利用することができ、しかもアーティストが表現したい世界観を多くの観客が同じように体験できる新しいエンターテイメントの手段です。

 従来は中央部の観客席にしか恩恵の無かったパンポット、その為にそれを有効に使えなかったエンジニア。これらのジレンマを同時に解決したイマーシブ・オーディオによるライブコンサート!正に新しい音楽の表現手法による新しいライブの形態だと思います。今回のステージに触れて次世代のコンサートのあるべき姿を先見した気がしました。

 

筆者プロフィール
三村美照(みむら・よしてる)
音響システム設計コンサルタント。1978年「スタジオサウンドクリエーション」に入社、レコーディング・エンジニアとして経験を積む。その後、業務用音響機器の設計業務を経て、1989年から本格的に音響システム設計に従事、現在「M&Hラボラトリー」代表取締役を務める。仕事においては「ベストよりも常にベター、ベストは逆に「終わり」を意味する。私たちの仕事に終わりはない」、「常により良いものを、よりシンプルに」をポリシーに「サウンドシステムの音」を築き続けている。豊田スタジアム、長居陸上競技場、東京ドーム、大阪フェスティバルホール、国立京都国際会議場等をはじめ実績例は100件以上と多岐多数。
Email:mhlab.mimura@gmail.com

最後に、もう少し詳細をお知りになりたい方やご質問や意見のある方は下記アドレスまでメールを下さい。

Email:mhlab.mimura@gmail.com

記事中のDanteはAudinate社の登録商標です。

関連サイト

This article is a sponsored article by
''.