そこで今回はその使われ方と効果はどういったものだったのか、本公演のFOHオペレーターを務めたラックオンの豊田浩紀氏、統括エンジニアリングを担当された可児市文化芸術振興財団の池田勇人氏のインタビューも交えながら詳細をリポートします。(前編)
リポート:三村 美照(M&Hラボラトリー)
概要
今回フェスが行われたのは、岐阜県の可児(かに)市にある可児市文化創造センター「ala(アーラ)」。このala(アーラ)とはイタリア語で「翼」を意味し、未来に羽ばたく文化創造の場として2002年に竣工、その後2020年に大規模改修が行われ翌年リニューアルオープンしました。客席数は1019席、バックヤード動線も充実した非常に使い易そうなホールです。
「森山威男ジャズナイト」は、「可児市にジャズ文化を根付かせたい」との思いから始まったコンサートで今年で22回目を迎えます。そのメインプレイヤーである森山威男(たけお)氏は可児市在住のジャズドラマーで、かつて山下洋輔トリオの「神風ドラマー」と呼ばれた方と言えばお分かりになる方も多いと思います。トリオ脱退後は可児市に移住され、以降は同市を拠点に活躍しておられます。現在78歳とのことですが、そのパワフルさは今も全く衰えることなく、観衆を魅了し続けています。
ジャズでのイマーシブ
さて、ジャズのコンサートでイマーシブ・オーディオを使う試みは数年前から徐々に行われています。楽器の音をスピーカーからではなく演奏している楽器の位置から聴かせることで臨場感あるライブ体験を観客の皆さんに届けたいという思いから始まったものです。
「森山威男ジャズナイト」でもその目的が大きいのですが、加えてジャズでよくある楽器同士のバトル、特に今回は4本のサックス×アコーディオン×ドラムによる激しいバトルがありました。そこで、イマーシブ・オーディオを使うことで、分離が悪くグチャッとならずに各楽器を綺麗に聴かせることが出来るのか? これが出来れば来場された方々に臨場感ある最高のパフォーマンスの提供が可能になり、更にバラードでは今までにない会場を包み込むようなリバーブ表現も…等々。
さて結果はどうだったのでしょうか?
分離の良い臨場感あるバトルセッション
イマーシブ・オーディオを使うメリットの1つに音の分離感があります。従来のL/R-PAとの大きな違いは、音源をオブジェクトとして扱い、それを自由にステージ上に配置出来ることです。音源をステージ上に配置するだけならば従来のパンポットでも可能だと思いますが、その場合どれだけの座席エリアでその効果を感じることが出来るでしょうか? そうです!皆さんも経験があるように、ほぼ中央の客席の方々のみが体験出来る状態ですよね。それ以外の方は上手下手どちらか自分に近い方のスピーカーから本来のミックスバランスではない音を聴いていることになります。
一方、イマーシブ・オーディオでは非常に多くの客席で音源が置かれた位置の認識が可能となります(詳しくは後述の「ステレオPAの欠点とイマーシブ・オーディオ」を参照)。
つまり、その効果を利用すれば、複数の楽器が一度に鳴って音が1つに重なってしまうような時でも、それぞれのオブジェクトの位置を少し “ずらす” ことで重なって喧嘩することなく分離して聴かせることが出来ますし、さらに中央部以外の多くの座席にも同様の効果をもたらします。
先述のとおり、今回はサックス×4、アコーデオン、ドラムの壮絶バトルが繰り広げられたのですが1つ1つの楽器が何をしているかがハッキリと分かり、臨場感あるパフォーマンスを届けることが出来ていました。これがイマーシブ・オーディオを使う魅力の1つなんですね!
リバーブの使い方
また、今回はリバーブに関してもイマーシブ・オーディオならではの使われ方が見られました。各楽器自体に空気感を与えるようなリバーブと会場全体を包み込むような2種類のリバーブの使い分けです。
前者は、楽器毎に別々のリバーブを用意して楽器とリバーブリターンを同じバスに入れ、それを1つのオブジェクトとして配置することで実現しています(後述のインタビューに詳しい説明があります)。また、この方法の発展形として、リターンをステレオオブジェクトとして、その楽器のオブジェクトの周りに少し広げて返すと、その楽器の広がり感が変わるような使い方も出来ます。
また後者は、Yamaha独自の3Dリバーブ(後に詳しく説明)をホールの既設スピーカー(ウォールやシーリング等全19箇所)から再生することで観客席全体を包み込むような自然な響きを再生しています。
この3Dリバーブは音源の位置を認識して反射音を演算しているのですが、各スピーカーから出力されるリバーブ音は、ala(アーラ)に近い大きさと形状を持つ部屋の中に置いたオブジェクト位置からのインパルス応答を使って、それぞれのスピーカー位置からの反射音として畳み込んだものを再生していますので非常に自然な響きがするのです。
これら2種のリバーブですが、1つは楽器を包み込むディケイがその楽器の後ろに流れていくようなリバーブ(豊田氏によると「空気感を与える」リバーブ)、もう1つは会場全体が包み込まれるようなホールトーンリバーブで、これら2つのリバーブの相乗効果が相まって特にスローバラードで深い感銘を与えていました。
サウンドシステム
今回のシステムは客席のカバーエリアを大きく前後2つに分け、直接音の大きい中通路より前の客席はグランドスタックLR+ステージフロントでカバーし、それ以外の客席にはイマーシブ用としてプロセニアム部に3基のラインアレイが設置されました。これら2つのシステムは別々の設定が施されています。
まず、イマーシブ用3基の構成ですが、それぞれNEXOのGEO S1210×4台となっています(写真1~2)。中通路前用のステージスピーカーは同じくNEXO GEO S1210×4台と、フロントフィルとしてMeyer Sound UPM-1Pが2台使用され、SubにはNEXO LS18×2台とNEXO RS15×1台がセットされています(写真3~5)。
このうちNEXO RS15は、舞台中への低音の回り込みを少しでも抑えるためのキャンセリング用としてフィルターとディレイがセットされています(写真4)。なお、これらSubにはキック、ウッドベース、エレキベースがアサインされています。
また、これら2つのシステムは実際の楽器の位置よりも客席側にあるために、実際の楽器位置に音が定位するよう前後方向の時間的なアライメント整合が行われています。
如何にして楽器の位置から音を出すか(時間的アライメントの整合)
今回のように生音を活かしながらミックスする時に重要になるのが音の聴こえてくる方向です。通常PAを行なうと当然ですがスピーカーから音が聴こえます。しかし、より臨場感あるライブ体験を伝えたい時にはステージにある楽器の位置から音が聴こえて欲しいですよね。
生音にある程度の音量がある場合、イマーシブ・オーディオであってもそれだけではうまく楽器の位置に音が定位してくれません。そこで今回はこの部分に重点を置いてシステムのセッティングとチューニングが行われました。
その方法の一部ご紹介すると、
1) まず、ステージ上に今回のシステムの音位置の基準となるターゲットスピーカーを置く(今回はベースの位置、写真8参照)
2) AFC Imageで1つのオブジェクトを再生し、今回の調整卓位置の少し前辺りに測定マイクを置きそのオブジェクトとターゲットスピーカーの時間差を測り、その値に「数ミリ」加えたディレイタイムを各オブジェクトに与える。この「数ミリ」加えるのはハース効果(※1)を利用して実音よりもスピーカーからの音が先に出ないようにすることで先に到達した楽器の生音の方向から音が出るように感じさせるためです。この時の時間整合は、再生したオブジェクトとターゲットSPでディレイを合わせます。イマーシブ再生用スピーカー自体と合わせるのではないところがポイントです。
3) ステージ上のL/Rシステムとステージフロントスピーカーも同様にディレイを測定して加える。
4) 最後に色々な座席位置で聴いてディレイタイムを微調整する。
※1:ハース効果
同じ音が2箇所から聴こえてきた場合、その時間差が40msec(35msecと言われることもある)以内であればそれらが1つの音として認識され、さらに先に届いた方向に音像が定位する効果。1949年にドイツのヘルムート・ハース博士によって論文が発表されました。また、遅れて到達する方の音量は先の音の15dB以下であれば同じ効果が得られるとの研究もあります。ただし、これは2つが全く同じ条件の音の場合で、メインとディレイスピーカーのように距離や機種の違いなどの要因で音質が異なれば、この音量差はもっと小さくなります。
より臨場感を出すために
臨場感を出すために前述のような調整を行っているのですが、さらに音楽的な臨場感を出すために調整卓上でもイマーシブ・オーディオならではのアレンジが行われています。
それは、ソロを担う楽器に対して入力をパラって2本のフェーダーを用意し、1本をアンサンブル用、もう1本をソロ演奏用として別々のオブジェクトに送っています(写真11参照)。アンサンブル時は少し奥に定位させたオブジェクトから再生させるのですが、ソロになると前面に定位させたソロ用オブジェクトから再生させることで、より音楽的な臨場感を得られるよう操作されています。また、このオブジェクトはソロ演奏者の動きに合わせてマニュアルで移動させることも可能です。
この2本のフェーダーの切り替えに関しては、マニュアルでは追い付かないのでDuganのオートマチックミキサーを利用して、ソロフェーダーにプライオリオティーを設け、それを上げるともう1本のフェーダーが下がるよう設定されています。ダッカーを使っても同様に出来るそうですが、ステージの盛り上がりに連れて忙しくなり、より細かいミックス操作が求められる際の助けになる素晴らしいアイデアですよね! このように設定されたフェーダーはソロのある楽器分(5本)用意されていました。
ステレオPAの弱点とイマーシブ・オーディオ
ここで、従来のL/R-PAとイマーシブ・オーディオとの違いを少し詳しく見てみたいと思います。今までの内容と少し重複するところがあるかもしれませんが、ここをお読みいただくとより理解が深まると思います。
これまでに何度も登場している質問ですが、一般的なホールやアリーナ会場でパンポットによってセンターに置かれた音が本当にセンターから聴こえるのはどのぐらいの客席エリアなのでしょうか?
これは皆さんも実際のコンサート等で体験されている通り、上手か下手に寄った客席で聴くとセンターにあるはずの音、例えばボーカルやスネア等の音は、自分に近い方のスピーカーから聴こえて来て、決してセンターからは聴こえて来ませんよね。またパンポットを使って音像を広げてもその効果が分かるのは会場の中央付近の客席だけですし、さらに極端にパンを振ると端の方の席では音が向こうとこっちで離れてしまって違和感があるために通常はそのようなパン操作は行いません。つまり、多くのコンサートでは前方に2つのスピーカーがあるにも関わらず、主に自分に近い方のスピーカーからほとんどモノラルミックスに近い音を聴いている状態でした。
このような理由から、今までのPAはステレオではなく「デュアルモノ」PAと言われていたのですね。
一方、イマーシブ・オーディオを使うと、中央部の客席だけではなく非常に広いエリアでセンターに置かれた音はセンターから聴こえて来ます。また、センターに音が定位出来るということは左端右端やその中間に定位させてもそれが認識出来るということですし、点ではなく幅を持った音源も同じように広い範囲でその「幅」を認識出来ます。
「幅」は「面」としても認識されますので、その「面」で鳴らす音の中から「点」で鳴らす音が聴こえる! 音量の大小や音質の違いではなく、サウンドイメージの違いで音楽を表現出来る! これは従来のPAにはない新しいミックスの手段になり得るものですし、このサウンドイメージを会場の広いエリアで認識することが出来るのです。これは従来のL/R-PAでは実現し得なかったことですよね!
また、前述の通り、複数のオブジェクトを少し離して配置することでそれらが一気に鳴っても従来のPAより優れた分離感を得ることが出来ます。
これらが実際の音楽の聴こえ方に対するL/R-PAとイマーシブ・オーディオPAとの大きな違いです。
AFC Imageとは
さて、今回使用されたYamaha AFC Imageについて少し説明します。
AFCとはActive Field Controlの略ですが、音に対する空間的な「状態」を電気的にコントロールしようというものです。また、AFCはAFC ImageとAFC Enhanceという2つのモジュールで構成されています。AFC Imageはイマーシブ・オーディオを創造するためのもの、AFC Enhanceはマイクのフィードバックを利用して空間の響き感(残響状態)を変化させるものです。今回は前者を使用しています。また、AFC Imageのオブジェクト・パラメーターはヤマハのコンソールからコントロールが可能です。
音像位置をコントロールする仕組みは、各スピーカー間の音量をコントロールして行なう振幅パニングアルゴリズムやレベルブレンディングと呼ばれるもので、基本的には一般的なパンポットの延長線上にあります。違いは通常のパンポットがL/Rの2chであるのに対して最大64chのスピーカー間で自由にパン操作が行なえるということです。勿論あるオブジェクトをこのスピーカーグループのみを使ってポジショニングするといったことも出来ます。
さらに決定的に違うのは、一般的なパンポットはチャンネルベースであるのに対してAFC Imageはオブジェクトベースであるという点です。つまり、音源をオブジェクトとして扱い、そのオブジェクト自体に位置データ等を埋め込んでいますので(これをメタデータと言います)、ツアー等で会場が変わりスピーカーの位置や数量が変わってもレンダリングエンジンがその情報に基づきオブジェクトの再生位置を再計算することで同じように各音源のポジショニングが再現出来るのです。
3Dリバーブ
AFC Imageには3Dリバーブという機能があります。これはサンプリングリバーブなのですが、通常のサンプリングリバーブと少し違います。今回、その違いについての説明を開発に携わっておられるヤマハ株式会社PS事業部空間音響グループの橋本 悌氏にお願いしました。
現実の世界では、ある部屋で音を鳴らした場合、音源の位置によってその部屋での響き方に違いが出ます。例えば部屋のど真ん中で手を叩いた時と壁際で叩いた時とでは響き方が違います。それは音源から出た音が部屋のどの部分にどのように反射するかが変わるからで、この3Dリバーブではそれを再現出来ます。
このアルゴリズムを簡単に説明すると、
1) プロセッシングは初期反射音と後期残響部に分かれ個別にコントロールしている(図1)。
2) 初期反射音の生成には、壁面の反射音を鏡面反射と仮定する仮想音源分布を用いている
(図2)。
3) スピーカーの配置位置や部屋の大きさに応じて反射音(Level Delay Tap係数=FIRデータ)を計算するために再生環境に応じて最適化されたパラメーターで再生することが出来る。
4) 後期残響音は実空間での多数点での実測データにより、実際に設置されているスピーカー位置に最も近い位置のFIRデータを割り当てている。
このようになっているのですが、実際の使用状況に当てはめて説明します。
まず、どういった形の部屋で音を鳴らすかを決めなければなりませんが、毎回使用する部屋の形状を入力する訳にはいきませんので、現在は6種類の形状と残響時間の異なる部屋が用意されており、実際に再生する部屋に最も近い形状を選択します。
この部屋の大きさは自由に縮尺を変更することが出来、再生する実際のホールの大きさに近付けることが出来ます。その後、音源位置をプロットし(オブジェクトを配置する)リバーブを再生するスピーカー位置をプロットすると、各スピーカーからはその音源位置の反射音(インパルス波形=FIRデータ)を再現する音が再生されます。実際には事前に測定した音源位置とそれに伴う反射音のデータを使用するのですが、リバーブの空間(3次元)データである「仮想音源分布」を用いているので、実際の音源及びスピーカー位置に最適化された反射音を使うことが可能です。これによりクリアな音像を保ちながら非常に自然な響きが再生可能になります。
また、このコントローラーには初期反射音や後部残響音の長さの調整画面の他に「スペース」という操作画面が用意されています。この画面には後ろから見た人の頭の画がありGainとDelayという操作部分により、Gainは残響音がどの方向から強く聴こえるかをXYZ方向で調整、Delayはその方向の空間の広がりや大きさを自由に変えることが出来ます(図3)。
空間を再現出来るリバーブ自体は他社にもありますが、実際に聴いた感じも含めて考えるとこの3Dリバーブが一歩進んでいるような気がします。
今回のシステムブロック(図4)と主要機器リストを下記に示します。
Sponsored by YAMAHA SOUND SYSTEMS INC.
《後編》に続く