少し前のことになりますが、4月7日(金)に東京・有楽町朝日ホールで、『Chiemi Hori 40thプラス1 Anniversary Live〜ちえみちゃん祭り2023〜大阪公演』のライブビューイングが行われました。松竹グループ、日本デジタル配信株式会社による協創プロジェクトで、堀ちえみさんの出身地である大阪・堺市のフェニーチェSACAYで行われるコンサートを、全国5ヵ所の会場でライブビューイングするというものです。

ライブビューイングの会場となった有楽町朝日ホールには450インチスクリーンと14.1chスピーカーシステムが設置されていた

 中でも有楽町朝日ホールでは450インチの2K映像に加えて、高臨場感音響ライブビューイングとして14.1chスピーカーシステムを設置、通常の2chライブ配信では実現できないような臨場感を再現していました。今回は有楽町朝日ホールでのライブビューイングに参加し、その効果を体験してきましたので紹介します。

 まず高臨場感音響ライブビューイングとはどんなことをやっているのかについて、今回のライブを企画した松竹音楽出版株式会社の李 信雨さんにお話を聞きしました。今回のイベントは、「音・音響・音演出を軸とした新しいエンタテインメント体験の拡張」ということを目的にしたそうです。

 同社ではこれまでも多くのライブを企画してきたそうですが、コロナ禍以降配信によるライブビューイングも増えてきたといいます。しかし従来のような2ch音声ではどうしてもアーティストとの一体感が希薄で、ライブに参加しているという感覚が得にくかったそうなのです。そこで多チャンネル収音した音源に、アーティストや音楽監督による演出を加えることで、コンサート会場のライブ感を再現しようと考えたということです。

当日の有楽町朝日ホールの座席数は636席。写真はリハーサル時のものだが、ライブストリーミングが始まると、ファンが詰めかけてほぼ満席になった

 高臨場感音響ライブビューイングの仕組みは、フェニーチェSACAYで会場の音声をマルチチャンネルで収録し、ヴォーカル、コーラス、楽器、周辺環境といった具合にある程度分かれた状態(16ch)の音素材を作ります。これに映像信号を加えてから圧縮し、ライブビューイングの会場にネット経由で送っています。

 そしてここからが高臨場感音響ライブビューイングの特長で、有楽町朝日ホールでは、受け取った16ch音声を元に音場の定位や臨場感をリアルタイムに調整して14.1chのサラウンドで再生します。この“現場でリアルタイムに調整する”というのがポイントで、国内の有名電機メーカーが開発した音響制御シミュレーションソフトを使っているとのことです。

 このソフトはもともと建築音響用途で開発されたとかで、シミュレーション機能とチューニング機能を備えています。事前に再生するホール(有楽町朝日ホール)の断面図データを読み込んでスピーカーの設置場所、角度をシミュレートし、さらにCADデータなどから音圧レベルなどを算出します。そして計算結果に基づいて、スピーカーの置き場所や角度を設定することで、ライブ会場(フェニーチェSACAY)の音響を再現しようというものです。

映像はパナソニックの3チップDLPプロジェクター「PT-RQ35K」を使って投写。4Kモデルだが、今回は2K映像を上映している

 ここまでがいわゆる基本チューニングで、そこに心理音響ベースの音像定位を付け加えることができます。例えばコンサート作品で楽器ごとのポジショニングを微調整したり、サラウンド感を加えたりできるし、演劇なら役者が舞台上を動き回っても、その動きに合わせて音像を変化させることができるのです。他にも、客席側の臨場感を演出したり、効果音としてオブジェクト音源を任意の場所に付加することも可能といいます。

 つまり、今回の音響制御シミュレーションソフトを使うことで、本物のライブ会場に近似した音場空間をライブビューイング会場で再現できるだけでなく、本物の会場を超えた音の演出まで楽しめるということですね。

 なおこのソフトはラインアレイ・スピーカーとの組み合わせを前提としているとかで、今回のライブビューイングではRAMSA製品が使われていました。フロントサイド(L/LC/C/RC/R)には「WS-LA500A」と「LA550A」を、サラウンドやサラウンドバックには「WS-AR080」を、サブウーファーは「WS-HM518L」という構成です(ライブビューイング時のスピーカー配置はコラムを参照)。

 では当日の感想をお届けしましょう。まずはライブビューイングとして、予想以上に良かったなという印象でした。これまでライブビューイングというと、画面サイズは大きいけれど、音が2chなのでステージ上の位置関係とか、音の深み、臨場感が物足りなかったのです。

 しかし今回は14.1chのサラウンド再生で、これだけのチャンネル数で音場情報が再現されると、まさにライブが行われているフェニーチェSACAYが持っている響きがそのまま有楽町朝日ホールに届けられたんじゃないかと感じるほどでした。ロッシー圧縮なので若干音は薄くなっていますが、それでも現場感があって、生々しい音が聴けました。

 1chずつはそこまで高音質ではないのだけれど(今回は48kHz/24ビットクォリティ)、マルチチャンネルで伝送・再生したことによる臨場感がコンテンツの中身とマッチしたのでしょう。この音を聴いて、今後の配信にも期待が持てるなぁと感じました。

 しかも、ちゃんと臨場感演出が施されていたのもよかったですね。楽器も基本的には前から音が来るんだけど、一部はサイドスピーカーから聴こえるんです。シンセサイザーやヴァイオリンのソロもサイドスピーカーに割り振られていました。

 映像コンテンツの画音一致というコンセプトからすると、本当は楽器の音は前から聴こえるべきなのでしょうが、今回は単に客席で聴いているだけじゃなくて、ステージの上に自分が入り込んだような聴き方も狙ったのでしょう。横に奏者が来て、広がりのある中で演奏をしているような錯覚もあったし、その意味では画期的な試みでした。

 ライブビューイングは入場料を払って見に来るわけで、そういった“興行”である以上、音質はすごく重要です。映像はこれから4K解像度になっていくと思いますが、4Kであっても音が2chのまままだったら有り難みがない、ライブに参加しているという感じが全然しないでしょう。その意味で今回のイベントでは、2chとマルチチャンネルの違いが明確に出てきたと感じました。

 今後は収録会場のカメラの台数を増やして、そのカメラに連動して音の移動感などの演出を加えていこうというアイデアもあるそうです。イベント業界も人手不足ですから、いかにオートマチックで対応していけるかが今後のテーマになるでしょう。オートマチックな演出で、ちゃんと演者の動きに連動していくのであれば、それなりになまなましい音が聴けるはずです。スタートの発想としては意義のあることだと思います。

 また映像との一体化という意味で、映像の口の位置からヴォーカルが聴こえてきたのが面白かったですね。今回はセンタースピーカーはスクリーンの前に床置きされていて、実際には低い位置で鳴っているんですが、映像の誘引効果もあってか、違和感なく歌を楽しめたのです。

 拍手もリアリティがありました。フェニーチェSACAYからの拍手の音と、有楽町朝日ホールの生の拍手が絶妙に混ざり合って、どっちの音なのかが一瞬わからなくなったんです。これだけ現場感があると、ライブに参加した気分に浸れます。

取材に協力いただいた松竹音楽出版株式会社 常務取締役 新規事業開発室 室長の李 信雨さん(左)と麻倉さん

 会場の一体感も随分違っていて、ちょっと極端ですが、有楽町朝日ホールの延長上にフェニーチェSACAYがあるんじゃないか、こんな離れているのにステージがつながっているのじゃないかという感じもしたくらいです。これならお金を払ってもファンに満足してもらえる、“正しい配信イベント”になるでしょう。もちろん4K映像とハイレゾマルチチャンネルが理想で、早くそんな環境が実現して欲しいと思いますね。

 今回は大規模なライブビューイングでしたが、もっと小規模なライブであっても全国に配信できれば、その分の売り上げ向上も期待できます。その意味で、文化・芸術の振興のためにも、今回の松竹音楽出版の取り組みはひじょうに重要だと感じました。アイドルライブに限らず、様々なジャンルで広がっていってもらいたいですね。