AES 2018 International Conference on Spatial Reproduction - Aesthetics and Science
テキスト:濱崎公男(ARTSRIDGE LLC)
取材協力/資料提供:AES、取材協力:東京電機大学、東京藝術大学
2018年8月6日~9日(6日はプレイベントのみ)、東京・北千住の東京電機大学東京千住キャンパスと東京藝術大学北千住キャンパスにおいて、「AES2018 International Conference on Spatial Reproduction -Aesthetics and Science」が開催されました。
『PROSOUND』207号と208号では、このコンファレンスに見た空間音響再生技術の最前線をレポートします。前号のイマーシブサウンド録音技術の紹介に引き続き、今回は、欧州放送連盟で検討が進められているオブジェクトベースオーディオによる制作や放送についてのワークショップのセッション概要をお伝えします。
※『PROSOUND WEB』注:本記事は『PROSOUND』208号掲載の『PROSOUND最前線』より転載しています。今回は「パート2」を、①安藤彰男氏の基調講演編、②本稿ワークショップ編の二回に渡ってお届けします。
207号掲載「パート1」はこちら 基調講演 編 チュートリアル編 ワークショップ編
ワークショップ
“Object-Based Audio workflow of spatial broadcast productions”,
“Live spatial and Object-Based Audio production”
フランスTVのMatthieu Parmentier氏によって、EBU(European Broadcast Union:欧州放送連盟)で検討が進められているオブジェクトベースオーディオによる制作や放送についてのワークショップが2セッション行なわれました。ここでは、両方のセッションの概要をお伝えします。
Matthieu Parmentier氏 まずこれまでの放送番組から放送までのワークフローは図(①)の通りです。マイクロフォンからエンドユーザーへの流れを示しています。各プロセスで音の処理をして、次の処理に引き継いでいきますが、そのプロセスが終わってしまうと、担当者は自分の作業の内容は忘れてしまいます。
これに対しオブジェクトベースオーディオのワークフローでは、サウンドの編集、ミックス、パンニングという重要な制作過程で、音素材とメタデータによって、それぞれの作業を引き継いでいきます。このメタデータはエンドユーザーのレシーバーまで引き継がれていきます。これはとてもチャレンジングな流れです(②)。
オブジェクトベースオーディオでは、従来のマルチチャンネルオーディオ、シーンベースオーディオと呼ばれるAmbisonicsやHOAなど、そしてゲームに代表される真のオブジェクトベースコンテンツを取り扱うことができます(③)。
オブジェクトベースオーディオでは、新しい技術であるレンダリングが鍵となります。このレンダリング技術は、異なるサイズの部屋や室内音響条件、スピーカーが欠けていたり配置が標準から外れていたりする状況、ヘッドフォンでのリスニング、うるさい環境など、さまざまな再生環境に応じた再生を可能にします(④)。
オブジェクトベースオーディオによって、イマーシブオーディオ、人にやさしいサービス(アクセシビリティ・サービス)、インタラクティブコンテンツなどに対応できるようになります(⑤)。
EBUでは、ADM(Audio Definition Model)を推進しています。これはフリーに使用できるオブジェクトオーディオ・マスターフォーマットです(⑥)。
ADMは、オーディオのフォーマットと技術情報を記述するためのメタデータモデルです。元々はEBU Tech 3365とEBU Tech 3293というEBUの技術規格で規定されたメタデータモデルでしたが、これをITU-Rに提案し、現在ITU-R BS.2076として標準化されています(⑦)。
ADMは、チャンネルベース、シーンベース、オブジェクトベースに分類されている、あらゆるオーディオフォーマットに対応しています(⑧)。
そして、ADMはマスタリングにも使用されています。すべてのメタデータをBWF(Broadcast Wave File)に格納することができるのです(⑨)。
ここで、あらためて従来の制作・放送フローと、オブジェクトベースオーディオによる制作・放送フローを比較してみたいと思います。この図(⑩)は、従来の制作・放送のアプローチを示したものです。このアプローチは、最終の放送プログラムを制作するうえでは、とても容易な流れとなっています。
しかしこのアプローチで、シーンベース、チャンネルベール、オブジェクトベースという異なる制作手法を同時に実行しようとすると、このままでは対応が困難です(⑪)。
そこでEBUコアによるアプローチ、すなわちADMによるアプローチが必要になってきます。図(⑫)に示したように、オーディオ情報を共通としながら、技術情報に関連したメタデータは異なるものを設定し、オブジェクトフォーマットとチャンネルフォーマットを両立させることができるわけです。
EBUとフランスTV、BBC、IRT、Raiなどが協力して、ベルリンで開催されたヨーロッパ陸上チャンピオンシップ2018において4K映像と、最新のオーディオ技術によるライブ制作実験を行ないました(⑬)。
オーディオについては、3Dイマーシブサウンド制作に、4つのオブジェクト、すなわち英語とフランス語の実況コメンタリーと、英語とフランス語によるオーディオ記述を付加して、ライブ制作のテストを行ないました(⑭)。
サウンドミキシングは、2つの制作を並行して行ないました。ひとつは4+7+0のマルチチャンネルオーディオに4つのオブジェクトを加えたもの。もうひとつは2次のHOAに4つのオブジェクトを加えたものです。この2つの制作は同じコントロールルームで実施し、双方を切り替えてモニタリングできる環境を構築していました(⑮)。
マイキングについては、マルチチャンネルオーディオのアンビエンス用にSchoepsのORTF-3Dマイクロフォンアレイを、HOAのアンビエンス用にMH Eigenmikeを使用しました(⑯)。
ラウンドテーブル
「What are the keys for connecting Science and Aesthetics in the 3D Audio Reproduction?」というテーマでラウンドテーブルがコンファレンスの最後のセッションとして行なわれました。以下その概要です。
尾本章氏(九州大学、以下AO) 現状の音場再生システムを図(⑰)にまとめました。これをベースにディスカッションをしましょう。
Hyunkook Lee氏(University of Hudd-ersfield、以下HL)アコースティック録音にとって最も大切なのはナチュラルであることだと思います。
Wilfried Van Baelen氏(Auro Techn-ologies、以下WB) 音楽家や演奏家にエモーションをもたらすことができるのがイマーシブサウンドだと思います。
Thorsten Weigelt氏(Berlin University of the Arts) 音場再生は創造性を高められると思います。作曲家が音場再生システムによって新たな作品を生み出す可能性があるのではないでしょうか。
WB イマーシブサウンドに関する様々な動きが顕著になってきていることは素晴らしいと思います。
HL 映画などでハイトチャンネルを使用した作品がBlu-rayで発売されていますが、音に失望することが多いです。ハイトチャンネルに適切な音が録音されていません。映画のエンジニアや音楽プロデューサーを教育そして啓蒙する必要があります。
WB 既に多くの優れた技術が発表されています。それらをうまく利用すべきですが、イマーシブサウンドは黎明期なのだと思います。
AO 再生環境によっても音の印象が変わります。
亀川徹氏(東京藝術大学、以下TK) イマーシブサウンドを一般に広めるためにはバイノーラルサウンドを利用する必要もあるのではないでしょうか。
WB 車も重要な再生環境です。
TK 車内は確かに重要な環境です。音場再生の将来性はどうでしょうか。
Jim Anderson氏(Anderson Audio、以下JA) 予測は難しいです。
HL このような機会をもっと多く作る必要があり、作曲家やクリエイターにも参加してもらうと良いと思います。
渡邉祐子氏(東京電機大学) サイエンティストやエンジニアが使用している用語と、芸術家が使用している用語を相互理解するための翻訳が重要です。
HL 多くのエンジニアやサイエンティストが持っている情報をできるだけ共有する努力が必要です。
JA 教育そして啓蒙を図ることは私たちの責務です。
聴講者からのコメント 前回東京で開催された空間音響に関するコンファレンスから今回は8年が経っています。あまり年月を空けずに次回のコンファレンスをまた東京で開催してください。