コルグが提供している配信プラットフォーム「Live Extreme」が、がぜん注目を集めている。ライブ配信などの音質を重視した“オーディオファースト”という独自の提案に始まり、マルチチャンネルや副音声への対応、そして近年はイマーシブフォーマットの配信も実現している。今回は、Live Extremeの誕生から4年間の歩みや今後の展開について、株式会社コルグ 取締役/技術開発部 部長の大石耕史さんと、Live Extreme担当の山口創司さんにインタビューをお願いした。(StereoSound ONLINE編集部)

画像: インタビューに対応いただいた、株式会社コルグ 取締役/技術開発部 部長の大石耕史さん(中央)と、Live Extreme担当の山口創司さん(右)

インタビューに対応いただいた、株式会社コルグ 取締役/技術開発部 部長の大石耕史さん(中央)と、Live Extreme担当の山口創司さん(右)

麻倉 今日はよろしくお願いします。Live Extremeを初めて取材したのは、2020年秋の「キング関口台スタジオ」での実証実験でした。コロナ禍で演奏会やイベントが開催できなくなり、配信による動画・音楽配信の需要が急速に高まっていた頃に、高音質・高画質でライブを配信しましょうという提案がでてきて、感心したのを覚えています。

 そこから3年ほどでLive Extremeは大きな進歩を遂げています。今日はLive Extremeのこれまでの変遷と、今後の可能性についてお話をうかがいたいと思っています。

大石 ありがとうございます。この3年で色々な新展開があって、我々自身も驚いています。

麻倉 Live Extreme自体は、コロナ禍の前から開発は進んでいたそうですね。

大石 弊社はもともとIIJ(インターネットイニシアティブ)さんと一緒に音声配信サービスのPrimeSeatを開発していました。その頃からPrimeSeatに映像を付けたいという思いはありましたので、その準備を2019年1月頃から始めました。映像をつけるための研究を1年半ぐらいかけて行い、ようやく発表したのがあのタイミングだったわけです。

麻倉 コルグとしても、PrimeSeatの開発に関わっていたということですね。そこで得た成果はどんなものがあったのでしょう?

大石 弊社もそれまではライブ配信の経験がありませんでしたので、IIJさんとご一緒できたのはたいへん勉強になりました。PrimeSeatのプロジェクト自体は2014年から始まったんですが、最初の半年間はIIJさんから色々なアドバイスをもらいながら作っていったという感じです。

 今でも配信システムの設計はあの頃と大きく変わっていません。具体的には、MPEG-DASHというフォーマットを使い、お客様が聴くファイルそのものを現場で生成して、それをサーバーに打ち上げるというやり方を今でも踏襲しています。

麻倉 Live Extremeのシステムは、専用のハードウェアではなく、できるだけ既存のものを使うようにしているとおっしゃっていましたよね?

大石 おっしゃる通りです。PrimeSeatでは専用プレーヤーアプリを使っていました。この方式もメリットは多いんですが、そうなるとプレーヤーとエンコーダーというふたつのソフトを作らなくてはいけません。しかもプレーヤーの場合、ウィンドウズやMac、タブレットなど様々なOSに対応しなくてはいけないので、かなりたいへんです。

麻倉 確かに、そこは大きなネックです。

大石 PrimeSeatでは、STB(セット・トップ・ボックス)には対応できていませんでしたし、スマホもiPhoneだけの対応でした。ビジネス展開という意味でこれは厳しいかな、と考えたわけです。

 そこでLive Extremeでは、エンコーダーにフォーカスしよう、専用プレーヤーは使わずに、ブラウザで再生できるフォーマットで開発しようと考えました。その結果、Apple TVもAndroid TVも使えるようになり、一気に視聴環境を広げることができました。

麻倉 目の付け所がよかったですね。オーディオ再生で考えると、どうしても専用エンコーダーと専用プレーヤーと考えがちです。

大石 コルグは、大手IT企業と異なり、配信という分野にかけられる開発リソースは限られています。そこで今、何を優先すべきかを考えた結果です。

麻倉 戦略的にも、ビジネス的にも正解でしたね。そこから映像も一緒に配信するためのシステム開発に着手した。

大石 Live Extremeでは、動画配信の音をよくしようという切り口ではなく、高音質配信の環境が完成したところに映像をつけようと考えました。弊社では“オーディオファースト”と呼んでいますが、どうやったら、既にあるオーディオ配信システムを活かした状態で、映像を追加できるかという発想です。

画像: 2020年秋に実施された「キング関口台スタジオ」での実証実験で使われたLive Extremeのエンコーダーシステム。ウィンドウズ10マシンをベースにしていた

2020年秋に実施された「キング関口台スタジオ」での実証実験で使われたLive Extremeのエンコーダーシステム。ウィンドウズ10マシンをベースにしていた

麻倉 既存の映像配信では、データ量的には映像が90%で、音は10%ぐらいの比率でした。しかしLive Extremeではそもそもの発想が違ったのですね。

大石 例えば、配信システムではエンベッダーという映像と音声を合わせ込む機械を使いますが、そこではビデオのクロックを軸にしているので、音声を組み合わせる際にサンプリングレートコンバーターが入るのが普通でした。しかし私達はオーディオ配信システムからスタートしたので、オーディオのクロックは変えない、その上で映像をどうするかを考えたのです。

麻倉 それくらいオーディオ信号を大切にするということですね。

大石 こうしてLive Extremeのシステムが完成し、2020年11月に弊社のG-ROKSスタジオからTENDREさんの配信を行いました。この時はDSDでの配信もテストしており、弊社のショールーム限定でしたが、DSDの音をお客さんに体験いただくことができました。

麻倉 そこからイベントでの使用やライブハウスへの導入が進んでいったのですね。システム面でのその次の大きなジャンプというと、何があったのでしょう?

大石 2021年7月にフェイスさんと協業し、同社のThumva(サムバ)という配信プラットフォームにLive Extremeを採用していただきました。我々は配信技術は持っていますが、配信のためのサービスプラットフォームはありません。クレジットカードの決済とか、カスタマーサポートというノウハウを持っているところと組むことで、より効率的な運用が可能になりました。

麻倉 そこまでコルグでやろうとは思わなかったのですか?

大石 ノウハウをお持ちの方に我々の技術を提供していく方が、より普及しやすいだろうと判断しました。Live Extremeに興味を持ってくれた方であれば、どことでも組みますよというスタンスでしたので、配信採用数・サービスはかなり増えています。

麻倉 確かに、囲い込みのシステムではここまで劇的な進化はできなかったでしょうね。

画像: 2020年11月に、コルグのG-ROKSスタジオから配信されたTENDRE氏のライブ

2020年11月に、コルグのG-ROKSスタジオから配信されたTENDRE氏のライブ

大石 Live Extremeは完全にソフトウェアで開発していますので、配信用の機械自体は、ウィンドウズパソコンがあれば大丈夫です。そこも導入の際の大きなメリットでした。

 協業のタイミングで、サムバで藤田恵美さんの『Headphone Concert 2021』を配信しましたが、その際にマルチチャンネルにも対応しました。192kHzと48kHzのふたつの音声を同時に送って、ユーザーに選んでもらうというやり方です。技術的にはこのタイミングでサラウンド音声にも対応しており、7.1chまで配信できるようになりました。

 その他、副音声にも対応してアーティストのオーディオコメンタリーも同時に流せるようになりました。2021年10月に行われた『象眠舎Live at COTTON CLUB』の配信では、副音声を採用しています。アーティスト自身が本編を見ながらコメントするというのを配信で行ったのは珍しいと思います。

 さらに2022年2月には、『熊川哲也 Kバレエカンパニー「くるみ割り人形 in Cinema」』を、4K&ロスレス5.1チャンネルサラウンドで配信しています。この時は、TBSチケットさんから4Kとロスレスを使いたいというご提案をいただきました。5.1chの再生環境がない方のために2ch音声も同時配信しています。

 この頃はコロナ禍の影響で、新しい技術を使った配信に取り組むと文化庁から主催者に補助金が支給される制度がありました。そこでハイレゾや4Kといったことにトライしようというサービスも多く、Live Extremeを試したいというお問い合わせを多くいただきました。

 また弊社は楽器も手掛けているので、アーティストともつながりがあります。それもあって、アーティスト自身から配信の音をよくしたいのでLive Extremeについて教えてほしいといったお問い合わせもいただきました。

麻倉 アーティストも、配信の音声を何とかしたいと思っていたのでしょうね。ちなみに映像についても最初から4Kで考えていたのですか?

画像: 2022年2月の『熊川哲也 Kバレエカンパニー「くるみ割り人形 in Cinema」』では4K&ロスレス5.1チャンネルサラウンドでの配信を実現

2022年2月の『熊川哲也 Kバレエカンパニー「くるみ割り人形 in Cinema」』では4K&ロスレス5.1チャンネルサラウンドでの配信を実現

大石 最初の実証実験の時から、4Kを採用していました。

麻倉 ということは、当時から4Kで配信することについては、あまりハードルが高くはなかったんですね。

大石 技術的に4K映像を扱うということは問題なかったですね。4Kだからというよりも、映像と音をどうやって同期させるかの方が難しかったんです。

 そもそもオーディオクロックとビデオクロックは別々に動いているので、配信している途中に絵と音がずれてしまいます。そのため先程申し上げた通り、ビデオクロックを軸にサンプリングレートコンバーターを使ってオーディオを同期させるんですが、Live Extremeではそれは絶対嫌でした。さらにDSDも配信したかったのですが、DSDではサンプリングレートコンバーターは使えないのです。

 そこでオーディオクロックを軸にして、音声はビットパーフェクトのまま扱って、映像がずれそうになったら1フレーム追加したり、逆に間引くといった仕組みを入れました。映像専門家からは何てことをするんだと言われそうですが、昔から30フレームを29.97に変換するといったことも行われていましたので、実際に絵を見ても違和感はなかったですよ。

麻倉 なるほど、Live Extremeとしては音に対する影響を抑える方がメリットがあるという判断ですね。

大石 結果として、現場での取り回しも楽になりました。これまでライブ配信では、ハウスシンクのクロックを全部のオーディオ機材やビデオ機材に入力しなくてはいけませんでしたが、この仕組みを入れたことによってオーディオと映像を完全に分離して制作できるのです。

麻倉 具体的なコンテンツ制作手順については、コルグ側がアーティストに指示するのですか?

大石 オンデマンド配信の時は、こういう風に作ってください、音源はこうしてくださいといったお願いはしています。ライブ配信の時は、アーティスト側と相談して進めますが、現状は我々が制作を請け負うケースが多いですね。Live Extremeを常設していただいている会場では、現場の皆さんにお任せしています。

画像: 東京芸大の公演を、Live Extremeを使ったイマーシブオーディオで配信

東京芸大の公演を、Live Extremeを使ったイマーシブオーディオで配信

麻倉 いよいよイマーシブフォーマットも採用されるとのことですが、マルチチャンネルでの配信は最初から想定していたのですか?

大石 マルチチャンネルについては、最初は考えていませんでした。ただ、当時からオーディオをASIO対応のUSBオーディオインターフェイスで受けて配信できるという機能があって、ASIOのデバイス自体がマルチチャンネルに対応しているので、2chに制限するのはもったいないと考えたのです。

 弊社では、楽器としては多くのマルチチャンネル対応製品を発売していますので、その技術を使い、2021年4月時点でLiveExtremeもこれに対応しました。ロスレス圧縮フォーマットとしてFLACを使っているので、チャンネル数は最大7.1chになりました。

麻倉 2021年時点で7.1chには対応していたと。そして今回いよいよイマーシブオーディオに対応するということですね。

大石 2023年4月から東京芸大の亀川 徹教授の研究室でLive Extremeをお使いいただくことになりました。亀川先生はイマーシブ音源をたくさんお持ちですので、それを配信したいとのことでした。その際に亀川先生から7.1ch以上の配信をしたいというお話があり、Auro-3Dに対応しようと考えたのです。

麻倉 そこでAuro-3Dを選んだ理由は?

大石 Auro-3Dはなかなか面白い仕組みで、5.1ch/24ビットの信号の中にハイト情報も織り込んで送れるのです。つまり、今までのブラウザ再生という仕組みがそのまま使えるので、新しいプレーヤーを作らなくても対応できました。現状では、Auro-3Dを使って96kHz/24ビットで7.1.4信号まで配信できます。

麻倉 この件については、昨年のOTOTENでも展示をされていましたね。

大石 MacならSafariブラウザからHDMI経由でAVアンプに信号を送るだけで7.1.4のAuro-3Dで再生ができますし、ニアロスレスでほとんど圧縮していないので、音もかなりいいと思います。

画像: インタビュー後に、イマーシブの配信コンテンツも体験させてもらった

インタビュー後に、イマーシブの配信コンテンツも体験させてもらった

麻倉 イマーシブの対応としては、まずAuro-3Dがあって、次にドルビーアトモスという順番ですね。

大石 ドルビーアトモスについてもあちこちからお問い合わせをいただいています。個人的にはドルビーTrue HDで配信したかったのですが、リアルタイムに処理できるTrue HDのエンコーダーがなかったのです。

麻倉 ということは、今回のドルビーアトモスはDD+(ドルビーデジタルプラス)圧縮なんですね?

大石 はい、今回はDD+を使っています。

麻倉 現状でドルビーアトモスの配信コンテンツを再生しようと思ったら、どのデバイスが対応しているのでしょう?

大石 iPhoneのSafariブラウザはドルビーアトモス対応なので、内蔵スピーカーでのバーチャル再生になりますが、試聴は可能です。あとは、アップルの AirPods Maxはヘッドトラッキングを含めて空間オーディオに対応しています。MacのSafariブラウザもドルビーアトモスがデコードできます。

 ウィンドウズでも、ドルビーの無料ソフトをインストールすれば、HDMIからドルビーアトモスの信号がパススルーで出力されます。STBもほとんど大丈夫なはずです。

 残念ながらアンドロイドのスマホについては、ブラウザでのドルビーアトモス再生には対応していません。そこで、弊社でアンドロイド用の再生アプリを提供することにしました。

麻倉 ということは、Live Extremeでは既にAuro-3Dとドルビーアトモスの両方の配信を楽しめるわけですね。

大石 ライブ配信はAuro-3Dだけですが、オンデマンドだったらどちらでも大丈夫です。ドルビーアトモスの方が再生できる端末が多いので、そちらを選ばれる方は多いようです。

麻倉 直近で予定しているイマーシブの配信はありますか?

大石 WOWOWさんと一緒に、2月末に自動演奏オルゴールとマリンバのセッションを考えています。まず日本向けにライブ配信して、その後アメリカ向けにもライブ配信を行います。音声フォーマットはAuro-3Dで、プラットフォームにはArtist Connection(アーティストコネクション)を使おうということで話が進んでいます。

麻倉 アーティストコネクションはアメリカのプラットフォームですよね。ということは、Live Extremeがいよいよ海外展開を始めるのですか?

大石 まずアメリカを軸にスタートしたいと思っています。実際に弊社のスタッフも、アメリカでLive Extremeの営業活動をスタートしたところです。技術だけではビジネスはできないので、パートナーを見つけてサービスをスタートしようということです。アーティストコネクションとは昨年10月に協業し、アメリカでのサービスを始めています。

麻倉 そもそもアーティストコレクションは、どんなサービスを行っているのでしょう?

大石 アーティストコネクションは、スタジオでミックスした音源をアーティストがその場でチェックするためのシステムから始まっています。そこでは360 Reality Audioもドルビーアトモスも再生できなくてはいけないということで様々なフォーマットにも対応していました。それが拡大され、不特定多数に向けたライブ配信も手掛けるようになってきました。

 既にアーティストコネクションとしても、アメリカ国内のあちこちの会場に配信システムを設置しています。このシステムをLive Extremeに置き換えるだけで、サービスが拡大できることになります。

麻倉 アメリカでも高音質配信の需要は多いんですか?

画像: 下高井戸のコルビビル内に新たにオープンしたStudio Extreme Tokyo。ライブ配信からイマーシブオーディオの制作まで可能とのこと

下高井戸のコルビビル内に新たにオープンしたStudio Extreme Tokyo。ライブ配信からイマーシブオーディオの制作まで可能とのこと

大石 日本、アメリカを問わず、最近はパブリックピーリングの案件が増えています。ライブ会場に入れる人数は決まっていますが、配信で同時中継したらライブを見られる人はぐっと増えるので、ビジネスにもつながります。しかし入場料をもらう以上、音質にもちゃんと配慮しなくてはと考えるアーティストは多いのです。

 しかも会場によって響きが違うから、それぞれの現場でミックスをしたいという要望もあります。Live Extremeならマルチチャンネル音源をパラレルで、しかもロスレスで送れるので、それも可能です。さらに最近は、もっとチャンネル数を増やして欲しいというお話もいただいていますので、ロスレスで16chを送る方法を開発しています。

麻倉 なるほど、Live Extremeは家庭向けだけでなく、B to Bでも使えるし、配信エリアとしても日本、アメリカまで広がっていくと。

大石 家庭向けの配信とパブリックビューイングは、将来的には同じ規模か、もう少し大きいビジネスになっていくと考えています。今後もその両輪で進めていくことになるでしょう。

麻倉 来日アーティストなどはプラチナチケットが増えていますから、それらをLive Extremeを使ったパブリックビューイングで、しかも全国でリアルタイムに見ることができたら、ファンに喜ばれるでしょう。

大石 B to Bであれば、4K映像と非圧縮リニアPCM音声で送れますので、クォリティも担保できます。

麻倉 コルグにとって、配信が大きなビジネスの柱になりそうですね。

山口 実は昨年末に、下高井戸のG-ROKSと同じ敷地内に配信用スタジオも作りました。ここでは配信を試してみたいというアーティストさんなどに貸し出して、実際の映像や音質を体験いただいています。

 既に声優さんやVR配信業者さんから定期的に配信を行いたいという申込みもいただいています。ここはLive Extremeの機材もありますが、それに限定せず、YouTube用としてお使いいただくこともできます。

麻倉 最後に、Live Extremeの今後の見通しについてお聞かせ下さい。

大石 先程もお話しましたが、アメリカでのビジネスを活性化させていくことと、家庭向け配信と同時にパブリックビューイングを軸にした展開を考えていきます。技術面では、16chの非圧縮配信も考えていきます。

麻倉 国際展開、パブリック展開、家庭展開の3方向に広げていくということですね。ちなみに、これまでLive Extremeで配信した中で、人気の高かったコンテンツはどんなものだったのですか?

山口 2021年のベースの日(11月11日)に配信した『Love Bass Expo 2021』とか、副音声を初めて採用した象眠舎さんのライブ、小岩井ことりさんのASMRなどは人気でした。また『新作歌舞伎 ファイナルファンタジーX』も人気が高かったので、今後は舞台作品の配信にも取り組んでいきたいと考えています。

麻倉 先日、ヤマハのDistance ViewingとLive Extremeが協業するという発表もありました。

大石 はい、ヤマハさんからオファーをいただきました。音響だけでなく、照明の制御情報も音声信号に変換して送ろうという提案ですが、そのためには音声をビットパーフェクトで送れるシステムが必要ということでお声がけいただいたのです。最初はビットパーフェクトにすごくこだわっていらっしゃるので、音質重視なのかと思ったのですが、それだけではなかった(笑)。

麻倉 なるほど、Live Extremeは機能面や運用面での制約が少なかったということが、ここに来てプラスに働いていますね。

大石 おっしゃる通りです。パートナーを限定することもありませんので、例えばヤマハさんのように楽器メーカーとしてはコンペティターですが、配信ではタッグを組むこともできました。

麻倉 コロナ禍も落ち着いて、今後は配信サービスも淘汰されていくでしょう。そこでは、どんな品質で提供できるかが肝になります。Live Extremeは4K映像とイマーシブ音声が両立できる貴重なプラットフォームです。ぜひこの強みを活かして、国内外でどんどんサービスを広げて行って下さい。オーディオビジュアルの発展のためにも、期待しています。

This article is a sponsored article by
''.