昨日お知らせした通り、6月1日(木)〜4日(日)の4日間、東京・砧のNHK放送技術研究所で、恒例の「技研公開2023」が開催される。今年は「メディアを支え、未来を創る」というテーマの下、「イマーシブメディア」「人にやさしい包装サービス」「AIを活用した番組制作支援」といった研究成果が展示されている。以下では会場1Fの展示を中心に紹介する。

(1)Webベース放送メディア①視聴アプリケーション技術

画像: (1)Webベース放送メディア①視聴アプリケーション技術
画像: ▲開発中のアプリをテレビにインストールした際のイメージ。このメニュー画面から見たいコンテンツを選べば、放送、配信の垣根を超えた視聴が可能

▲開発中のアプリをテレビにインストールした際のイメージ。このメニュー画面から見たいコンテンツを選べば、放送、配信の垣根を超えた視聴が可能

 ここでは番組視聴方法についての提案が行われていた。ひと昔前はテレビといえば“放送”を受信するもので、番組選択もチャンネルを変えるだけだったが、最近は伝送経路も放送の他に配信(Web経由)が加わり、それらをどうやって簡単に選ぶかは、特に高齢者にとっては重要なテーマとなる。

 そういった問題に対し、放送から配信まで横断的に使え、視聴場面や目的に応じたコンテンツ再生が簡単におこなえるようなアプリを提供しようというのがこの研究だ。アプリはテレビ、PC、スマホといった様々なデバイスにインストール可能で、そのデバイスが対応した伝送経路に応じて、見ることができる番組が表示されるという。

 コンテンツの関連データや視聴者のパーソナルデータ、外部データなどをデータベースに集約し、これを使ってお薦め番組を提案すると言った展開も可能という。データベースには全国の番組内容も登録できるが、地域コードを設けることでローカル番組と全国ネットもきちんと区別していく予定という。

(2)Webベース放送メディア②コンテンツとデータの連携・処理技術

画像1: (2)Webベース放送メディア②コンテンツとデータの連携・処理技術

 PDS(パーソナルデータストア)と呼ばれるアプリに個人の視聴履歴などを保存し、そのデータを(本人が許可した範囲で)活用することでお薦め番組を提示、本人も気が付かなかった“学び”を提供しようという研究も継続して行われている。

 お薦め番組の選定にはナレッジグラフとよばれるシステムが使われている。ここでは学習指導要領に準じた手順でキーワードを連携させているとかで、幅広いジャンルから新しい番組にたどり着くこともできるようだ。

画像2: (2)Webベース放送メディア②コンテンツとデータの連携・処理技術

 その他に、Webでのフェイクニュースなどが騒がれている状況に対応するために、それぞれのコンテンツについて「撮影」「編集」「配信」といった来歴情報(作業日時や制作会社名など)を保存しておくという取り組みも進められている。これによりそのコンテンツが信頼できるものかどうかが判断しやすくなるというものだ。ヒューマンエラーを防ぐため、データ入力時もダブルチェックを基準としていく予定という。

(3)Webベース放送メディア③クラウドネイティブ配信基盤技術

画像: (3)Webベース放送メディア③クラウドネイティブ配信基盤技術

 NHKではインターネット動画配信サービスを様々なニーズに合わせて安定・効率的に供給するためのクラウドネイティブ配信基盤技術に関する研究も進められており、そこにはコンテンツの遅延対策も含まれている。

 放送と違い、配信を使った番組視聴ではネットワークのトラフィックによって遅延が生じることがままある。ドラマなどの完パケコンテンツなら遅延も気にならないが、緊急速報などの場合は遅延はないに越したことはない。

 そもそもこの遅延は番組伝送時にコマ落ちなどが起きないようにバッファを持っていることが一番の原因なので、配信のトラフィック状況を把握し、回線の混み具合に応じて転送レートを調整することで、バッファを最小限に抑えつつ、かつコマ落ちなどもない再生を目指している。

(4)アクセシビリティー支援技術

画像: ▲投球フォームなどをモーションピクチャーで解析し、プレーヤーが今どんな状態にいるかも判別、それに応じたワードを再生する

▲投球フォームなどをモーションピクチャーで解析し、プレーヤーが今どんな状態にいるかも判別、それに応じたワードを再生する

画像: ▲副音声アプリは、男声・女声のどちらで再生するかや、再生速度、発話量なども設定可能になる模様

▲副音声アプリは、男声・女声のどちらで再生するかや、再生速度、発話量なども設定可能になる模様

 視覚・聴覚障害者や高齢者、外国人にも番組を楽しんでもらえるように様々な情報発信技術についての研究も行われている。

 そのひとつとして、映像の動きを解析して自動的に副音声を生成するアプリが展示されていた。スポーツなどの生放送では、これまではオペレーターが画面を見ながらリアルタイムで作業していたが、今回は映像の動きをモーションキャプチャーで解析し、そこから割り出された内容を言葉で表現するという。

 例えば野球中継なら、先発ピッチャーや打順などのデータも含めて処理することで、誰が投球し、誰が打ったという解説が自動生成できるそうだ。アプリはスマホにインストールして使うので、テレビ側は何も変える必要はない。

 ちなみに野球はある程度動きが判別しやすいが、サッカーやバスケットのような動きが複雑なスポーツについてはこれから検討を進めていく予定のようだ。

(T1)イマーシブメディアが描くコンテンツの未来

画像: (T1)イマーシブメディアが描くコンテンツの未来
画像: ▲22.2ch音声は「ミュージックビデオ」「アーティストモード」「ドローンモード」の3種類が準備され、上映中に順次切り替えられる。この違いもぜひ体験していただきたい

▲22.2ch音声は「ミュージックビデオ」「アーティストモード」「ドローンモード」の3種類が準備され、上映中に順次切り替えられる。この違いもぜひ体験していただきたい

 次世代エンタテインメントでは没入型のコンテンツが求められるという予想から、大画面ディスプレイやARグラス、VRゴーグルなどを使った体験も展示されている。

 会場内の450インチスクリーンと22.2chによる大画面体験では、GLIM SPANKYの演奏をグリーンバックで撮影、CGと合成した宇宙空間でのライブが上映されていた。映像は正面のスクリーン(解像度は7680×4320画素)に加えて、床面(3840×2160画素)にも投写されており、自分が立っている場所からの連続性が感じられることで、一層ライブの世界に入り込んだような体験が可能になっている。

画像: ▲スクリーン反対側の壁面、高さ1.5mほどの位置にラインアレイスピーカーがセットされている

▲スクリーン反対側の壁面、高さ1.5mほどの位置にラインアレイスピーカーがセットされている

 視聴位置の後ろ側にはラインアレイスピーカーが設置され、幕間のデモ映像ではこれを使ったオブジェクト音源再生も体験可能なので、ぜひチェックしていただきたい。

(T2)海中撮影VR

画像: (T2)海中撮影VR

 海中散歩を体験できるVRコンテンツもデモされている。VRグラスには大阪の海中の様子が映し出され、そこを泳いでいる魚を写真に撮るというアトラクション的な内容だ。魚の種類の違い、手前と奥の泳いでいる位置の差などもきちんと再現され、なかなかにリアルだ。お子様と一緒にお出かけの際は必ず体験していただきたい。

This article is a sponsored article by
''.