オンキヨーとNTTドコモは、ウェアラブルデバイスとAIエージェントを活用したB to Bサービスへの取り組みをスタート。18日にマスコミに向けた発表会を開催した。
これはオンキヨーが開発したウェアラブルデバイスと、NTTドコモが開発しているAIエージェントAPIを組み合わせて、ユーザーに快適さと満足を提供しようというものだ。
オンキヨー株式会社 B2B本部 AI・IoT事業推進室 室長 宮崎武雄氏によると、今年のCESで首掛けタイプのウェアラブルデバイスを発表したところ、これを使ったビジネス用途について多くの会社からオファーがあったという。
特に人手不足の解消や作業効率の改善にこのシステムを使いたいという提案が多く、オンキヨーとしてもB to Bの新しい事業展開としてこの分野に取り組むことになったそうだ。
使用方法としては、装着したウェアラブルデバイスに言葉で話しかけると、それをAIが言語解析し、必要な答えを音声で戻してくれるというものだ。ただしそのためには、様々な環境下でAI側がきちんと人の言葉を認識できるかがポイントになる。
その点についてはマイクアレイを使ったビームフォーミング、不要な帯域のノイズを減らすノイズサプレッション、自己再生音を消すエコーキャンセルといったオンキヨーが培ってきたマイク技術を活用できるという。
そしてその音声の解析には、ドコモのAIエージェントAPIを採用している。これは、ドコモが開発した多目的対話エンジンのSpeak、先読みエンジンSense、IoTアクセス制御エンジンSymphonyといった同社が持つ高い技術に着目した結果という。その詳細については、株式会社NTTドコモ イノベーション統括部 クラウドソリューション担当 担当課長 秋永和計氏が説明してくれた。
NTTドコモでは2012年の「しゃべってコンシェル」以来、6年以上に渡って対話エンジンを開発してきた。その技術は成田空港の案内アプリや横浜市のゴミ分別アプリ、家電との連携など様々なシーンで採用されているそうだ。
さらに最近の音声対応システムの需要拡大を受けて、「あらゆるモノに対話型AIサービスを提供したい」という狙いの下に、ドコモAIエージェントAPIを展開している。これはオープンパートナーイニシアティブの下、様々なサービスやデバイスにドコモのAIを活用していこうという提案で、2019年春に企業向けサービスとしてスタートする予定という。
ドコモAIエージェントAPIは、自由度の高い対話設計、様々な音声合成モデルの作成、高い音声認識性能、多種多様な端末への対応といった特長も備えているので、これを採用することで音声入力用インターフェイスを簡単に導入可能となり、ハードメーカーとしても音声操作対応のデバイスを少ない工程で開発できることになる。
そのひとつが今回のオンキヨーとのタッグであり、NTTドコモでは、音声対話ソリューション専門部隊である「AI Geeks」を通じてクライアントへの訪問説明や開発サポートも活発に行っていく予定だという。
発表会では、ウェアラブルデバイスの活用例として、デパートでの買い物時にAIがコンシェルジュのような様々な提案を行なうというデモも行なわれた。
お客さんが来店すると、お店からウェアラブルデバイスが貸し出され、それを装着して店内を歩いていると、あるポイントに来たり、ある時間になるとAIから音声でアドバイスがされるというものだ。
例えばお昼が近くなるとレストランをお薦めしたり、催事場に近づくと現在のイベント内容を紹介してくれる。あるいは新らしくオープンしたテナントや店内の混雑状況といった情報も提供できるそうだ。
AIが提供する内容は、そのシステムがどのようなシチュエーションを想定し、どのようなサポートを行なうか次第であり、その意味ではクライアントの希望に応じていかようにも構成が可能だそうだ。