臨場感のある映像体験を作り出す鍵はネットワークコンピューティングにある

ネットワークコンピューティングが専門の理工学部の萬代雅希教授は、臨場感のある映像体験を作り出す研究に取り組んでいます。オンラインでのコミュニケーションの限界を超える方法とは?

コロナ禍で、オンラインでの会議や講義がすっかり定着しました。私も日常的に音声と映像を使い、遠隔地の人とコミュニケーションを取っています。しかし、その体験は直に人と会って話す体験に比べると、臨場感が足りません。オンラインでは私が発するすべての情報を伝えられないし、相手が発する情報を十分に受けとることもできません。

頭に装着して大画面でVR(仮想現実)を楽しめるヘッドマウントディスプレイ(HMD)を利用する場合も同じです。映像の画質が粗かったり、動きがカクカクしたりしますよね。その理由の一つは、大量の情報を処理する力が、HMDなどのユーザー端末に十分に備えられていない点にあります。では、いったいどうすれば臨場感を向上できるでしょうか。

処理を分散させて臨場感のある映像体験を作り出す

私の研究室ではこの課題の解決に挑んでいます。利用するのは、通信基地局付近などに設置され、高度な計算処理を行うエッジサーバ、エッジサーバよりもはるかに高度で大規模な計算処理を行うクラウドサーバなどネットワーク上のさまざまな計算リソースです。

これら計算リソースに処理を割り振れば、ユーザー端末での処理の負荷を下げることができます。私たちはネットワークコンピューティングと呼ばれる手法を用いて、ネットワークの状況を把握し、コンテンツの内容も考慮した上で、どこでどんな処理をどんなタイミングで実行するのがよいかをアプリケーションとして具体的な形にすることに取り組んでいます。

360度の映像用のコンテンツデータをあえて減らす場合もあります。全体的に減らすのではなく、ユーザーの視線を予測し、視線を向ける確率の低い場所のデータ量を減らします。すべては画質を制御し、臨場感のある映像体験を作り出すためです。

シースルー型のHMDを使うと、現実空間に仮想物体を重ねて表示させることができます。複合現実システムと呼ばれる技術ですが、これを使えばユーザーのカメラで撮影された画像から物体を検出することもできます。また、3次元物体を点の集まり(点群)として表現する技術も登場しています。

今後ネットワークコンピューティングの重要性が高まる

このような便利な機能を実現するには、人工知能技術として知られるディープラーニングなどの非常に計算負荷の高い処理を実行しなければなりません。しかも、多くの人に使ってもらえる端末には、なるべく小さく、軽量であることが求められます。それを優先すれば、ユーザー端末に搭載するコンピュータの計算処理能力は上げにくくなる。そう考えると、エッジやクラウドに分散して処理を実行するネットワークコンピューティングのサポートの重要性は今後ますます高まると予想されます。

普段の研究は、関連論文を読んで学生と議論したり、学会で他の研究者と意見を交わしたりすることからスタートします。どんな課題があるか、既存の研究に何が足りないのかを洗い出し、アイデアをあたためて、最終的にはアルゴリズム(問題を解く手順)に落とし込んでいくのです。例えば、建築家がビルを設計して実際に建てるには大変な労力がかかりますが、私たちの場合、半年もあればプロトタイプができる。具体的な形をパッと作れるところが面白いですね。

この一冊

『Computer Networks』
(Andrew S. Tanenbaum/著 Pearson)

インターネットが巧みな仕組みであり、これだけ普及した理由がよくわかる本です。大学院の博士課程の時に読んで感銘を受けました。改版を長く重ねている定番の教科書で、今でも私の研究室での輪講に使っています。

萬代 雅希

  • 理工学部情報理工学科 
    教授 

慶應義塾大学理工学部電気工学科卒、同大学大学院理工学研究科博士後期課程修了。博士(工学)。静岡大学情報学部情報科学科助手、助教、講師、上智大学理工学部准教授などを経て、2018年より現職。

情報理工学科

※この記事の内容は、2022年11月時点のものです

上智大学 Sophia University