Quantcast
Channel: MSDN Blogs
Viewing all articles
Browse latest Browse all 5308

ゴジラナイト解説

$
0
0

Mixed Reality ゴーグル「HoloLens」を装着して、日比谷に現れたゴジラを巨大不明生物災害対策本部(巨災対)のメンバーとなって迎撃するイベント「ゴジラナイト」が日比谷シャンテ前ゴジラスクエアで開催されています。(5/23~29)

ここでは、その詳細を説明します。

世界初の ホログラフィック コンピューター HoloLens

今回使用しているデバイスが、Microsoftが開発した世界初のホログラフィックコンピューターデバイス 「HoloLens」です。HoloLensにはシースルー型のスクリーンが搭載されていて、目の前の空間に高精細のホログラフィックを表示することができます。

このホログラフィックはただ、映像として現れるのではなく、目の前の空間に3Dデータとして表示されます。さらにHoloLensは周りの空間を認識する機能を持っているため、あたかもそこに物があるかのように、3Dデータを見ることができます。

参考:世界初のホログラフィックコンピューター Microsoft HoloLens

 

ゴジラ迎撃作戦

このイベントでは、参加ユーザーは巨災対のメンバーとなって、日比谷に現れたゴジラ迎撃の任務を遂行します。初めに日比谷シャンテ前ゴジラスクエアに作られた仮設テント内で、作戦についてのブリーフィングを行います。

HoloLensでの映像は装着者本人にしか見ることができないため、このように周りに人がいる環境であっても、秘匿性の高いデータを安全に見ることができ、情報漏洩を防ぐことができます。

参加者は夏目指揮官の元、現在のゴジラの進行状況をホログラフィックで確認し、現状の迎撃態勢についても全体図を共有します。ここでは地図とゴジラは現実に用意されたものですが、進行ルート表示や迎撃用の戦車、航空機は全てホロレンズ内で表示されます。

HoloLensにはWindows10が装着され、この作戦情報もアプリとして提供されています。しかし、ここにはマウスもタッチパネルもありません。しかしHoloLens は、指でつまんだり動かしたりするジェスチャーだけでアプリを操作することができます。アプリを操作することで様々な情報を表示することがでできます。

 

ゴジラの接近

作戦確認を終え、ゴジラの接近を確認した夏目隊長はいよいよ迎撃作戦を実行します。参加した隊員は精鋭部隊としてミサイルによる迎撃任務を任されます。迎撃ステージに移動し迎撃用HoloLens を装着、ようやく準備ができるや否や、その眼前に118.5mの巨大なゴジラが現れます。

このゴジラは平面からの映像ではありません。完全な3Dモデルとなったゴジラが現れます。そして、このゴジラはアプリ内の空間上では迎撃ステージ前方の日比谷公園のあたりに出現しています。ですから(イベントではステージから移動することはできませんが)もしステージを降りて前の方にある行けばより下からゴジラの巨体を見ることができます。これが Mixed Reality の世界です。

 

HoloLens とAI連携

HoloLens は非常に優れたコンピューターですが、それでもモバイルデバイスであるため機能として足りない部分もたくさんあります。そこで登場するのがクラウドのコンピューティングパワーを使ったAIによる支援です。

このゴジラナイトでのゴジラ迎撃作戦では2つのAI機能を使っています。一つは、作戦確認中の決戦兵器「Ruputer」を表示する際に使用する手書き文字認識の機能、もう一つがゴジラ迎撃作戦時の日本語音声コマンドを使うための音声認識の機能です。

 

【その1】作戦確認中の文字認識

作戦の中では戦車、支援戦闘機、攻撃ヘリコプターなど様々な装備が使われますが、それ以外にも数多くの装備が用意されています。ではその装備をどうやって表示させるのか。一つは音声認識で呼び出す方法が考えられます。しかし作戦を夏目司令が説明している間に、山田隊長がその横で音声コマンドを入力するのは作戦遂行上、適切な方法とは言えません。

そこで、山田隊長は文字認識による入力を選択します。対ゴジラ用のミサイル Rupture の文字を手書きし、HoloLens の作戦司令アプリで読み込むことにより、そのデータはクラウド上で認識され、最終的にRuptyure のミサイルデータがホログラフィックとして表示されます。文字認識は文字だけでなくその情報がおかれた場所も取得することができるため、ホログラフィック表示と併せての利用に適した方法です。

参考:手書き認識 Microsoft Azure Cognitive Service Computer Vision

 

【その2】迎撃作戦中の音声認識

作戦確認を終え、ゴジラの接近を確認した夏目隊長はいよいよ迎撃作戦を実行します。参加した隊員は精鋭部隊としてミサイルによる迎撃任務を任されます。迎撃ステージに移動しその眼前にゴジラが現れると作戦用HoloLensには<音声認識中> のサインが現れます。

このサインと同時に隊員は「ミサイル発射」の音声コマンドを叫び、迎撃を開始します。

ここで使用したのが2つ目のAI、音声認識です。明るさも廻りの状況も変化する過酷な現場において、音声によるコマンド入力は非常に効果的で、かつ柔軟な方法です。

隊員の「みさいるはっしゃ」の音声情報は即座にネットワークを介してクラウドに転送され、そこで解析。「ミサイル発射」のコマンドとして認定されると、迎撃システムにミサイルによる迎撃司令が送られます。

我々も普段からスマートフォンで使っているクラウドを使った音声認識は、高い認識精度と、同時に数多くの言語に対応します。こういった機能はスマートフォンでの検索機能だけでなく、こういった専用のアプリの中からでも利用することができます。

参考:音声認識 Microsoft Azure Cognitive Service Speech to Text

 

MRとAIと私たちのこれから

このイベントにおいて、残念ながら?ゴジラの接近はフィクションです。しかしここで使われているデバイス HoloLens や、手書き認識機能、音声認識機能はすべて本物で、様々なアプリやシステムの中で使われてています。

HoloLens が普及してきたら、もっと小型になったら、私たちはお互いの情報を画面ではなく目の前の空間に情報を表示して共有することになるでしょう。たぶんスマートフォンではなく自分の情報は目の前の空間に表示することになります。そこには画面の大きさの制約もありません。そこにいない人たちとも情報を共有することだってできます。その操作はジェスチャーや音声コマンドになっていることでしょう。

こんな話は少し前だったら、映画の中の世界だけのお話でした。しかしこのイベントを体験した方々がこれが単なる空想の話ではなく、既に実現できることに気が付いたはずです。

勿論私たちの生活がここまで変わるにはもう少し時間がかかるでしょう。しかし技術の進歩は恐るべき速さで進化を続けています。ほんの一部の人しか持っていなかったスマートフォンは5年でだれもが持っているデバイスとなりました。たぶん5年後に私たちが手にしているデバイスは大きく様変わりしているはずです。

現実とコンピューティングパワーが融合した Mixed Reality と、あらゆる方面で進化するAI技術をこのイベントを通じて体感していただけたら嬉しいですね。


Viewing all articles
Browse latest Browse all 5308

Trending Articles



<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>