htc vive買ってみた
大昔から.hack だったり SAO だったりの影響で VR に興味は持っていたのですが、Microsoft のWindows Mixed Reality 展開であったり、昨年からのバーチャル YouTuber(VTuber)の波を受けて VR あらためて興味を持っていたのですが、遂に奮起して htc vive を買ってみました。というか、シロちゃんかわいいです。順番に殴られたい。
買ってみてからよく分かったのですが、VR にはざっくり二種類あります。
一つは「360度動画」で、しばらく前から RICOH THETA の影響で一気に普及したあれです。いわゆるスマホ動画もほとんどがこれで、言ってしまえばパノラマ写真の発展系です。VR ゴーグルを付けた人の視線の向きに応じた画像が見られるというものです。ジェットコースターに載せられているデモを見た事がある方も多いと思います。
もう一つは「ルームスケール VR」で、視線の向きだけでなく視点(というか頭)の位置を VR 空間内に反映する事(位置トラッキング)ができるものです。360動画ではあくまでカメラの場所は固定ですが、こちらは実際に移動する事ができるわけで、与える価値として全く別のものという事に体験してみてようやく気づきました。スマホ VR でも、iOS11の ARKit 等で位置トラッキングへの対応が始まっているようです。ただ特殊なカメラで撮影すれば良い360度動画と異なり、「VR 空間」を意識したコンテンツを用意する必要があります。
今回の htc vive はルームスケール VR が可能な機種で、あらかじめ2箇所に設置したベースステーションから赤外線でトラッキングをしているようです。実は最近上位バージョンも出ていますが、そのおかげで値下げしたタイミングで変えたのでハッピーです。
設置
とりあえず勢いで買ってしまったので、まず部屋を片付ける必要があります。VR 空間として利用するスペースは真四角である必要は無いのですが、内側に2m×1.5m の長方形が取れる必要があります。実はすぐに用意できる空間がぎりぎりで、かなり試行錯誤が必要でした。
まず高い場所にベースステーションを設置するのですが、私の部屋はもともと2つの部屋を繋げてある関係で L 字形になっています。そのため、上手く設置しないとベースステーションからコントローラに赤外線が届かない死角ができてしまいます。ひとまずはと思い、多少狭くても死角ができないようにベースステーションを設置したのですが、うまく向けたつもりでも死角がちょいちょい生まれてしまい、ベースステーションの角度を細かくいじってようやくそれなりにコントローラに届くようになりました。この状態で、コントローラを手に持って動かして VR で使う空間の広さを辿っていくのですが、かなりぎりぎりだったため、内側の2m×1.5mが取れないと何度も言われて10回ぐらいトライしてようやく成功しました。そもそも壁際の荷物をどかさないとだめだった感じですね……。
ここまでできればあとは、HMD をかぶって VR 空間の中でチュートリアルとかをこなします。操作もとても分かりやすいです。きちんと推奨通りの性能を PC 側に確保した事もあって、身体の移動との遅れも感じられない程度で、奮発したかいがあるというものです。


VRChat
で、やってみました VRChat。
正直ゲームとかどうでも良いから VRChat 自分で試して見たかったのが今回の動機です。
ぶっちゃけ vive 買ったのが技術書典の一週間前なので、軽く VRChat 入ってみてあちこち眺めて見て回った程度なのですが、ネットゲームとかを長くやっている人は、「ゲーム内で一緒に居る人が確かにそこに存在する感じ」という表現が伝わればと思うのですが、位置トラッキングによる VRChat はこの感覚を容易に達成していました。いわゆる「臨場感」とかいう指標とは全くの別次元の「存在感」があります。時間も無いので敢えてデフォルトアバターのままふらふらしていましたが、噂通りの女の子キャラクターの聖地状態で、たまにでっかいよくわからないものが動いたりロケットが飛んでいったりしていますが、この感覚は、おそらくルームトラッキングでない VR でも、アトラクション等でお客さんとしてプレイするのでも体験できないものだと思います。
VRと別の技術の組み合わせ
いろいろ他の技術とかと組み合わせてなにかできないかなと思っていて、たとえば Alexa みたいなVUI(音声インターフェース)だったり、ドローンを VR 内と連携させて実世界側の情報を持ち込んでみたり、色々試したい事が溢れてきています。
そのためには、まず3D 系の実装技術もおさえていかないと行けないので、高速道路はありつつもなかなかゴールは高いところにある感じですが、3D アバターを配布するためのフォーマット VRM なんてのも出てきていたりと、ちょうど新規に覚えて行くには良いタイミングのように思います。いや、本当に時期はたまたまなんですが。
Vtuber
そもそものきっかけの一つである Vtuber の波ですが、ちょうど私が vive を買ったタイミングと並行して、ドワンゴが Virtual Cast を発表してみたり、カスタムオーダーメイド3D2がバーチャルアバタースタジオ機能を追加してみたりと、VR 空間でキャラクターになりきるためのツール整備が一気に進みました。
時間不足でまた Virtual Cast の起動試験ぐらいしかしていないのですが、こんど身内向けで色々遊んでみようかなと思っている次第です。興味ある方は某#ssmjp の Slack に入っていると良い事あるかも?
ViveTracker
vive だと、ViveTrack というのを追加する事で関節や足だったり、全く別の物体だったりを追加でトラッキングできるようになっています。個人的には ViveTracker 追加してから本番なのかなぐらいに思う事があります(要するに、頭の位置からの推定だけでなく、両足と腰に付ける事でしゃがんだ、寝転んだが取れるようになる)が、この ViveTracker が品薄状態で、なんとなくまだしばらく掛かりそうな感じです。
この辺が揃ってきたら、できる事がどんどん増えて行きそうな感じがします……!