もし30秒以内にあなたのゲームやソフトウェアへのジェスチャ機能を組み込むことができたらどうでしょうか?
ゲームディベロッパーや3DアーティストがUnity、UE4、およびパイプラインに含まれるあらゆるソフトウェアに対して信頼性の高いジェスチャ入力を行えるように設計された機械学習ライブラリ、3Dジェスチャ認識ライブラリをご紹介します。
MiVRy(ミブリー)とは?
ジェスチャ機能を手動でプログラミングするのは手間がかかりますが
この高度なニューラルネットワークをもつ3Dジェスチャ認識ライブラリを活用すれば
約30秒で新たなジェスチャ機能を実装することができます
例えば、VRゲームへの導入では
矢印を描くジェスチャで特定の方向に矢を放ったり、あるいは「手を振る」ジェスチャで銃のリロードを行うなど、新しい機能を追加することができるだけでなく
ゲームのユーザーが独自のジェスチャを簡単に登録することも可能にします
「方向」が意味を持つもの(「左にスワイプ」と「右方向にスワイプ」)持たないもの(「任意の方向を向く矢印を描く」)のどちらのジェスチャにおいても、その「位置」「大きさ」「方向」に関する情報をアウトプットします
大きな立体のキューブを描くと、適切な大きさと向きで表示されます
片手によるジェスチャ、両手によるジェスチャー、および連続的なジェスチャの全てがサポートされています
機能紹介
- 魔法の杖を振るようなリアルな3Dジェスチャを実現
- あなた独自のジェスチャを生成 - シンプルかつ直感的
- 使いやすい構造 - 単一のC#クラス
- 同時に複数のジェスチャセットを持つことが可能(例:それぞれのボタンに異なるセットを設定)
- 高精度の認識能力
- ジェスチャが実行された位置・大きさ・原点をアウトプット
- 高いパフォーマンス(最適なC/C++で書かれたバックエンド)
- ライブラリ形式での導入
- Unityプラグイン形式での導入
- UE4プラグイン形式での導入