映像から複数人の激しい動きを解析、東大とドコモが技術開発 ディープラーニング活用

2020/01/17 16:02

 東京大学とNTTドコモは1月17日、ディープラーニングを活用し、カメラ映像から複数人のモーションキャプチャーを行う技術を開発したと発表した。専用のスーツなどを用意する必要がなく、これまでモーションキャプチャーが困難だった、スポーツの試合やライブ会場でもデータを取得できるため、運動の解析や3Dアニメーションの作成に役立つとしている。

 東大の中村研究室が開発した技術「VMocap」(ブイモーキャプ)を活用。解析に適した映像を、複数のカメラから自動的に選んで切り替え、映った人の身体部位を推定する。人の骨格構造や運動の連続性を考慮しつつ、画像認識技術も用いることで、高精度のモーションデータを取得できるとしている。

 フットサルの試合のように、広い空間で複数の人間が動き回ったり、身体が重なって見えたりする状況にも対応できるという。

 また同研究室が開発している、ロボティクスに基づいた動作解析技術も活用。身体部位の加速度から算出した力や、地面やボールなど体と接触した場所に加わる力を基に、筋肉の動きを可視化。これらの技術を組み合わせたことで、複数台のカメラ映像のみで運動の計測・解析を一貫して行えるようになったという。

 今後、スポーツ領域ではトレーニングや戦術解析に使う他、エンターテインメント領域での3Dアニメーションの作成や、介護・リハビリ現場の運動評価での活用も目指す。

映像から複数人の激しい動きを解析、東大とドコモが技術開発 ディープラーニング活用