Please enable JavaScript.
Coggle requires JavaScript to display documents.
一般行動認知を機械で行うためのアプローチ (動画の中から動作を行う箇所を瞬間的に捉えてフォーカスを当てる (エネルギーパラメータを使って初動から瞬間…
一般行動認知を機械で行うためのアプローチ
動画の中から動作を行う箇所を瞬間的に捉えてフォーカスを当てる
エネルギーパラメータを使って初動から瞬間だけを捉えて学習データにもっていく
学習データの具体例
動作の初動ベクトルを捉える
初動ベクトルの取得の課題点
なぜ顔パーツ(目・鼻・口)を取るのかの考察
表情の変化をとりたければ単純なCNNでも十分特徴を取得できる
しかし今回は表情変化ではない
顔のパーツの矩形をとりそこで新たな動画(or静止画の組み合わせ)を作成する?
顔パーツごとの特徴ベクトルの取得?(それだとデータとしては未完全)
顔パーツごとに取るのであればCNNで割りと十分?これの組み合わせで動作推定できる。
今回は
動作の意図推定
なので関係はない?あるのであれば細かく理由をつけて・・・
元々xy軸とxz軸で捉える予定なら、表情パーツはxy軸でしか捉えることができない
顔パーツで捉える必要は実はないのでは?
→やはり大方顔の動きで判断している?
→
表情認識と行動認識は別で組み合わせることで判断?
行動認知をするにあたり、顔に関すると制度が悪くなってしまうのは当たり前で、それに表情認識を組み合わせてクラス分類することで認知しているのでは?
初動ベクトルで機械学習させる
ベクトル移動を
矩形
でとってしまうのは?
Lukas-Kanade法における周辺探索を中心点から矩形の大きさで探索する?
周辺移動することで次のベクトルはどこでとるのか
→探索周辺の点の中心(重心)
顔を認識して矩形探索
余計な初動ベクトルを取らないようにするためのプログラムの修正