質問
Kinect(v2含む)ではなぜ、顔のパーツや骨格、間接の認識が行えるのでしょうか。
調べてみると、赤外線技術を用いて3Dデータを取得できるところまではわかったのですが、なぜその点が「目」や「鼻」だとわかるのかという部分がわかりませんでした。
SDKのHDfacetrackingのコードを初心者なりに読んでみたのですが、該当の部分はコード外での処理のようで見つけることができませんでした。これはOpenCVなどを読み込んで様々な処理を行っているのでしょうか?元をたどるとディープラーニングを行って作られた何かなのでしょうか。
(初心者のため的外れでしたら申し訳ありません。)
簡単にで構いませんので教えていただけると幸いです。よろしくお願いいたします。

回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2020/01/16 03:12
退会済みユーザー
2020/01/16 16:21