手の姿勢推定における学習データのラベル付け
現在単視点RGB画像から手の姿勢推定を行いたくて、機械学習でやろうと思っています。
関節の位置をラベルとしてつけるイメージです。
このラベルなのですが、配列は学習データとして取り入れられるのでしょうか?
出力は推定される関節の位置で、これを手モデルに合成できればいいかなと思います。
機械学習の経験が浅く、どう学習データを作るのかがわかりません。ご教授頂けると幸いです。
追記 (具体的な方法): ボールを握っているような状況の手を、その中心(この場合は透明なボールの中心)から写します。モーションキャプチャーで撮影したものを用いるので、関節や手の甲の3次元位置はわかっています。これを学習データのラベルとして、CNNなどの既存のネットワークにかけられれば良いかなと思っています。入力は画像のみ、出力は推定される関節や手の甲の3次元位置をまとめた配列で出す、のが具体的な手法のイメージです。クラスに分類、というのは調べると見かけますが、回帰的なものの参考資料はなかなかないですね..。