いい加減気になってきた
ダテコー説あるが、なんか違う気もする
技術的にもかなり気になる
あれってLive2Dとほぼ同じ技術なのか?
動きを見ると明らかにモーションキャプチャーだよね
Kinect的なサムシングとは違う、ガチなやつ
特に表情の細かさにビビるんだがどうやってんだ
最初は後付けだと思ったんだけど、実況動画とか生放送とか見るとほとんどリアルタイムだよね
笑顔、目を瞑る、はまだわかる
青ざめる、怒る、とかは声のトーンで判断してるの?
うーん、すごい時代だ
Permalink | 記事への反応(1) | 10:06
ツイートシェア
三十万ぐらいあれば似たようなことできるよ。 モデルの出来は悪くなるし表情パターンも少なくなるけど。