最近は原曲の音声からテンポを検出したりドラム、ベース、ボーカル、その他で奇麗に分離することが可能になった
ボーカルも、音声から初音ミクみたいなデータに自動で変換できる
上記の問題点は、自動でできるけど、ゴミみたいなデータが混ざってたり、なんかおかしい箇所があったり、テンポもオチに向かってズレてくことがあったりで、
コンピュータくんは完璧に仕事をこなしてくれるわけじゃないんだけど、大雑把にはやってくれる
大体正しい、細かい箇所を見ると人間より正確というか、おぉ、よくそう見抜いたな、と感心することさえある
それと並行して、なんでこうなった、普通そうはならんやろ、みたいなものもある
それらを手直ししてゴールへ持っていくのが仕事になる気がする
もちろん、ゼロから手で打った方が早い、みたいなこともありうるとは思う
ボーカル音声も、ひとりで歌ってるのはいいけど、コーラスみたいなのが入ってるとか、そもそも全体がコーラス、とかになると対応できていない
でも、いつかコーラスとか、同一周波数帯の複数の楽器を切り分けらえる日が来ると思う
歌詞もちょっと変だけど聴き取れてるし、これから精度が上がっていけば、一発オーケーの変換ができる日が来るかもしれない
それより、AIが作ったカラオケデータを眺めながら、音楽とか作曲の勉強をするようになると思う
そういう日は今すぐではないけど、そんなに遠くない気もしてきた
無償とか数万円ちょっとのお金でこういう試行錯誤ができる時代になったんだから、意外とそういう日は早いと思う
でも、マシンパワーいるね