要するにバンダイナムコがプレステ3で、アニメのキャラクターにニュースを喋らせるというサービスを開始するという記事。その際に日立超LSIシステムズの「Ruby Talk」というツールを使うそうな。
サンプルを公式サイトで聞くことが出来る。
http://www.hitachi-ul.co.jp/middleware/rubytalk/scene.html
プレステ3の処理能力や、事前に担当声優に合わせたチューニングが行われる事を考えれば、それなりの精度が期待できると思う。
しかしこういう技術を突き詰めていけば、声優そのものが不要になっていくんじゃないだろうかとも思えてくる。
たとえばハリウッドのCG映画に登場するキャラクターが、専らファンシーな動物・昆虫・ロボットの類だったり、あるいは人間であってもデフォルメされたデザインばかりなのも、俳優サイドの職分とバッティングする可能性を配慮している面があるという話を聞く。
この声優(が所属する事務所)は、このサービスを開始するにあたってメーカーとどのような契約を結んだのかが気になる。個人的には、「買い切り」という可能性は低いように思う。この手のツールの音声データの収録作業がどういうものなのかは知らないが、さすがに映画一本分ほどのボリュームはないだろう。その程度の期間声優を拘束するだけで、あとは無限に、本人に喋らせるのと大差無い音声を生み出せるというのであれば、声優当人からしてみれば商売あがったりだろう。だからおそらく、サービス運用期間か、もしくは喋らせる原稿の量に応じたギャランティーが発生するような契約になっているはず。もしそうであれば、声優本人が負担なく一定のギャランティーを安定して得られるという収益構造が生まれる事になる。だとすると、「声優が不要になる」という未来にも、あまり悲観的にならなくて良いような気がしてくる。
いずれは、亡くなった声優の音声を復活させるという事も可能になってくるんだろう。当人の音声は作品として多く残っているのだから技術的には難しくないはず。多くの人気声優を抱える事務所は、そういった「商品としての声」の管理も求められていくようになるんじゃないだろうか。