Vol.4 No.2 2011
21/66
研究論文:ヒューマノイドロボットのコンテンツ技術化に向けて(中岡ほか)−87−Synthesiology Vol.4 No.2(2011)るパフォーマンスを実現した。歌唱についてはヤマハ株式会社に協力を要請し、VOCALOIDによる音声データとリップシンクデータの提供を受けた。使用したVOCALOID音源はクリプトン・フューチャー・メディア株式会社によるCV-4Cβである。音声データの作成にあたっては、中野・後藤によるVocaListener[30]の技術を用いて注5、原曲の歌い手である持田香織氏の歌い方(エイベックス・トラックスより提供された持田香織氏によるボーカルパートの音声トラック)をお手本としたチューニングが行われ、人間に近い表情豊かな歌声を実現した。リップシンクデータについては、5章で述べたVOCALOID連携機能を用いることで、音声データからの自動生成を行い、効率的に作成することができた。このダンスデモは2010年10月16日の発表後ネットを中心として非常に大きな反響を呼んだ。反響の大きさを示す例として、ステージの観衆によって動画投稿サイトYouTubeに投稿されたデモの動画が、デモ発表後10日間で、延べ200万回以上の再生数と1500件以上のコメントを獲得したことが挙げられる。動画のひとつはその後YouTube日本語版の年間再生回数トップ6を獲得した。また、そのようなネット上の反響の直後に、海外も含む各方面から、このデモの公演依頼やHRP-4Cへの共演依頼が多数寄せられた。これは、本研究で構築した技術を用いてクリエイターが創作した表現が、これまでにない新しいコンテンツとして認識されたことを示しており、私達のシナリオの有効性を実証するものである。なお、今回Choreonoid上でのキーポーズ入力作業は筆者のひとりが行ったが、入力に要した時間は実質80時間程度であった。3分の動作に対しては少なくない時間がかかってしまったが、これは担当者がCGキャラクタアニメーション作成の経験を持っていなかったことも大きい。本来キーポーズ入力作業も含めてプロのクリエイターによる検証が必要なのは言うまでもなく、今後はプロのCGクリエイターに直接Choreonoidを操作してコンテンツを作成してもらう取り組みも進めていきたいと考えている。8 今後の展望HRP-4Cは2009年3月の発表以来、その利用に関する依頼や提案を各方面から受け、2009年3月に開催されたファッションショー「第8回東京発日本ファッションウィーク」の「SHINMAI Creator’s Project」においてオープニングスピーチを務めたり、同年7月に開催された「ユミカツラパリグランドコレクションイン大阪」においてウェディングドレスのモデルを務めたり、同年9月に開催された「CEATEC JAPAN 2009」の「ヤマハ株式会社ブース」において「初音ミク」をはじめとするVOCALOIDのキャラクターに扮して歌唱を披露するといった活動も行ってきた[31][29]。ここで注目したいのは、このようなHRP-4Cに関する一般からの依頼は、実際に何をやらせるかについて私達ロボットの開発者に委ねるものに止まらず、ロボットにさせたいことを依頼者が自ら積極的に提案するものが多くを占めていたということである。これは従来私達が使用してきたHRP-2をはじめとするロボットでは無かったことであり、この意味でも3.1節で述べたロボットの形態と外観に関する戦略が成功したと言えよう。そして、本研究で開発した動作表現支援技術や音声表現支援技術により、DC-EXPO2010のダンスのようにヒューマノイドの表現能力を総合的に活用したコンテンツも作成可能となり、HRP-4Cの利用に関する様々な提案に応えていくことが可能となった。これをさらに実証していくため、7章で述べたような取り組みを今後もさまざまなクリエイターと共同で進めていくべきだと考えている。そのような取り組みを進めながら、技術的な面でもまだやるべきことは多く残っている。まず二足歩行にかかわる部分としては、現状の振り付けシステムでは滑りやジャンプを含むような動作や膝を伸ばしたより人らしい歩行等を作成することができないが、これらはコンテンツの幅と質を向上させる上で必要なものである。それぞれの動作を単体で実現した例[32]-[34]はあるものの、これらを組み合わせた動作を自由に作成することは依然として難しい課題として残されている。より自然な動作を表出するための自律性の向上も課題である。例えば目線の動きが自然となるよう自動化したり、あ図8 ダンス中で実現した多様な動作・ポーズの例
元のページ