初音ミクノ全テ

初音ミクニュースを始めとし、亜種VOCALOIDも含めた全般的なVOCALOID情報を掲載。(PC表示推奨)
邪魔臭い広告はブログサービスの仕様なのであしからず。

<< キタ!『超初心者のための がくっぽいど ガイドブック』収録内容詳細。 | main | 【日刊VOCALOID情報】初音ミクの動向−2008年9月20日号− >>

スポンサーサイト

一定期間更新がないため広告を表示しています

| - | - | - | TOP↑ |
キタ!【CEDECラボ】歌声合成ソフト『初音ミク』に対する意見・将来。


2008年9月9日〜11日の間に開催された"ゲーム開発者向けカンファレンス
『CEDEC2008』"
音声合成ソフト初音ミクに関する話題もあったようだ



「大学で研究されているゲーム開発に活用できそうな技術を紹介する」ことを目的
として行われたこのカンファレンス。「そのうちの1つに、音楽制作のあり方まで変え
かねない次世代の音声合成技術があった。」とIT-PLUSは述べる。

それでは CEDECラボのレポートの内、「初音ミク」に触れられている部分を抜き出し
てみよう。「未来に音声合成ソフトがどう発展していくのか?」といったことも面白い。

■素人の歌をプロ並みに一瞬で変換
 その中で、私自身が最も驚かされた研究を紹介したい。関西学院大学理工学部の片寄晴弘教授の行った「音楽情報処理技術とエンタテインメント」という発表だ。片寄教授は、国の予算で進められている「CrestMuseプロジェクト」という研究プロジェクトを通じて、複数の研究者と共同で音声合成などを研究している。

 音声合成といえば、すぐ連想するのは歌声合成ソフトの「初音ミク」(クリプトン・フューチャー・メディア)だろう。その表現力と動画サイト「ニコニコ動画」という発表の場を得たことで、デスクトップ・ミュージック(DTM)の分野に一種の革命を起こした。ソフトは異例のヒットとなり、既存楽曲だけでなくユーザーのオリジナル曲も多数生まれている。

 ただ、初音ミクは必ずしも誰もが使いやすいというソフトウエアではない。自由に使うにはそれなりの習熟がいる。それをもっと簡単なインターフェースで実現できたらどうだろうか。

 講演中にデモとして、関西学院大学理工学研究科の森勢将雅研究員が行った「v.morish」はそういう技術だ。これはプロが歌った歌と、自分が歌った同じ曲をデータとして、適当に混ぜることができるという技術である。

 サンプルとして、実際にプロの歌手が歌った音声データと、学生がそれっぽく歌った音声データとが最初に示された。その学生の声が、マウスでの簡単な操作であっという間にプロが歌うのと同じ雰囲気に切り替わったのには、あっけにとられた。声質は素人のままなのだが、タイミングや間の取り方が完全にプロに置き換えられ、完璧な楽曲にその場で変わったのだ。

■目的はあくまでクリエイター支援
 これらの作業はリアルタイムに処理されており、どの程度プロっぽくするのかという度合いは簡単に変更することができる。また、どのタイミングで切り替えるかもコントロールできる。このv.morishは、「STRAIGHT」という音声合成技術を土台にしている。2人の別々の歌い手の音声を「声質」と「歌い回し」に分解して、それを混ぜ合わせて別のニュアンスの楽曲を合成するというものだ。

 過去の音声合成技術は、「あー」というような伸ばした声の音の高さと響きを分析することが得意でなく、不自然な音になりがちだった。その問題を根本的に解決する方法論が開発され、自然に聞こえるようになったという。

 この技術をさらに応用した「e.morish」というバージョンでは、喜び、怒り、哀しみといった情感を変えて歌った同じ歌手の曲のデータを混ぜて、曲のニュアンスまでリアルタイムに変更できるようになっている。音声データさえあれば、楽曲を自由自在にアレンジすることができてしまう。

 片寄教授の研究では、人工音声や自動作曲などコンピューターで完全に音楽を制作するようなテーマは意図的に取り上げないようにしているという。あくまで、様々なデータを簡易に扱える環境を提供するのが目的であり、クリエイターの歌声の作り込みを助ける「デザイン支援ツール」というコンセプトだ。

 ゲーム開発の現場でも、すべてのデータを自動的に生成してしまう技術には否定的な見方が強い。クリエイターが思い描いたそのままのデータが自動で作り出されることはないからだ。クリエイターに使ってもらうには、かゆいところに手が届く細かい調整を可能とする技術でなければならない。片寄教授は、そのクリエイターの求めを理解し、クリエイターの感性に寄り添うように使いやすい環境を提供しようと努力しているという。

■実用化は時間の問題

 ただこの研究は明らかに、クリエイター支援というレベルを超えている。発表を見ている聴衆からも、生唾を飲む感じが伝わってきた。今後、音楽の分野でどういうことが起こりうるか、容易に理解できるからだ。

 ゲーム業界が気になるのは、実用としてどれぐらい使い物なるのか、そしていつから使えるかという点だ。今回の発表では、実用化にかなり近い段階になっていることもわかった。この技術を共通のデータフォーマット化する研究も進んでおり、早ければ年内にも基礎的なプログラム環境が提供される予定という。つまり、商品化や社会に一般化するのは、もう時間の問題という段階なのだ。

 一人の歌手の様々な音声パターンをデータとして作り込んでおけば、それを元に別の曲を歌わせることができる段階まですぐに技術は発展するだろう。つまり、美空ひばりに新曲を歌わせることだってできるということだ。


■そのとき「プロ歌手」はどうなるか
 そう遠くない未来に、人工音声なのかどうかも区別が付かない質の高い楽曲が発表されるようになるだろう。そのとき、歌手の意味はどうなるのだろう。

 ブログの登場は、文章を書く人間を劇的に増大させ、文章を生業にする人間にとっては厳しい競争市場を生み出した。既存の映像メディアに対しては、動画サイトが登場した。コンピューターの性能向上は、これまで人間がデータ化してきた分野を次々に飲み込んでいく。次は、人の歌う音楽というわけだ。

 この音声合成技術の登場が、歌声という分野にまったく新しい競争原理を持ち込むことはまず間違いない。今後数年で、ユーザーが音楽を聞くという行為自体の姿も変わるだろう。プロ歌手という意味も変わり、産業の構造さえ変えるかもしれない。

 
これは今後が楽しみな技術だと感じるとともに、世の中を変えてしまうとんでもないものを見せられたという気分にもなった講演だった。


文章が長いため省いた部分に興味深い質問があった。それは「この音声合成技術を
使って、オリコンチャート上位に登場してくるような曲はできますか?」
というもの。


これに対して片寄教授はこう答えている。「運がよければ1〜2年で出てくる」

livetuneのRe:Packageのオリコン入りを思い出すと十分ありえるように思える。

今後の音声合成ソフトの進化に伴い「歌手はどうなるのか?」といった問題にも真剣に
考えられてきたようだ。興味のある人は記事の方を見てみるといいかも。


・参考記事
1年後にはオリコン入り!? 「初音ミク」超えた音声合成技術

| comments(0) | trackbacks(0) | VOCALOID情報 | TOP↑ |
スポンサーサイト
| - | - | - | TOP↑ |



http://richier.jugem.jp/trackback/673