実はブームが始まった2007年9月頃から3か月ほどは
ニコニコで粘着したりmp3落としたりといろいろ頑張ってたんですが、
それ以来ミクとは疎遠になっていたのです。
それが今回オリコン4位にミクいるよー! っというニュースを受けて、
久々にニコニコ行って、片っぱしから聴いております次第。
これまでにもデイリーでは2位とか、何回かあったみたいですけど、
週間で4位というのは、やっぱすごいですよねえ。
以下、適当に今回のニュースに関するトピックを
音楽シーンに異変? 「初音ミク」チャートインの理由 - エンタ - 日経トレンディネット
>初音ミクの最初のメジャー流通盤は、livetuneというグループの
>アルバム『Re:Package』だった。2008年8月27日にビクターエンタテインメントから発売され、
>オリコンウイークリーチャートで5位を記録するという快挙を成し遂げている。
>このリリースで注目すべき点は、彼らがJASRAC登録を回避したことだった。
>業界の常識では、メジャーの流通に乗せるなら著作権登録は当たり前なわけだが、
>彼らはその常識には従わなかったわけだ。
>そうした理由は簡単で、ユーザーの二次利用を妨げないためだ。
たしかこのときは、ミクも金を取るようになるのか、とかなんとか
ニコニコでちょっと騒動になったような記憶があります。
今となってはなつかしい。うん。
ちなみに、Re:Packageは結構好きな曲で、
以前天雀がミクの曲集めてCDに焼いたとき、トラック1に選んだ曲でもあります。
こういうCD作るときって、意外と曲順考えるのに時間使うんですよね。
んで、情報収集してたらこんな記事見つけまして。
1年後にはオリコン入り!? 「初音ミク」超えた音声合成技術 :IT-PLUS
関西学院大学理工学研究科の森勢将雅研究員が行った「v.morish」という技術
→2人の別々の歌い手の音声を「声質」と「歌い回し」に分解して、
→それを混ぜ合わせて別のニュアンスの楽曲を合成する技術。
>サンプルとして、実際にプロの歌手が歌った音声データと、学生がそれっぽく歌った音声データとが
>最初に示された。その学生の声が、マウスでの簡単な操作で あっという間に
>プロが歌うのと同じ雰囲気に切り替わったのには、あっけにとられた。
>声質は素人のままなのだが、タイミングや間の取り方が完全にプロに置き 換えられ、
>完璧な楽曲にその場で変わったのだ。
さらにその応用版である「e.morish」を使えば、
>喜び、怒り、哀しみといった情感を変えて歌った同じ歌手の曲のデータを混ぜて、
>曲のニュアンスまでリアルタイムに変更できる
という。
【V.MORISH】リアルタイム歌唱モーフィングのデモ ニコニコより。
これはすごい。
なんていうか、もちろん合成の出来も個人的にはすごくいいんだけど、
その合成速度がハンパないんですよ。リアルタイムですもん。
(リアルタイムで動かすために、計算を多少妥協しているそうですが)
そのほか、デモを体験してみたい方はSTRAIGHT DEMOのページへ行ってみると吉。
ニコニコで粘着したりmp3落としたりといろいろ頑張ってたんですが、
それ以来ミクとは疎遠になっていたのです。
それが今回オリコン4位にミクいるよー! っというニュースを受けて、
久々にニコニコ行って、片っぱしから聴いております次第。
これまでにもデイリーでは2位とか、何回かあったみたいですけど、
週間で4位というのは、やっぱすごいですよねえ。
以下、適当に今回のニュースに関するトピックを
音楽シーンに異変? 「初音ミク」チャートインの理由 - エンタ - 日経トレンディネット
>初音ミクの最初のメジャー流通盤は、livetuneというグループの
>アルバム『Re:Package』だった。2008年8月27日にビクターエンタテインメントから発売され、
>オリコンウイークリーチャートで5位を記録するという快挙を成し遂げている。
>このリリースで注目すべき点は、彼らがJASRAC登録を回避したことだった。
>業界の常識では、メジャーの流通に乗せるなら著作権登録は当たり前なわけだが、
>彼らはその常識には従わなかったわけだ。
>そうした理由は簡単で、ユーザーの二次利用を妨げないためだ。
たしかこのときは、ミクも金を取るようになるのか、とかなんとか
ニコニコでちょっと騒動になったような記憶があります。
今となってはなつかしい。うん。
ちなみに、Re:Packageは結構好きな曲で、
以前天雀がミクの曲集めてCDに焼いたとき、トラック1に選んだ曲でもあります。
こういうCD作るときって、意外と曲順考えるのに時間使うんですよね。
んで、情報収集してたらこんな記事見つけまして。
1年後にはオリコン入り!? 「初音ミク」超えた音声合成技術 :IT-PLUS
関西学院大学理工学研究科の森勢将雅研究員が行った「v.morish」という技術
→2人の別々の歌い手の音声を「声質」と「歌い回し」に分解して、
→それを混ぜ合わせて別のニュアンスの楽曲を合成する技術。
>サンプルとして、実際にプロの歌手が歌った音声データと、学生がそれっぽく歌った音声データとが
>最初に示された。その学生の声が、マウスでの簡単な操作で あっという間に
>プロが歌うのと同じ雰囲気に切り替わったのには、あっけにとられた。
>声質は素人のままなのだが、タイミングや間の取り方が完全にプロに置き 換えられ、
>完璧な楽曲にその場で変わったのだ。
さらにその応用版である「e.morish」を使えば、
>喜び、怒り、哀しみといった情感を変えて歌った同じ歌手の曲のデータを混ぜて、
>曲のニュアンスまでリアルタイムに変更できる
という。
【V.MORISH】リアルタイム歌唱モーフィングのデモ ニコニコより。
これはすごい。
なんていうか、もちろん合成の出来も個人的にはすごくいいんだけど、
その合成速度がハンパないんですよ。リアルタイムですもん。
(リアルタイムで動かすために、計算を多少妥協しているそうですが)
そのほか、デモを体験してみたい方はSTRAIGHT DEMOのページへ行ってみると吉。
PR
トラックバック
トラックバックURL: