なにがなんだかよくわからないことになってきた。

MMD周りがいつのまにかよくわからなくなってきた。技術のインフレ的に。もちろんMMDがというよりこれまでの各分野の研究成果が集まってきたということではある。

microsoftkinectとの連携。これができると、動作がモーションとか楽に作れるトイレベルではなくというかリアルタイムに見れるとかすごすぎる。

ネットの力、お借りしたい――初音ミクと話せる「MMDAgent」
リアルタイムにレスポンスを返すするツール。たしかそろそろオープンソースで配布されるはず。

D
文面で自動しゃべりツール。これを見た後にhttp://d.hatena.ne.jp/Molokheiya/20101215/p1を見るとより楽しめる。この辺の流れは「あの楽器」あたりを思い出しておもしろい。youtubeなどの映像、音声からアクセントなどのサンプルとったりとかできないかなー。

この辺が連携しだすとなんだかもうよく分からない世界になってくる。たとえばskypeで話している相手の画面が3Dモデルで表示され、相手の動作をトレースしてさらに喋りまで変換されたりとかね。エンターテイメントだけじゃなくて物理エンジンと連携すれば色々面白そう。

最近面白そうなタグ。
http://dic.nicovideo.jp/a/今週の技術革新
今のところMMDがらみだけではあるけど、今後の面白そうなことの萌芽がいくつか。割き始めるのは来年か。ひょっとして今年中かな。

返答に関して人口無能の研究成果はいくつかあるようだけど、どうなんだろう。チューリングテストはすでにクリアされている?らしいけど。あとは3Dモデルをマウスポインタじゃなくて手で直接操作できれば。こう、kinectとの連携で。