2015年12月4日に東京・秋葉原のUDX NEXTで行われた「Unityソリューションカンファレンス2015」。そこで「VOCALOID for Unity プロジェクトアップデート」と題した講演が行われ,ヤマハの石川克己氏がUnityからボーカロイドを制御する「VOCALOID for Unity」改め「Unity with VOCALOID」の進捗を発表した。講演の内容的にはCEDEC 2015で行われたものと重なる部分があるが,おさらいがてら読み進めていただきたい。
ヤマハの石川克己氏
Unity with VOCALOID (VOCALOID for Unity)とは,ゲームエンジンであるUnity上から,VOCAROIDの歌声合成エンジンをシームレスに利用できるようにするという統合開発環境のことだ。2015年8月のCEDEC 2015にて発表されて大きな話題を呼んでいた。来る12月21日の正式リリースを控えたUnity with VOCALOIDについておさらいをしつつ,最新の進捗状況を発表しようというのが,本講演の主旨である。
登壇した石川氏は,VOCALOID for Unityの正式名称が「Unity with VOCALOID」に決定したことを報告し,今後は新たな名称とロゴでプロジェクトを展開していくと語った。
これまではUnityのゲーム上でVOCALOIDの歌声を使おうと思ったら,あらかじめVOCALOIDエディタで作った歌声をゲームに取り込むというやり方が一般的だった。しかし,Unity with VOCALOIDを使えば,Unityから合成エンジン側にパラメータを送ることにより,ゲームの状況に合わせてVOCALOIDの声を変化させるようなことが簡単に実現できる。
歌声を生成するうえで遅延は避けられない問題だが,「Unity with VOCALOID」 では二つの動作モードを用意して対策している。Playbackモードでは音声の品質が優先で,500ミリ秒程度の遅延が起こる。Realtimeモードはその逆で,リアルタイム性を向上させた形で音声を生成できるが,品質はPlaybackモードよりも低くなる
Playbackモードを使用したサンプルアプリ。音声のパラメータを変更した場合,500ミリ秒後に反映される。12月21日に発表されるVOCALOID SDK for Unityに同梱される予定
こちらではRealtimeモードが使用されている。あらかじめ歌詞を選択しておけば,押した鍵盤に合わせた音階で順番に発音し,歌詞を歌ってくれる。こちらも,12月21日に発表されるVOCALOID SDK for Unityに同梱される予定
バーチャルライブの際に周囲の環境情報をセンシングし,これをパラメータとしてVOCALOIDに送ることにより,“会場の状況に応じて歌声が変化するVOCALOID”も実現できるのではないかと石川氏は考えているのだという。人間の歌手なら体調や会場の雰囲気で歌が変化していくが,Unity with VOCALOIDによってこうした要素を再現できればVOCALOIDの表現力も上がり,より人間らしくなるというわけだ。
また,Unity with VOCALOIDの可能性は,コミュニケーションツールやUIの一環として歌を活用したり,HCI(人間とコンピュータの相互作用),AI(人工知能),VR(仮想現実)といったアカデミックな領域にも広がっていくという。
ただ,こうした方面に関してはヤマハにも知見の蓄積があまりないそうで,石川氏は「音楽情報処理とコミュニケーションプロトコルをいかに組み合わせていくか,皆さんと一緒に作っていきたいです」と希望を語った。
Unity with VOCALOIDは,プレイヤーの入力によって歌声が変化するような音楽ゲームはもちろん,コミュニケーションツールやバーチャルライブといった方面にも活用が期待されている
Unity with VOCALOID プロジェクトで生み出された,Unity上からVOCALOIDを制御するのに使うSDKが「VOCALOID SDK for Unity」だ。
8月の時点ではWindows,Mac OS X,iOS版が予告されていたが,現在先行評価中のAndroidを加えて4プラットフォームへの対応となる。
また,8月に対応を検討されていた「歌唱パート,トラック情報の追加・編集」「ノートの追加」「ノートナンバー以外のノート情報の編集」「歌詞入力・編集と発音記号変換」といった機能に関してはVer1.0での正式対応が決定,APIが公開されるという。
Unity with VOCALOIDでは,ヤマハとユニティ・テクノロジーズ・ジャパンと合同で歌声ライブラリとアプリを開発することも行われている。「PROJECT:AKAZA」がそれで,ユニティちゃんというキャラクターの世界観や,歌心といった部分まで盛り込むことを目標として歌声ライブラリの制作が進められたのだという。
こうして作られたユニティちゃんの歌声ライブラリ,Unityランタイム向けが12月21日に発表されるVOCALOID SDK for Unityに同梱される予定。SDK,歌声ライブラリ共に,ユニティちゃんライセンスおよびガイドラインの下で無償利用も可能となる(前年度売り上げが1000万円以下の場合)。アプリやゲーム内で歌声をゼロから作る場合であればこのUnity向け歌声ライブラリがあればよい。
PC用は12月29日〜12月31日に開かれる「コミックマーケット89」にてスペシャルパッケージ版が先行発売される。また,2016年1月中旬にはヤマハ・ボカロネットのVOCALOID SHOPにおいてダウンロード版が販売される予定だ。
iOS用は2016年1月下旬に「Mobile VOCALOID Editor」のアプリ内ストアでダウンロード販売が行われる。これらのPC用・iOS用の歌声ライブラリは,「VOCALOID4 Editor」「VOCALOID4 Editor for Cubase」「Mobile VOCALOID Editor」といったツールに組み込んだ上で楽曲と歌唱シーケンスを制作するのに用いられる。