ユーザーの創作を後押ししたい——Live2Dに聞く、FaceRig連携で「誰でも美少女」の裏側

LINEで送る
Pocket

1
FaceRig Live2D Module」といえば、ここ1ヵ月ほど、日本のネットで大きく注目を集めているシステムだ。

 
PANORAでもニュースとして取り上げたが、男性がアニメ調キャラの顔を動かしている動画をTwitterなどで見かけたことがあるという人も多いはず。さらに4日には、VRクラスターでおなじみのGOROman氏がゲーム実況動画を投稿。体に合わせてゲームコントローラーが動き、さらにボイスチェンジャー付きで「オッサンでも美少女になりきり」の可能性を披露して各方面に衝撃を与えた。

 

 

 
Live2D自体は、イラストを2Dのまま立体的に見えるようにできるという画期的なツールだ。最近ではスマホアプリなどへの導入も進んでいる。一方で、FaceRigはウェブカメラなどでユーザーの表情を認識し、Skypeなどのチャット時にアバターを操ってコミュニケーションできるという代物だ。

 
ともに以前から存在していたが、ここにきて一気に存在感を増したことについて、当事者はどう感じているのか。Live2Dにインタビューした。

 
 

公式動画も一ヵ月ほどで20万再生に

——FaceRigとの提携はどういったきっかけで始まったのでしょうか?

 
特別な企画としてスタートしたわけではありません。FaceRigを作成しているHolotech Studiosさんから、通常のチャンネルを通して、Live2Dで作成したアバターをFaceRig上で使えるようにしたいというコンタクトがあったのがきっかけです。

 
FaceRigでは3Dのモデルだけではなく、2Dによる表現の可能性も追及していきたいということだったので、こちらとしてもぜひ協力させていただきたいと思いました。

 
また、ユーザーのみなさまに製品を使ってもらうだけにとどまらず、ユーザーの創作活動を後押しする存在でありたいというHolotech Studiosさんの理念も、Live2Dと共通するものがあると感じました。

 
——Live2D側としてはFaceRigで使えるようになることで、どういった効果を期待していましたか?

 
イラストを動かすツールとして、ユーザーのみなさまに愛されるのはもちろんのこと、社を挙げての目標として、Live2Dを「世界標準」にすることを目指しています。「世界標準」というのは「世界中で当たり前に使われるソフトウェア」になるということです。

 
すでに世界的に話題になりつつあったFaceRigに、Live2Dで作成されたコンテンツが追加されることによって、Live2Dの魅力が「ソフトウェア・映像のコンテンツを充実・発展させていくために不可欠な存在」として世界に広がっていくことを望んでおりました。

 
結果的に、FaceRigとのコラボレーションは、Live2Dの魅力を国内外へPRするための大きな推進力となったと感じています。また、開発者ではない一般のユーザーの方々にも、FaceRigで自分の描いたキャラクターをアバターにするために、Live2Dに触れてもらえるのではないかと期待しています。FaceRigとのコラボレーションを機に、さまざまな方々にLive2Dでのアニメーション作成をぜひ体験してみていただきたいです。

 
——ネットの反響についてはどう感じました?

 
ここまで大きいとは予想外でした。「二次元のキャラになれる未来がついに来た」というような好意的な意見を多くいただくことができ、スタッフ一同、非常にうれしく思っています。

 
これまでもイベントやプレスリリースの発表時などに、多くの反響をいただくことはありましたが、今回は、その中で最も大きいと言えるものだったように感じます。

 
FaceRig + Live2D Moduleがリリースされた当日中に、さまざまなウェブサイトやブログで記事になっただけでなく、TwitterなどのSNS上でも、大勢のユーザーの方々から反応をいただきました。YouTube上の、FaceRig公式チャンネルでの告知動画の再生回数もひと月足らずで20万回を超えました。国内のみならず、海外でも大きな反響を呼んだことに驚いています。

 
——FaceRigとは何か話しましたか?

 
反響の大きさに、お互い驚いています。FaceRig + Live2D Moduleのリリース後、より多くの人にFaceRig + Live2D Moduleを体験してもらいたいとの思いから、Live2D Cubism Editorの最新版には、FaceRig用のテンプレートモデルを新たに用意いたしました。

 
——コラボの実現までに困難だったことはありますか?

 
Live2D側からは、特別な技術提供や支援は行っていません。Holotech Studiosさんが作ったサンプル等を見て、Live2Dのアバターが画面で映えるよう、いくつか助言はしました。

 
 

眉をコントロールして話すのがコツ

 
——先日、ゲーム実況での活用が注目を集めましたがそれについては?

 
正直なところ、FaceRig + Live2D Moduleを使った動画のライブ配信や録画放送などが増えるのではないかという期待はありました。しかしながら、ゲームパッドを持った形に応用したものが出てくるとはまったく予想していなかったので、いい意味で非常に驚き、喜んでいます。

 
リリースからあまり時間が経っていないにも関わらず、大変ユニークな形で活用していただき、FaceRig + Live2D Moduleのさらなる可能性を感じました。今後はどんなものが出てくるのだろうかとワクワクしております。

 
私達も、ユーザーのみなさまの創作意欲に応えられるよう、Live2Dを使った新しい表現や楽しみ方を提案できるようにしたいと考えています。

 
——FaceRig + Live2D Moduleで表情を出す際のコツは?

 
細かい動きの調整や感度などはFaceRig + Live2D Moduleのソフト上でも変更可能ですが、基本的には、やはり自分自身の口や眉を大きく動かして話すということが大切です。眉の動きが表情の要点になっているので、自分の眉をコントロールして話すと思い通りの表情にできるかもしれません。

 
照明は特別なライティングなどは特に必要ありません。夜の部屋などで電気を消してしまうと流石にあまりうまく表情を追ってくれませんが、通常の蛍光灯や日中であれば自然光でも十分問題ないように感じます。

 
——今後はどう発展させていきたいでしょうか?

 
お互いにまた協力できることがあれば、積極的に取り組んでいきたいと考えています。FaceRig + Live2D Moduleで、ユーザーを巻き込んだイベントなども面白いかもしれませんね。もちろんLive2DはFaceRigだけではなく、音声エンジンやほかの技術との連携実績も豊富ですし、ぜひこれを機にさまざまなコンテンツなども体験いただき、Live2Dが持つ大きな可能性を感じていただけたら嬉しいです。

 
 
(構成/広田稔

 
 
●関連リンク
FaceRig Live2D Module(Steam)
Live2D

LINEで送る
Pocket