VTube Studioにより、仮想YouTuberはLive2Dアバターを利用できます

VTubeスタジオ

GoogleのARCore拡張現実ツールキットを介してLive3Dパフォーマンスキャプチャを利用する作業中に、新しいUnity 2Dを使用した作成スイートがあります。 このソフトウェアにより、Webカメラまたはその他のキャプチャデバイスを介したリアルタイムの顔追跡が可能になり、パフォーマンスまたは動きが視覚化されるときにレンダリング出力が行われます。

Denchi Softは、ソフトウェアがどのように機能するかを示し、最終的に2020年の第XNUMX四半期のある時点で一般にリリースされるキットに期待できることを示すために、XNUMX分近くのビデオを公開しました。

以下のビデオデモをご覧ください。

ビデオの概要に従って、顔データはARCoreによって読み取られて保存され、Unity 3DのBarracudaに接続されているTensor Flowニューラル学習パイプラインに送られます。 そこから、データはUDPプロトコルを介してメインにストリーミングされます VTubeスタジオ Live2Dアニメーションとユーザーインターフェイスコントロールを利用しながら、フロントエンド。

ソフトウェアの動作の基本を説明した後、色の濃淡と物理ベースのレンダリングされた照明をLive2Dモデルに適用して、リアルタイムの動的照明の知覚を作成する方法のデモを行います。

背景をカスタマイズしたり、さまざまなシーンをインポートしたり、ホットキーを設定したりして、表情を変更したり、カスタムマクロを読み込んだり、特定の反応を作成してライブストリームを盛り上げることもできます。

VTube Studio-ディジー

似たような動作をする3Dソリューションがすでにいくつかあります VTubeスタジオ できますが、上のビデオに描かれているように、手書きのキャラクターをもっと活用したい場合は、 VTubeスタジオ 間違いなく行く方法です。

YouTubeが破裂していなかったら、おそらく仮想チューバーのエキサイティングな時代があったと思いますが、現時点ではコンテンツ作成に取り掛かる熱狂者にとってはあまり良いことではありません。その努力から実際に大きな収入を生み出さないこと。

あなたはについての詳細を学ぶことができます VTubeスタジオ Denchi Softから GitHubページ.

(ニュースチップWondy Bergersをありがとう)