レイトレーシング機能を備えたUnreal Engine 4 Games DXRは2018の後半にリリースされます

Unreal Engine 4 DXR

忍者理論 Hellblade 特定のゲーマーにとってはお茶になったかもしれませんし、そうでなかったかもしれませんが、1つ重要なことは、このプロジェクトに関して明白にそして明白に注目に値します。 4のデザインとアニメーションのパイプライン。

簡単に言えば、巨大なハリウッドスタイルのパフォーマンスキャプチャスタジオではなく、別のスタジオですべての音声とモーションキャプチャの手順を行った後、データをキャプチャしてアニメーションチームに送信して、それをクリーンアップして実装します別のスタジオでのゲーム、Ninja Theoryは、サードパーティのクリーンアップ、変更または修正を必要とせずに、映画内のすべてのパフォーマンスキャプチャを社内で行い、Unreal Engine 4に直接記録しました。

このステップの重要な点は、Ninja Theoryが、Unreal Engineのインジェクタを 3ラテラルおよびキュービックモーション のようなゲームを構築することができました Hellblade はるかに小さな予算で 通常は$ 100百万ドルの予算でAAAゲームに見られる映画品質の出力とまったく同じ種類です。 すべてがコストの一部で済み、視覚的忠実度の損失はありません。

さて、エピックはUnreal Engine 4のためにこの技術を採用し拡張する機会を譲り受けることになりました。 今年のGame Developers Conferenceで、スタジオは、Unreal Engine 3内のクリエイティブデザインフローの改善に役立つTencent、Vicon、4Lateral、およびCubic Motionとの新しいパートナーシップを発表しました。毎秒4フレームでの-time。 これはで実証されました サイレンUnreal Engine 4のランタイム内で、毎秒連続60フレームでリアルタイムに実行される、CG品質の忠実度を備えた、本物そっくりのアジアモデル。 下記のデモをご覧ください。 Engadgetの.

ビデオで指摘されているように、フェイシャルリギングは手続き型アニメーションパイプラインと連携して機能し、3Dモデルのように見えない人々がもともとプロジェクトで使用するためにスキャンされたモデルの代わりに行動し実行できるようにします。 以前は、俳優と3Dスキャンモデルは、装備モデルと実際の俳優との間の動作の不一致を避けるために、同一人物である必要がありました。

新しい技術とは、最終的なアニメーションのパスに二次元的な不一致が現れないように、複数の人生のようなキャラクターに対して1人の俳優を技術的に演じることができるということです。 中断のないバージョンの サイレン 以下のデモンストレーション。

Epic Gamesで説明されているように、厄介な谷からの長くて困難な旅を続けるために、Cubic Motionと3LateralがEpicと協力して方法を改善したおかげで、ハイエンドレンダリングのために多くの作業がモデル自体に加えられました。モデルはUnreal Engineでレンダリングされます。 これには、特定の照明条件下で肌の薄い部分が半透明になるように改善されたサブサーフェス後方散乱のほか、キャラクターの顔全体のハードライトからソフトライトへのライトグラデーションのソフトレンダリングの二重鏡面反射、および無効化に役立つスクリーンスペース放射照度も含まれます。死んだ魚の目の効果。

Epicは、デザイナーやアーティストがViconアニメーションデータをパフォーマンスキャプチャからUnreal Engineのアニメーションパイプラインに直接流すことを可能にしています。 3Dのアクターと実際の生き物を組み合わせて、アニメーションクルーにデータを取り込み、それをクリーンアップしてエンジンパイプラインに適用するという前後のプロセスを経る必要がなくなりますスタジオの仕事をした後。 Unreal Engineですぐに結果を見ることができます。撮影中にすぐに結果が表示されます。

これらのパフォーマンスキャプチャ技術の進歩は、ベテランのハリウッドの俳優であるAndy SerkisのパフォーマンスでMacbethのパフォーマンスを実演しています。

3ラテラルのリアルタイム圧縮と筋肉収縮の忠実度の高いターゲットを使用して、アニメーターはリアルタイムのUnreal Engine 4アニメーションツールセットを使用してアクターのパフォーマンスを変更することができます。

モデル自体がアクターにまったく似ていなくても、適切に装備されたモデルであればアニメーションデータセットを使用することができます。 これは、実生活の女優が3Dスキャンモデルのように見えなかった場合でも、ViconとTencentがアジアモデルに使用したアダプティブアニメーションツールについて前述したことと関係しています。 エピックは、アンディ・サーキスのマクベス公演からキャプチャしたデータを使用し、それをデータセットから読み取るように適切に装備された架空のエイリアンキャラクターに適用しました。 結果は非常に印象的です。

これらの機能の多くを含むUnreal Engine 4のアップデートの一部は、April 20thから利用可能になります。

これはEpicのレイトレースレンダリングの詳細についても同様です。

Hayssam Keilanyがゲームのシェーダでリアルタイムパストレース技術を実装した後 GTA IV 半年前、Epicは最終的にゲームを強化し、マルチパスのライトソーシングとシャドウのためにレイトレーシングを使って実物ライクなリアルタイム照明を実現しました。

Epicは短編映画でこのテクニックを実演しました スターウォーズ.

リアルタイムのレイトレーシングは非常に面倒なので、EpicはNvidiaとMicrosoftと協力して、ハードウェアを使用して複雑なライティングとシェーダのタスクを実行するためにGPUに直接話すDirectXレイトレーシングパイプラインであるDXRという新しいAPIを開発しましたRTXと呼ばれる依存技術。

Epic Gamesによると、MicrosoftのDXRテクノロジとEpic Gamesの新しいレイトレーシングパイプラインを使用して、今年後半にリリースされるいくつかのゲームが表示される予定です。