Com'era l'articolo?

1516480controllo dei cookieI giochi Unreal Engine 4 con Ray-Tracing DXR usciranno alla fine del 2018
Industry News
2018/03

I giochi Unreal Engine 4 con Ray-Tracing DXR usciranno alla fine del 2018

Ninja Theory's Hellblade potrebbe essere stata o meno la tazza di tè per alcuni giocatori, ma una cosa era inequivocabilmente e indiscutibilmente degna di nota nel progetto: la capacità di tradurre direttamente la performance capture con grafica di qualità cinematografica nel runtime in tempo reale dell'Unreal Engine. 4's design e pipeline di animazione.

In termini semplici, invece di avere un gigantesco studio di performance capture in stile hollywoodiano che esegue tutte le procedure di acquisizione della voce e del movimento in uno studio separato, quindi cattura i dati e li invia al team di animazione per ripulirli e implementarli in Dopo il gioco in uno studio diverso, Ninja Theory è riuscita a catturare internamente tutta la performance cinematografica e a registrarla direttamente nell'Unreal Engine 4 senza richiedere ripuliture, alterazioni o modifiche da parte di terzi.

Il significato di questo passaggio è che il lavoro svolto da Ninja Theory sulla costruzione di un iniettore per Unreal Engine in collaborazione con 3Movimento laterale e cubico ha permesso loro di costruire un gioco come Hellblade con un budget molto più ridotto ma con lo stesso identico tipo di output di qualità cinematografica che si trova solitamente nei giochi AAA con budget di $ 100 milioni di dollari. Tutto fatto per una frazione del costo e senza perdita di fedeltà visiva.

Ebbene, Epic sarebbe stata negligente nel perdere l'opportunità di sfruttare ed espandere questa tecnologia per Unreal Engine 4. Durante la Game Developers Conference di quest'anno, lo studio ha svelato nuove partnership con Tencent, Vicon, 3Lateral e Cubic Motion per contribuire a migliorare il flusso di progettazione creativa all'interno dell'Unreal Engine 4 che consente agli sviluppatori di catturare facilmente e comodamente le performance all'interno dell'Unreal Engine 4 in tempo reale a 60 fotogrammi al secondo. Ciò è stato dimostrato con Sirena, un modello asiatico realistico con fedeltà di qualità CG che funziona in tempo reale all'interno del runtime di Unreal Engine 4 a una velocità ininterrotta di 60 fotogrammi al secondo. È possibile visualizzare la dimostrazione di seguito, per gentile concessione di Engadget.

Come sottolineato nel video, il rigging facciale funziona all'unisono con la pipeline di animazione procedurale per consentire alle persone che non assomigliano al modello 3D di agire ed esibirsi al posto del modello originariamente scansionato per l'uso nel progetto. In precedenza, l’attore e il modello scansionato 3D dovevano essere la stessa persona per evitare discrepanze di movimento tra il modello truccato e l’attore nella vita reale.

La nuova tecnologia significa che tecnicamente potresti avere un attore che recita per più personaggi realistici senza che incongruenze dimorfiche appaiano nel passaggio di animazione finale. Puoi controllare una versione ininterrotta del file Sirena dimostrazione qui sotto.

Come spiegato da Epic Games, per continuare il lungo e arduo viaggio fuori dalla Uncanny Valley, è stato dedicato molto lavoro al modello stesso per un rendering di fascia alta grazie a Cubic Motion e 3Lateral che hanno collaborato con Epic per migliorare il modo in cui il modello è renderizzato in Unreal Engine. Ciò include una migliore retrodiffusione del sottosuolo in modo che le porzioni più sottili della pelle siano traslucide in condizioni di illuminazione specifiche, nonché doppi riflessi speculari per una resa più morbida dei gradienti di luce da luci forti a luci morbide sul viso di un personaggio e irradianza dello spazio sullo schermo per aiutare con l'annullamento l'effetto occhio di pesce morto.

Epic consente a designer e artisti di trasmettere i dati di animazione Vicon dalla performance capture direttamente nella pipeline di animazione di Unreal Engine. Quindi, se vuoi mescolare e abbinare diversi attori della vita reale con attori 3D, puoi farlo senza dover passare attraverso il processo avanti e indietro di portare i dati alla squadra di animazione, ripulirli e quindi applicarli alla pipeline del motore. dopo aver svolto il lavoro in studio. Puoi vedere subito i risultati nell'Unreal Engine, proprio lì durante le riprese.

I progressi in queste tecniche di performance capture sono stati dimostrati con una performance del veterano attore di Hollywood Andy Serkis che ha interpretato Macbeth.

Utilizzando gli obiettivi ad alta fedeltà della compressione in tempo reale e della contrazione muscolare di 3Lateral, gli animatori hanno la possibilità di modificare la performance di un attore utilizzando il set di strumenti di animazione in tempo reale di Unreal Engine 4.

È possibile utilizzare i set di dati dell'animazione su qualsiasi modello opportunamente truccato, anche se il modello stesso non ha alcuna somiglianza con l'attore. Ciò si ricollega a quanto menzionato prima sugli strumenti di animazione adattiva che Vicon e Tencent hanno utilizzato per il modello asiatico, anche quando l’attrice nella vita reale non assomigliava per niente al modello scansionato in 3D. Epic ha utilizzato i dati catturati dalla performance del Macbeth di Andy Serkis e li ha applicati a un personaggio alieno immaginario che era stato adeguatamente attrezzato per leggere i set di dati. I risultati sono piuttosto impressionanti.

Alcuni degli aggiornamenti per Unreal Engine 4 contenenti molte di queste funzionalità saranno disponibili a partire dal 20 aprile.

Questo vale anche per l'approfondimento di Epic nel rendering ray-trace.

Dopo che Hayssam Keilany è riuscito a implementare tecniche di tracciamento del percorso in tempo reale negli shader per giochi come GTA IV mezzo decennio fa, Epic ha finalmente intensificato il proprio gioco ed è riuscita a ottenere un'illuminazione in tempo reale realistica attraverso il ray-tracing per l'origine della luce e le ombre a più passaggi.

Epic ha dimostrato questa tecnica con un cortometraggio Star Wars.

Il ray tracing in tempo reale può essere molto faticoso, quindi Epic ha collaborato con Nvidia e Microsoft per sviluppare una nuova API chiamata DXR, che è una pipeline di ray tracing DirectX che comunica direttamente con la GPU per eseguire attività complesse di illuminazione e shader utilizzando l'hardware. tecnologia dipendente chiamata RTX.

Secondo Epic Games, vedremo alcuni giochi rilasciati entro la fine dell'anno che utilizzano la tecnologia DXR di Microsoft e le nuove pipeline di ray-tracing di Epic Games.

Altre novità del settore