W minionym tygodniu podczas targów GDC (Game Developers Conference), które odbywały się w San Francisco (pierwszy raz od 2019 roku – ponad 1400 dni) zostaliśmy uraczeni demem technologicznym z nadchodzącej nowej wersji silnika Unreal Engine okraszonej numerem 5.2. Nowości jest sporo i robią one naprawdę duże wrażenie w połączeniu z tym, co już mamy od roku – czyli z systemami Lumen czy Nanite.
Ale ten wpis jest na temat nowości, które nadchodzą. Przyjrzyjmy się, jakie zmiany nas czekają w kolejnej wersji silnika Unreal Engine. Poniżej zostawiam dwa materiały. Pierwszy to pełna, godzinna konferencja, drugi materiał to owe demo technologiczne. Po seansie zapraszam do dalszej lektury.
Substrate
Nowy framework, który pozwoli na uzyskiwanie jeszcze bardziej realistycznych materiałów przy użyciu warstw i różnych modeli cieniowania. Przykładem tak złożonego materiału jest chociażby samochód Rivian widziany na prezentacji. Jego karoseria została zmieniona na opal. W tym momencie możemy się przyjrzeć jak światło przenika i rozprasza się pod różnymi kątami. Dodatkowo zostaje dodana warstwa kurzu, która rozprasza światło w zupełnie inny sposób. Sęk w tym, że wszystkie te materiały w żaden sposób nie kolidują ze sobą tzn. nie tworzą żadnych artefaktów/błędów.
Narzędzie to pozwoli artystom jeszcze sprawniej tworzyć skomplikowane materiały, a warto zaznaczyć, że przy tym nie będą bardziej obciążały sprzętu, niż to, co znaliśmy do tej pory.
Procedural Content Generation
Proceduralne Generowanie Zawartości (jak to pozwoliłem sobie przełożyć na nasz ojczysty język) to kolejna duża nowość, która zawita w najnowszej wersji. Narzędzia, które pozwolą artystom na jeszcze szybsze budowanie środowisk, zachowując przy tym realizm i złożoność obszarów.
Najprościej tłumacząc zasadę działania – obiekty od teraz będą się „komunikować” między sobą i dostosowywać swoje kształty i wygląd tak, aby współgrały z innymi, które są umieszczone na scenie. Ma to na celu zwiększenie jeszcze bardziej i tak już stojącego na wysokim poziomie realizmu. Jeżeli kiedykolwiek widzieliście i wiecie jak tworzy się środowiska na potrzeby gier, wiecie, że nie jest to tak proste jak umieszczenie na scenie kilku skałek. Aby wyglądało to naturalnie i organicznie, trzeba poświęcić trochę czasu. Na filmie widać naprawdę realistyczny efekt, który będzie można uzyskać jeszcze szybciej i łatwiej. Ponadto wszystko jest aktualizowane w trybie natychmiastowym, więc mamy cały czas podgląd na naszą pracę i bezproblemowy powrót do wcześniejszych konfiguracji. Świetna sprawa.
Na koniec zaprezentowano, że system ten potrafi wygenerować o wiele większy obszar, niż pierwotnie pokazano. Obszar zbudowany „od ręki” przez artystę to tylko 200×200 metrów. Cała reszta, czyli cały widoczny krajobraz ma wymiary 4×4 kilometry i został on uzupełniony proceduralnie przez owy system.
Czy widać jakąś powtarzalność? Być może dałoby się dojrzeć przy bliższej analizie, ale i tak wygląda to niesamowicie naturalnie. Gdyby na pokazie nie wspomnieli o tym fakcie, nie zorientowałbym się. Nie mogę się doczekać, aż sam zobaczę ten system w akcji.
FAB
Jak zdążyliście zauważyć, wszystkie nowości są raczej skierowane do artystów specjalizujących się w tworzeniu środowisk (environment artists) czy modeli (3D artists). Ostatnia duża nowość na liście także jest skierowana do nich.
FAB jest jednym wielkim rynkiem modeli 3D dla Unreala. Jeżeli korzystaliście wcześniej z Quixel Megascans wbudowanego do silnika, to od teraz będzie on jedną wielką biblioteką modeli i materiałów. Oznacza to, że skończy się poszukiwanie na różnych stronach w internecie. Jeżeli poszukiwaliście modeli na sketchfabie, teraz będziecie mogli je kupić, pobrać i przeciągnąć na scenę bezpośrednio w silniku (tak jak w przypadku modeli z Megascans). Wsparcie jest przewidziane dla największych serwisów użyczających modeli oraz materiałów dla artystów, m.in. Artstation czy wspomniany wcześniej Sketchfab. Kolejna zmiana, która przyspieszy pracę wielu osób.
Metahuman Animator
To narzędzie pozwoli przy wykorzystaniu smartfona na nagranie swojej mimiki twarzy, a następnie przeniesienia jej na wybrany model z biblioteki Metahuman. Co więcej – będziemy mogli stworzyć swoją podobiznę na podstawie kilku klatek filmu. Co prawda nie zastąpi to tradycyjnego motion capture, ale dla małych studiów lub do warunków domowych bardzo dobra opcja. Osobiście czekam jednak, aby zobaczyć jak to się sprawuje w naturalnym środowisku, a nie na prezentacji. Podejrzewam, że może nie być tak kolorowo jak na pokazie i parę błędów w trakcie takiej konwersji wideo na model może się pojawić. Ale zobaczcie sami.