GameStar Podcast: Die Spielegrafik der Zukunft wird atemberaubend - dank KI

GameStar GameStar 10/24/23 - Episode Page - 52m - PDF Transcript

Als in den 90ern die ersten 3D-Shooter erschienen sind und glaubt mir, ich war damals dabei,

da saßen wir davor und sagten uns, jetzt kann es nicht mal lange dauern, dann sehen Spiele

aus wie das echte Leben.

So im Nachhinein betrachtet war das damals vielleicht ein bisschen zu optimistisch,

allerdings hat die Spielegrafik in den letzten 30 Jahren natürlich riesige Fortschritte gemacht

und sie wird auch weiterhin riesige Fortschritte machen.

In den nächsten Jahren erwarten uns neue Grafiktechnologien, die eine neue Generation womöglich

so wegblasen werden, wie uns Dinosaurier damals die ersten Shooter weggeblasen haben oder

wie die Dinosaurier davor, der Asteroid.

Egal, was es mit diesem Grafiksprung auf sich hat, das erzählt mir nun mein Gast aus der

Redaktion von Gamestar Tech.

Hallo Nils.

Hallo Micha.

Schön, dass du da bist.

Erinnerst du dich noch daran, als damals die ersten Shooter so ein Fake-Doom und so was?

Ja, natürlich.

Ich war zwar damals so aus Sicht meiner Eltern natürlich zu jung, um die zu spielen, aber

das hält einen natürlich nicht auf und ich weiß schon auch sehr gut, dass vor allem

halt dieser 3D-Aspekt einfach, ja, das war einfach Mindblowing schon, muss man auch sagen,

jetzt kann ich mich hier wirklich vorne links durch die Welt bewegen, nicht nur von links

nach rechts oder irgendwas zweidämmäßiges, das war schon sehr beeindruckend.

Ja, und dann hat es schon gesagt, boah, wie toll soll das noch werden, also, ja und heute

wissen wir es, es ist noch toller geworden, es hört nicht auf.

Ja, aber dann guckst du die alten Sachen an und denkst, wie konnte ich jemals sagen, dass

irgendwie Quake 2 fotorealistisch war oder sowas, aber tatsächlich ist der Fotorealismus

ein gutes Stichpunkt, das ist ja schon seit Jahrzehnten sozusagen, der stehende Begriff

Wann kommen wir da endlich hin?

Glaubst du, wir sind dem nähergekommen jetzt in den letzten Jahren, Jahrzehnten?

Also nähergekommen auf jeden Fall.

Das ist schon so irgendwie, glaube ich, wird es auch immer so, dass das Ziel irgendwie

so ein bisschen bleiben, dass wir wirklich da hinkommen, dass es so richtig fotorealistisch

ist, aber wie du ja auch schon gesagt hast, wir haben schon sehr oft Sachen als, oh, das

ist ja fotorealistisch bezeichnet oder es kommt halt immer darauf an, woher man kommt, aber

da haben auch, muss man einfach sagen, Spieleendren sind so ein bisschen Limitierung dadurch, wie

sie halt funktionieren, mit den 3D-Modellen, mit Texturen und allem, man muss es ja auch

irgendwie programmieren können und es muss ein Rechner in Echtzeit ändern können, also

mit dem sind schon irgendwie Grenzen gesetzt, aber es ist sicherlich schon, wird das Ziel

bleiben.

Aber es ist halt auch nicht das Einzige, sag ich mal, die einzige Art von Optik, die eine

Rolle spielt bei Spielen, klar, Stichwort Pixelart ist ja auch was, also wir wissen, es kommt

bei Spielen nicht nur auf die Optik an, aber Faszinationspunkt ist es immer wieder, der

Shooter Unrecord, so heißt er doch nicht.

Unrecord, ja.

Genau, der hat ja jetzt vor kurzem erst für große Aufregung gesorgt, sag ich mal, oder

für Aufsehen vielleicht positiv formuliert, war so ein bisschen beides, glaube ich, weil

er eben sehr, sehr, ja, photorealistisch mal wieder ausgesehen hat und man sich teilweise

dann gar nicht sicher war oder es Menschen gab, die gesagt haben, hey, sehe ich hier

noch ein Spiel oder sehe ich jetzt halt eine wirklich mit Buddycam aufgenommenen Szene?

Ja.

Ja, so ist es.

Ja, für alle, die es nicht kennen, Unrecord ist ein Shooter, du hast ja schon gesagt, der

aus so einer Buddycam-Perspektive von so einem Sonderkommando, den man so sieht, ja, also

die Buddycam-Ego-Perspektive, und da wirkt sehr, sehr photorealistisch, weil sie auch

ein bisschen tricksen.

Ja.

Also einerseits, dass diese Linse der Buddycam hat ja so ein Fisch-Augen-Effekt, so ein

bisschen, was immer dann realistischer ausschaut, als halt so die klassische Platte-Ego-Shooter-Perspektive

und sie verwenden halt eine für ein Spiel sehr gedämpfte Lichtstimmung.

Ja.

Also nicht so ein richtig pralles Licht, sondern sehr halt real wirkendes.

Ja.

Und man sieht dann auch da an den Aspekten, ja, wie so kleine Details dann doch schon großen

Unterschied machen können, ist auch generell, was man hier aussieht, viele statische Elemente.

Das hatten wir oft bei diesen photorealistischen Sachen, es gibt auch eine sehr beeindruckende

Demo in der Unreal Engine 5, die sich Cliffwood Village nennt, von Tai Chi Kobayashi, ich hoffe,

ich spreche das richtig aus, die sieht auch richtig schön aus, das ist ein sehr malerisches

Dorf.

Ja.

Wenn man mal genau hinschaut, ja wir sehen es jetzt hier auch im Bild, da bewegt sich

fast nichts.

Also der Wasserfall, klar man sieht hinten, wie das Wasser von oben nach unten fällt, aber

sonst ist das halt alles komplett statisch.

Das ist schon auch immer so ein Problem bei diesen sehr photorealistischen Geschichten,

dass es dann schwierig ist, das in den Spiel hinzukriegen, wo dann natürlich auch, da willst

es noch nicht, dass alles statisch ist.

Ja.

Das ist ja dieser typische Effekt der Engine-Demo, ich meine, YouTube ist ja voll von Unreal Engine

5 Projekten oder Mini-Demos, die Leute gebastelt haben.

Ich finde diese Cliffwood Village-Demo halt absolut beeindruckend, eigentlich, wenn man

sie sich so anschaut, wie man durch dieses Fachwerkdörfchen läuft, es ist hochdetailliert,

die Szenerie, die Texturen, so Backsteinen oder so steingemauerte Kamine und so was, sehen

super aus und der Wasserfall im Hintergrund, aber es ist noch mal eine ganz andere Nummer,

daraus ein Spiel zu machen, mit Physik und sonst was alles noch dazugehören würde.

Also, ja, trotzdem ist einfach das Eye-Candy.

Ja, absolut, das ist schön, sich das anzugucken, definitiv, aber der Schritt zum Spiel, der

ist dann doch noch weiter.

Ja.

Die Unreal Engine 5 begleitet uns jetzt schon zwei Spiele lang tatsächlich, denn Un-Record

ist in der Unreal Engine 5 gebaut, Cliffwood Village auch, wie siehst du denn aktuell

den Stand der Unreal Engine 5?

Also, die ist schon ordentlich in Bewegung, also man merkt, es kommen immer neue Updates,

die neue Funktionen freischalten, jetzt bei der letzten Version 5.3 zum Beispiel ist

ein sehr wichtiges System, nämlich das Nanite-System, ist ausgeweitet worden, Nanite ist

ja für die Geometrie zuständig in der Unreal Engine 5 und ermöglicht halt durch ein neues

Neuart des Renderns, sehr, sehr detaillierte Welten darzustellen und das war bislang beschränkt

eben auf bestimmte Elemente der Unreal Engine und jetzt kann das eben auch auf Landscapes

angewendet werden, also das heißt Landschaften, das heißt, den ja dem Bausatz quasi um sehr

große Spielwelten zu erschaffen, die können jetzt auch mit diesem sehr hohen Detailgrad

in der Unreal Engine 5 dargestellt werden und das finde ich schon gerade auch das bemerkenswerte

an der Unreal Engine, ja, die Entwickler bleiben da ständig dran und es gibt immer neue kleinere

Verbesserungen, große Verbesserungen, also das lohnt sich sehr daran zu bleiben und das ist sehr

vielversprechend, wie sie da das immer weiter verbessern. Wenn wir jetzt über die Zukunft

sprechen, die Unreal Engine 5 ist ja sozusagen schon die Gegenwart, auch wenn sie weiter

entwickelt wird, aber wenn wir in die Zukunft schauen und jetzt auch in die Technologien reingehen,

die auf uns zukommen, von welchem Zeitrahmen sprechen wir denn da jetzt? Ja, es kommt natürlich

ein bisschen sehr darauf an, welche Technologie jetzt das Thema ist, so wir werden ja gleich noch auf

ein paar mehr eingehen, aber man muss sich schon darauf einstellen, dass quasi der Schritt vom

ich sehe erste Ergebnisse damit, ich sehe vielleicht erst von Forschern gibt es ja teilweise

auch Ergebnisse, die präsentiert werden zu, das ist überhaupt in dem Spiel drin,

dass ich spielen kann und dann noch einen Schritt weiter, das ist Standard in Spielen,

der kann schon sehr, sehr weit sein, also ich würde mal sagen unter fünf Jahren wird da nichts

sein, vielleicht sogar eher zehn Jahre je nach Technik, also bis das halt wirklich auch so

angekommen ist bei uns auf dem PC und in den Spielen, dass sie das rendern können und dass die

Entwickler auch gut damit umgehen können, da muss man sich schon auf eine lange Wartezeit leider

einstellen, das gehört dazu. Okay, dann sind wir schon in Rente, wahrscheinlich, wenn es dann so

richtig losgeht. Wirklich, definitiv, aber wir werden auch in Rente bestimmt weiter verfolgen.

Definitiv, ja wir sitzen dann wieder hier mit 70 oder so und sagen dann, ja jetzt guck mal hier.

Dann haben wir unendlich Zeit zum Zocken, aber sonst nix mehr machen müssen wir das auch gut.

Ja, stimmt, hat eigentlich nur Vorteile. So, wenn wir über Zukunftstechnologien reden,

die aber auch schon ein bisschen gegenwärtstechnologien sind, dann kommt uns natürlich als Allererstes

das Path-Tracing in den Sinn, das wir jetzt schon gesehen haben in Cyberpunk 2077, wo es ja

implementiert wurde, kannst du uns erst mal erklären, was Path-Tracing überhaupt ist,

auch im Vergleich zu Ray-Tracing? Ja, also ich muss direkt vorab sagen, ich werde,

ich muss das ein bisschen linehaft runterbrechen, weil wenn man da ins Detail geht und ich muss

auch gestehen, ich bin ja auch kein Programmierer, also so genau bin ich da auch nicht in der Materie,

aber man kann im Prinzip vereinfacht ausgedrückt, kann man sagen, dass Path-Tracing erweitert

das Ray-Tracing ist. Also beim Ray-Tracing ist ja das Grundprinzip, dass man aus der

Kameraperspektive Strahlen entsprechend in die Szenerie schickt und schaut, worauf landen die

und daraus dann weiß, okay, welche Farbe muss der Pixel haben, also und für jeden Pixel wird

am Prinzip meist ein Strahl verschickt, der dann eine bestimmte Zahl von Abprallern quasi noch

haben kann und war einfach gesagt, ist beim Path-Tracing einfach viel mehr Strahlen und der

Hauptvorteil davon ist Bezug auf die globale Beleuchtung, allerdings kann man auch mit Path-Tracing

quasi sowohl die Schattengebung auch viel besser bestimmen und Reflektionen können damit noch

besser und realistischer aussehen und da kommt es dann halt darauf an, aber wie schnell der

Rechner natürlich ist, wie viel Rechenleistung das halt wieder kostet. Ja, ich wollte schon sagen,

warum machen es da nicht einfach alle, aber man braucht einfach mehr Power. Das ist halt der

große Haken, wir sehen es ja schon bei Ray-Tracing, das ist auch in allen Spielen, ich meine,

mittlerweile werden ja mal mehr und wo wir gerade von den Zeitraum gesprochen haben,

wir erinnern uns also die große Ankündigung von dem Video, als die Grafika nicht mehr GTX

ist, sondern RTX und hey, jetzt kommt Ray-Tracing, die ist auch schon wieder fünf Jahre her. Das muss

man sich auch mal überlegen, 2018 sind die RTX 2000 Grafika in der Schiene, also das ist schon

ein langer Zeitraum und ja, natürlich gibt es immer mehr Spiele mit Ray-Tracing, das schon,

aber es ist schon ein Prozess, der seine Zeit braucht, es ist jetzt auch noch lange nicht

Standard in Spielen und das wird mit dem Past-Tracing genauso sein, das hat auch erst mal in eher

einfachen Spielen, ist es gezeigt worden, zum Beispiel auch bei Craig, wo wir das vorher schon hatten,

wo, ich glaube Portal ist es auch mit drin, also wenn halt sonst die Rechenlass nicht so hoch ist,

dann kann man das halt eher machen, wie sie es jetzt bei Cyberpunk geschafft haben, das natürlich

schon auch bemerkenswert, das war so ein optisch sehr, sehr schönes Spiel ist, aber da muss man

halt ein bisschen ja nicht trixen, ist zu viel gesagt, aber du brauchst dann halt so was wie

DRSS und auch mit der neuen RTX 4000 Generation gibt es ja auch die Frame Generation, wo quasi

komplette Bilder von der KI zwischen berechnet werden und was die FPS halt deutlich erhöhen kann

und wenn du halt Past-Tracing nutzen willst, dann brauchst du im Moment ja eine sehr schnelle

Grafikkarte, die eben auch Frame Generation am besten kann, damit du auch noch ausreichend FPS

hast. Aber sagst du Past-Tracing ist die Zukunft, also das wird jetzt in den nächsten Jahren mehr

werden? Das glaube ich schon, allein weil klar Nvidia ist einfach dadurch, dass sie dann eine sehr

große Marktmacht haben und da sehr viele Technologien vorantreiben, sind sie da auch ein bisschen so

taggeber und es ist Nvidia auch ein sehr wichtiges Feature, klar, fördert natürlich den Verkauf

von schnellen Grafikkarten. Ach nein! Ein shame, wer bürstet. Stimmt, da werde ich nie dran gedacht.

Aber es sieht natürlich, es sieht schon auch toll aus, es hat ja vor allem den Vorteil,

das Past-Tracing, dass auch, auch wenn es eben diese globale Beleuchtung, womit ja gemeint ist,

dass alle Lichtquellen richtig berücksichtigt werden oder wenn man das jetzt auf die Szene

nimmt, da gibt es ja sehr viele verschiedene Lichtquellen von der Sonne, die du in der

Spielwelt hast, dann gibt es irgendwo Lampen, dann gibt es irgendwelche Lichter, die reflektieren und

das beeinflusst sicher alles gegenseitig. Und Jomer, du quasi von diesen Strahlen verfolgst,

dass du ja mehr sieht das halt auch so aus wie im echten Leben. Es ist schon so, dass

Ray-Tracing und eben Past-Tracing auf noch einer Stufe höher das Bild realistischer aussehen lässt.

Und das habe ich auch schon an anderer Stelle gesagt, es ist nicht zu unterschätzen, wie sehr das

doch ein Spielerlebnis verändern kann, wenn das realistischer aussieht. Das ist oft so, wenn man

diese Vergleichsbilder sieht, denkt man ja okay das sieht anders aus, aber ja man weiß gar nicht

immer unbedingt okay ist das jetzt wirklich besser. Aber es ist für mich geht es, also mir geht es

zumindest so, dass man tatsächlich unterbewusst das auch wahrnimmt und die Immersion dadurch steigt.

Also es ist bei mir schon so und man kann es gibt durchaus auch viele Szenen, wo man auch klare

Unterschiede sieht, wo komplette Schatten fehlen ohne jetzt Ray-Tracing oder Past-Tracing. Klar,

bei Reflektionen ist es sehr eindeutig, wenn die dann ja weggewischt werden aus dem Bild oder

sehr unscharf sind. Ja, also das kann auch sehr plakativ sein, aber ich finde vor allem diesen

subtilen Faktor sehr wichtig dabei. Ja, und es ist vielleicht dann auch wieder so ein Gewöhnungsfaktor,

wenn du irgendwann dann dich am Past-Tracing gewöhnt hast und dann guckst du dir wieder

ältere Spieler ansagst, was ist denn das für eine fürchterliche Beleuchtung? Da ist ja gar

nicht jede Quelle berücksichtigt, dahinten ist ein grünes Licht, was gar nicht streut,

irgendwie ein Rauch, der da aufsteigt aus einer brennenden Mülltonne oder so und dann ja,

das ist immer der Gewöhnungseffekt und auch ein richtiger Punkt, der gerade im Chat schon

genannt wurde. Auf diese Technologien bereitet sich ja die Industrie jetzt auch schon vor und es

entstehen jetzt ja schon Spiele, über die wir wahrscheinlich erst in fünf Jahren zum ersten

Mal reden werden, weil sie halt noch hinter den Kulissen entwickelt werden, aber die bauen das ja

jetzt schon mit ein und arbeiten damit. Und auch die Entwickler muss man auch dazu sagen, wenn das

alles gut funktioniert, dann ist der große Vorteil von dieser Technik, dass man nicht mehr so rumtricksen

muss. Man muss im Moment in vielen Bereichen bei der 3D-Grafik als Programmierer gewisse Tricks

anwenden, einfach weil die Rechenleistung nicht da ist und weil die klassische Rasterisierung eben

bei bestimmten, ja, die hat einfach Limitierung, dadurch wie da das Bild berechnet wird, dass eben

eigentlich wird quasi platt nur auf das Guckdriefer sehe ich jetzt aus meiner Perspektive und das kann

halt berücksichtigt werden. Wenn ich dann quasi ein Objekt, das eine Reflexion erzeugen würde,

aber hinter einem anderen sich versteckt, dann kann das quasi in der Spiegelung auf dem Boden

nicht mehr berücksichtigt werden. Da gibt es einen Ticks, Tricks wie Screenspace Reflections,

dieses und andere Techniken, die quasi auch mit klassischer Rasterisierung für gewisse

Reflexion sorgen. Aber das kann eben nie so gut aussehen, wie wenn du eine Reflexion mit Raytracing

machst oder eben auch mit Pathtracing. Und deswegen hilft das auch den Entwicklern. Ich weiß

noch bei der Präsentation, die wir gerade angesprochen haben von den RTX 2000-Karten, sehr

oft das Wort gefallen von Nvidia-Chef Jensen Huang, it just works und das hat sich darauf bezogen.

War damals ein bisschen schwierig, weil da die ersten Spiele leider oft buggy waren und es hat

geruckelt und da hatte man halt noch nicht so ganz das it just works Gefühl. Aber das stellt sich

mehr und mehr ein und ja, der Weg wird schon beschritten und das ist sicher nicht eine Technik,

die wir immer häufiger dann in mittelfristiger Zukunft sehen werden. Ja, sehr spannend. Und um

kurz hier von hinter den Kulissen zu erzählen, Nils und ich haben einen Podcast zusammen gemacht

über die Technik von Starfield, wo ich auch it just works gesagt habe, weil Todd Howard von Bethesda

das ja auch gesagt hat, über damals Fallout 4. Und du kanntest es nicht und du hast gesagt,

wie ich kenne das auch nur von Nvidia und jetzt weiß ich endlich, woher. Ja, so findet sich dann

doch alles wieder zusammen. Ja, alles läuft zusammen. Außer, dass Starfield nicht mal Raytracing hat,

aber das ist ein anderes Thema. Vielleicht kommt es ja noch. Das stimmt. So, Pathtracing ist die

eine Sache. Gibt es noch was anderes jetzt, was wichtig wird für die Zukunft? Ja, also definitiv

natürlich die KI, die jetzt sowieso seit ein, zwei Jahren immer mehr in allen möglichen Bereichen

in der Alarm-Munde ist jetzt zuletzt oder sagen wir mal, der Hype ist ja ein bisschen auch so durch

Chatchi-PT und auch durch so Bildgenerierung, wie jetzt Mitjourney und wie sie Dali, ich weiß nicht,

wie man es spricht aus und so weiter entstanden. Aber das spielt natürlich auch in Spielen immer

mehr eine große Rolle. Wir wissen ja auch bei den Nvidia RTX-Karten, die ja auch extra Tensorkerne

haben, die dann quasi für bestimmte KI-Berechnungen da sind und das ist sicherlich was, was uns immer

mehr begleiten wird. Ist natürlich immer bei diesem KI Schlagwort so ein bisschen die Frage,

was genau ist denn überhaupt eine KI? Das bezieht sich relativ, also man kann im Prinzip sagen,

wenn man jetzt zum Beispiel auch mal so etwas gegenüberstellt wie einer prozeduralen Generierung,

die wir ja auch in vielen Spielen haben. Der Unterschied ist vor allem, dass bei einer

prozeduralen Generierung hast du einen festen Algorithmus oder mit verschiedenen Variablen,

die du anpassen kannst, aber dann wird auf Basis dieses Algorithmus mehr oder weniger automatisch halt

eine bestimmte Spielwelt generiert oder was auch immer. Und bei der KI ist halt vor allem der

wichtiger Aspekt, dass Maschine lernen. Also dass quasi die KI auf Basis von bestimmten Datenmaterial,

vor allem halt natürlich Bilder, wie sehen bestimmte Szenen aus, wie sieht Licht in bestimmten

Szenen aus, auf Basis dessen dann neue Bilder erstellt oder Bilder verbessert, Kantenglättungen,

zum Beispiel Flimmern rausnimmt und solche Sachen. Genau. Ja, genau. Und das Maschinenlearning

geht ja dann auch über, also der Lerneffekt geht ja noch über das Lernen in den Haus. Das ist

richtig gesagt, der prozeduralen Algorithmus ist einfach festgeschrieben und das gibt ja in der

Spieleindustrie prozeduralen Algorithmen seit Jahrzehnten. Man sieht damals Anfang der 90er

Daggerfall vom Bethesda, wo sie ja auch die Welt haben prozedural generieren lassen, indem sie

einfach gesagt haben, hey Algorithmus, platzier einfach alle X-Weltsektoren ein Dorf. Und ein Dorf

hat übrigens eine Mauer, drei Häuser an der Kirche oder so. Also Maschinelles Lernen ist

etwas mehr als das. Da versucht der Algorithmus halt, selbst Zusammenhänge zu erkennen und Dinge

zu verallgemeinern, die er an Beispielen erkannt hat. Genau, baut dann darauf weiter auf. Aber wie

hilft das denn jetzt bei Spielen? Also was kann die KI denn konkret tun? Auch was Grafik halt angeht?

Ja, also da gibt es im Prinzip also verschiedene Ansätze. Wir sagen drei Hauptansätze. Einer,

also die extremste Variante wäre, dass die KI halt das Bild komplett berechnet. Das wäre dann

Neuronales-Rändern. Klingt jetzt ein bisschen abgedreht, aber ist tatsächlich was, was in

Video schon, ich glaube 2018 war, mit dem, mit der Bezeichen Nvidia KI-Rendering vorgestellt hat.

Das sah damals noch, ja jetzt noch nicht so aus, da ich sage, okay, das will ich dann auch spielen.

Aber es ist etwas, wo die Reise so sehr langfristig vielleicht irgendwann hingehen könnte.

Das wirklich, die KI einfach komplett das übernimmt. Gut, das ist wirklich noch weit entfernt, aber das

wäre so die extremste Variante. Ein bisschen haben wir das ja schon bei der Frame Generation,

jetzt nicht wirklich vergleichbar bei die Frame Generation, also wo die KI auch komplette

Einzelbilder erstellt. Also jetzt mal vom klassischen Render, von der klassischen Render Pipeline

ab. Aber sie macht das ja auch auf Basis der Bilder, die halt normal gerendert wurden. Also die macht

das nicht komplett allein aus dem Stegreif. Aber so, das wäre dann quasi die erweiterte Variante,

die KI macht das komplett alleine. Was jetzt eher oder vielleicht eine näher liegende Variante ist,

die früher kommt das Bilder halt oder was wir jetzt auch schon haben, dass die KI-Bilder

halt einfach verbessert. Wir haben es ja im Prinzip auch schon ein Stück weit eben mit DLSS, da auch

wieder als Beispiel oder eben dann auch AMD, FSR oder wobei das hat keine KI-Komponente drin. Aber

dass quasi die KI sich anschaut, okay, das ist das Bild, das ich habe, wo gibt es hier Probleme,

wo Flimmer die Kanten und es gibt auch noch eine sehr interessante andere Variante davon,

nämlich das hat Intel vorgestellt, ich glaube 2021 war es das Intel Image Enhancement Network und

das ist quasi das, also da hat Intel versucht, anhand von GTR 5 per KI Bilder deutlich realistischer

aussehen zu lassen. Und das ist sehr beeindruckend, finde ich. Also das ist das, was du vorhin

angesprochen hattest bei Unrecord, auch viel diese Farbgebung. Ist da ein sehr wichtiger Aspekt,

dass es einfach nicht so knallig bunt. Man sieht es jetzt hier auch in der Szene. Also ich finde

den Unterschied riesig. Also das, was wir jetzt sehen ist, genau dieses Aours unten heißt, dass es

Intel Technik sagen, so sieht es aus, wenn wir mit unserem Algorithmus oder unserer KI das Bild

verbessern lassen und ich finde, das ist ein riesiger Unterschied. Also man könnte bei den

Szenen wirklich meinen, das ist ein echtes Bild und bei den normalen Bildern nicht mehr.

Genau, das ist eben, das ist eine Szene aus GTR 5, über die quasi eine Bildverbesserung gelegt

wird mit einem Algorithmus, der gefüttert wurde, wenn ich mich recht erinnere, hauptsächlich mit

Bildern aus Deutschland. Ja, und so schön waren damals das Video, wurde 2021 veröffentlicht von

dieser Forschergruppe, die das gemacht hat, auch für Intel. Und da waren dann ein paar Kommentare

auch drunter. Hey, es ist jetzt viel grauer, farbloser und trister. Ja, es ist Deutschland. Ja, so kann

man es auch sehen. Ja, das stimmt. So habe ich gar nicht drüber nachgedacht. Ja, aber ich bin

tatsächlich auch erst jetzt vorhin bei der Vorbereitung hier alles darüber gestolpert, dass es

dieses Citiescapes Dataset, was da verwendet wurde, dass das einfach alles auf deutschen

Städten basiert. Ja, das sieht aus wie der Rohrpart, eigentlich. Ja, das ist so Los Santos. Ich komme ja

aus Essen. Wunderschön natürlich. Es gibt da sehr schöne Ecken. Es gibt da wunderschöne Ecken,

auch in Duisburg und Co. Alles schöne Flecken. Aber das ist tatsächlich, du sagst, es gibt im

Prinzip ein Bild, das von der Grafikkarte ausgegeben wird, in dem Fall, also wo das Rendering stattfindet.

Rendern heißt ja, aus Daten wird ein Bild gemacht, sehr vereinfacht ausgedrückt, denn ich bin

ein noch größerer Leier als du. Aber das bedeutet eigentlich Rendering. Das Spiel an sich besteht

einfach nur aus einem Haufen Code. Und das Rendern bedeutet dann die Interpretation und die,

die ja quasi das Umwandeln dieses Codes in ein Bild, beziehungsweise in 25, 30, 60 Bilder pro Sekunde.

Das ist halt immer noch eine der großen Herausforderungen dabei natürlich. Wie schnell

schafft so ein Algorithmus das? Weil wenn ich natürlich halt in Echtzeit spielen möchte,

dann will ich halt nicht 10 FPS oder 15, sondern natürlich mindestens 60, sag ich mal. Gut,

vielleicht kann man auch mit 30. Aber GTA mit 30 FPS, ich persönlich möchte es nicht so spielen.

Aber gut, auf jeden Fall, das ist ein wichtiger Respekt dabei. Da kriegen wir das auch hin,

dass das dann entsprechend auch schnell genug umgesetzt werden kann in Echtzeit. Das wird

auch noch eine Weile brauchen. Da kann man sich davon ausgehen. Ja, da muss dieser Algorithmus halt

mal ein bisschen hinterher kommen, würde ich sagen. Ja, das ist ja ein bisschen gepinselt. Genau,

muss man sich halt mal ein bisschen beeilen. Nvidia sagt ja, dass sie komplett in diese

KI Richtung gehen. Also das ist für sie natürlich, weil sie halt auch ein großes KI-Unternehmen sind,

bei ihrer Chipherstellung und Co. Dass es für sie auch was Spielegrafik angeht,

eine der wichtigsten, wenn nicht die wichtigste Säule der nächsten Jahre. Bisschen zu dem

Punkt, dass der, den da muss ich ablesen, Brian Cattanzaro oder Cattanzaro oder also auf jeden

Fall der Brian von India, der Vice President for Applied Deep Learning Research ist, also sozusagen

der Vizepräsident für Machine Learning, für KI-Entwicklung. Der hat gesagt, dass in einer

fernen Zukunft, aber vielleicht sind es so um die zehn Jahre, 15, wer weiß, wird DLSS, was ja

momentan hauptsächlich der Upscaling Technologie ist, also eine, die eine niedrige Auflösung nimmt

und in eine höhere Auflösung umwandelt, dass die in ferner Zukunft komplett zu so einer

neuronalen Rendering Engine selbst werden könnte, die komplett dafür zuständig ist,

einfach aus dem Code mit KI Unterstützung zusammen die Bilder zu generieren. Also das ist

da gar keine klassische Bilderzeugung mehr gibt, sondern es alles, die KI übernimmt.

Ja, das ist schon sehr spannend, war auch viel diskutiert, haben wir auch ein Artikel zu gehabt,

ich glaube, bei DLSS ist zehnmal einfach so als Zahl so in den Raum geworfen, ja das wäre dann so,

wenn man die aktuelle Entwicklung von DLSS ansieht, ja, wenn das vielleicht so sieben, acht Jahre,

aber gut, das weiß wirklich einfach nur, er hat glaube ich einfach nur eine Zahl genannt. Ich

persönlich glaube auch, dass das auch noch länger dauern wird als jetzt diesen Zeitraum, aber bei

aller Skepsis, die man vielleicht KI gegenüber auch haben kann, es ist schon beeindruckend,

was wir jetzt schon auch auch im Status quo sehen, was KI kann und klar, der Weg wird da nicht

vorbei führen, ja. Ja, definitiv. Vielleicht, es gibt ja auch noch kleinere Varianten, wie KI

Spielgrafik verbessern kann. Ich hatte vor kurzem erst in einem Talk über Cities Skylines gesagt,

mich nervt immer noch, dass wenn man in Cities Skylines jetzt auch im zweiten Teil so organische

Straßen baut, krummenschiefe Straßen, das Gebäude, die an diesen Straßen entstehen, nicht

miteinander verbunden sind, sondern das Lücken dazwischen sind, weil das Spiel immer noch entlang

dieser Straßen halt so ein Schachbrettmuster generiert. Und es kein organisches, wie es im

Echendem halt auch, kein organischen Straßenzug gibt, gerade in europäischen Städten, sondern es

halt Haus, Lücke, Haus, Lücke in Kurven. Gerade, es ist natürlich klar, da können die Häuser nebeneinander

stehen, weil da schließen sich die Schachbretter und dann hatte ich auch schon gesagt, wie cool wäre

halt einfach ein Algorithmus, der die Krümung der Straße erkennt und diese Gebäude entsprechend

anordnet. Und das ist ja alles nicht unvorstellbar. Auf keinen Fall. Also ich denke auch, da sind,

das ist ja gerade das Spannende daran, welche Möglichkeiten es da vielleicht auch gibt,

über die wir jetzt gar noch gar nicht nachdenken oder wo man dann Stück für Stück drauf kommt.

Der Weg ist natürlich weit von, man hat eine Idee und dann muss man da erstmal rumprogrammieren und

dann muss das ja auch wieder gut laufen. Gut, im Bezug auf Cities Skylines 2 reden wir jetzt vielleicht

die man nicht über gut laufen. Das ist vielleicht ein schwieriges Thema, aber das hat andere Gründe,

das hat damit nichts zu tun. Klar, da ist ja auch das noch nicht drin, was du sagst, aber ja, das ist

schon, da stecken noch sehr viele Möglichkeiten drin und da bin ich schon sehr gespannt, wie sich das

weiterentwickeln wird. Ja, definitiv. Jetzt gibt es aktuell ein Stichwort, was, wenn man beeindruckende

3D-Szenen sieht, häufig herumgereicht wird und das ist das sogenannte Gaussian Splatting,

die gaussche Spritzung oder so, ich weiß nicht genau, wie man das auf Deutsch sieht. Ich habe

noch gar nicht nach einer deutschen Übersetzung geguckt, nein. Das gaussche Sprün irgendwie,

nein, übersetzt es nicht, Gaussian Splatting ist der Fachbegriff. Was genau ist das? Also bei

Gaussian Splatting, ich hoffe, ich muss das jetzt nicht so oft sagen, ich muss es irgendwie umschiffen,

da geht es im Kern um etwas, das wir auch schon relativ lange in der 3D-Grafik kennen, nämlich

um Fotogrammetrie, aber in einer verbesserten Variante sozusagen. Also Fotogrammetrie,

ich kann mich noch gut erinnern, war einer meiner ersten Talks bei der Game Store, glaube ich,

noch mit dem Guten Herrn Peschke. Da ging es, glaube ich, um The Vanishing auf Ethan Carter. Ja. Das

war auch eines der ersten Spiele, die das genutzt haben. Da geht es im Kern um, dass man Objekte

aus der echten Welt, ja, aus möglichst vielen verschiedenen Perspektiven fotografiert und sie

dann in eine 3D-Engine, in ein 3D-Modell überträgt. Ja, Star Wars Battlefront war auch eines

dabei Spiele dafür, wo sie für die Landschaften von Star Wars Battlefront 1 sehr intensiv irgendwie

Steine fotografiert haben in Island, damit die halt einfach gut ausschauen. Wir wissen es alle. Das

ist das erste, was man anguckt. Ich saß mal in der Podiumsdiskussion, wo Leute zu mir gesagt haben,

immer diese Grafikverliebtheit der Gamingpresse, hört doch mal auf damit, guckt doch mal auf die

inneren Werte, finde natürlich richtig, innere Werte sind wichtig. Aber dann habe ich gesagt,

was glaubst du, was Leute als erstes machen, wenn sie neuen Rechner haben, dann installieren sie entweder

Skyrim, was sie modden ohne Ende, um dann zu gucken, wie gut sieht es aus oder sie installieren

Crisis, ob es endlich in Ultra läuft und die Texturen richtig geil ausschauen auf einem Stein. Ja,

das kennen wir von Crisis. Ja, definitiv. Der Stein ist es. Ja. Und es ist jetzt so,

dass da von dieser Fotogrammetrie gibt es schon Verbesserungen, also was als nächster Schritt

dann kam oder eine starke Verbesserung schon war, es sind die sogenannten Nerves, das sind

wir auch nochmal Neural Radiance Fields, also neuronale Strahlungsfelder, auch mal vereinfacht

gesagt, was die machen, da kommt auch wieder, kommt KI ins Spiel. Und der große, was die besser

machen im Vergleich zu der normalen Fotogrammetrie ist, dass auch das Licht die Beleuchtung von der

KI besser mit berücksichtigt werden kann und das auch quasi das Modell, was du erstellst aus

diesen Daten, dass es einfach besser aussieht. Aber die Techniker hat halt einen gewissen Haken,

dass sie halt recht rechenintensiv ist und auch noch teilweise Fehler entfällig. Und genau da

kommt eben dieses Gorschen Splating ins Spiel, weil das quasi so ein bisschen die Hoffnung weckt

oder auch schon sehr gute Ergebnisse gezeigt hat, dass man quasi mit weniger Bildfehler oder mit

eine bessere Qualität von den Modellen erreicht und dass es aber auch schneller gerendert wird,

also dass quasi die FPS auch noch höher liegen. Ja. Und deswegen ist das gerade so ein bisschen so

in der Szene, sag ich mal, ein gewisser Hype, weil das eben sehr vielversprechend ist, um noch

einfacher aus echten Objekten quasi 3D Modelle zu machen, die dann auch wirklich gut aussehen und

die auch performant sind. Wir haben da halt natürlich auch wieder immer ein bisschen das Problem mit

dieser Art von Objekten, was wir vorhin schon auch bei der Unreal Engine angesprochen haben und

ihrem Stichwort Fotorealismus. Das sind auch oft sehr statische Geschichten und da ist halt auch

wieder die Frage, wie kriege ich das jetzt hin, dass die Spielwelt damit trotzdem dynamisch wirkt,

aber es kann natürlich die Optik trotzdem auch einfach schon sehr stark verbessern,

weil bestimmte Bereiche der Spielwelt so erstellt sind, dass sie einfach sehr,

sehr echt aussehen und sehr realistisch, gerade wenn die Beleuchtung da noch besser ist. Ja.

Wichtige Aspekte. Ja, ich erinnere mich an eine Demo, die ich mir mal angeschaut habe,

bei einem Start-up in San Francisco über ein perfotogrammetrie erfasstes Krankenhaus in

Berlin, so ein ruiniertes Krankenhaus in Berlin, was nicht mehr benutzt wird, wo halt dir in Haufen

Müldren rumliegt und sowas. Aber das konnte man in dieser VR-Demo halt erkunden mit diesen perfotogrammetrie

irgendwie eingescannten, abgetasteten, dann in 3D-Modell umgewandten Räumen, das war schon

beeindruckend. Natürlich nicht mega interaktiv oder so, kein richtiges Spiel hat er auch wieder

eine Tech-Demo, aber wenn man sich jetzt vorstellt, dass man die Technologie als Basis nimmt, um in

Zukunft halt da Levels draus zu bauen oder zumindest auszustatten mit Objekten, kann ich mir sehr

gut vorstellen. Ja, und das ist ja auch was, wo sich auch schon an viel getan hat, weil du gerade,

ja, das ist den Stichwort Star Wars Battlefront nanntes und dann Spiele, die danach noch gekommen

sind. Es gibt ja auch bei der Unreal Engine zum Beispiel die Quixel Megascans, also quasi dann

Datenbanken einfach von sehr hoch auflösenden Objekten, die eben auch auf so eine Art erstellt

wurden, was es dann auch Programmierern leichter macht, solche sehr hoch auflösenden Modelle zu

nutzen. Und ich denke auch mit dem Gaußchen Splating, wenn das dann noch schneller und

einfacher und performanter geht, dass das sicherlich auch was ist, was uns in Zukunft mehr und mehr

begleiten wird und in Spielen mehr oder eine Relevanz bekommen wird. Aber klar, man muss das

erst mal abwarten. Ist es dann immer noch ein Schritt von Forscher haben, diese neue Methode

gefunden zu, das wird in Spielen auch entsprechend häufig eingesetzt? Ja, definitiv. Nvidia hat ja

auch eine eigene Nerve Technik sozusagen, also nicht die Knarren, sondern die Neural Radiance

Fields, wo sie auch sagen, also genau mit dieser Technologie, du kannst Bilder machen von irgendeinem

Gegenstand aus verschiedenen Perspektiven, einem Blumentopf und es wird relativ schnell daraus

ein relativ ansehnliches Objekt generiert, inklusive bisschen Machine Learning wahrscheinlich im

Hintergrund. Ja, da ist KI wieder dabei. Ich glaube, instant, wie heißt es denn Nvidia Instant Nerve

oder so, aber das ist schon krass, weil ich glaube, das basiert halt auch sehr wenigen Bilder. Also

quasi, wir haben einfach genau 4, 5 Bilder reichen schon, also du machst 5 Fotos von einer bestimmten

Szene und die KI erledigt dann, war einfach gesagt den Rest und macht daraus eine 3D Szene,

in der du die Kamera komplett frei bewegen kannst. Das ist schon auch sehr beeindruckend.

Definitiv, definitiv. Gibt es denn Elemente von Spielgrafik, wo du sagst, da muss dringend was

passieren? Da sehe ich jetzt den allergrößten Handlungsbedarf. Kann denn nicht mal jemand

XY besser machen? Definitiv, da gibt es sogar mehrere Elemente. Also es sind vor allem auch

wieder die Dinge, mit denen man interagiert und die sehr kleinteilig sind. Also ich denke jetzt an

sowas wie Wasser in Spielen, ich denke an Feuer und Rauch und auch noch ein Schritt weiter Haare.

Wir wissen ja, Haare sind auch immer ein sehr schwieriges Feld, ist aber auch ein Bereich,

in dem sich immer mehr tut. Ich habe vor ein paar Monaten, das ist gerade mir eine Weile,

mal habe ich ein Artikel gemacht zu Ubisoft Torch, nennt sich das. Das ist eine neue Technik,

eine Mischung aus einem Partikel-System und einem Mesh-System. Da werden ein paar klassischere

Ansätze. Das eine ist, sagen wir mal, sehr rechenintensiv und sieht sehr gut aus, was dann die

Performance verschlechtert. Das andere sieht halt schlechter aus, aber entlastet die Performance

und das haben sie sozusagen eine Mischung daraus gemacht, um eben Rauch und Feuer in Spielen zu

entwickeln oder nutzen zu können, der einfach sehr, sehr beeindruckend aussieht und der vor allem

auch auf die Objekte, man sieht es hier auch, um die, der Rauch herum sich quasi entwickelt und das

Feuer, es ist ja oft so, dass es in Spielen ja sehr, dass man erkennt, das ist so ein bisschen

getrickst oder wenn ich da jetzt irgendwie durchlaufe, dann verändert sich das nicht richtig oder das

reagiert jetzt nicht richtig auf eine Druckwelle von der Explosion und solche Geschichten und je mehr

auch da entsprechend solche Elemente realistisch sich verhalten oder so, wie ich das halt auch aus

der echten Welt erwarten würde, auch das ist wieder so was, was man vielleicht so im Detail

sagen könnte, naja, so oft hat man jetzt auch nicht Rauch in Spielen oder das Feuer, naja,

braucht man jetzt auch nicht so viel, aber subtil sorgt es halt auch wieder dafür,

dass das Spiel realistisch aussehen kann. Ja, natürlich, zumal sie, sie haben ja in dieser

Torch-Demo, die Ubisoft da entwickelt hat, auch so ein Flammenwerfer mit drin, wo du halt wirklich

siehst, dass dieses Feuer wie so eine, naja, quasi, es ist ja keine Flüssigkeit, aber wie so eine

organische Masse sich anfühlt von Feuer, oh Gott, ich erkläre das völlig falsch, aber ihr werdet

es verstehen, wenn ihr diesen Trailer mal gesehen habt. Ja, genau, also ich finde auch dieses

Video auf jeden Fall mal anschauen, das ist schon sehr beeindruckend. Klar, auch da ist wieder die

Frage, wann schafft es das jetzt in den Spiel und wenn es jetzt von Ubisoft ist, dann dann oder von

einem bestimmten Hersteller, muss man sich auch wieder fragen, ist das dann nur ein Ubisoft-Spiel,

ist das dann eine propietäre Sache, aber es gibt ja auch andere Ansätze, die das Ganze machen.

Unreal Niagara ist ja auch ein System von der Unreal Engine, dass sich auch eben diesem Aspekt widmet,

wie kann ich Flüssigkeiten, Gase und Feuer in Spielen realistisch aussehen lassen? Das läuft

dann immer unter dem Stichwort der Abkürzung VFX, also im Prinzip einfach nur Visual Effects,

also ein visueller Effekt, der in Spielen quasi, ja, einfach das Ganze nochmal ein ganzes Stück

besser aussehen lassen kann. Aber es ist natürlich auch klar, wenn wir halt mal überlegen, wie jetzt

Feuer und Rauch, wie die auch im echten Leben, das sind im Prinzip, das besteht ja aus sehr vielen

einzelnen kleinen Teilen, die irgendwie mit Umwelt interagieren und das ist natürlich für eine

Engine deutlich schwieriger als, jetzt sagen wir mal, ich habe hier eine Hauswand, da ist eine

Textur drauf und die ist scharf und die ist halt statisch und da passiert nichts weiter. Das ist

natürlich viel leichter umzusetzen als Rauch bei einem Raketenstart, der dann realistisch sich

verteilt oder der sogar dann realistisch interagiert, wenn ich als Spielfigur durchlaufe, der sich dann

genau richtig bewegt. Ja, aber da würde ich mich wirklich freuen, so ein bisschen, wenn es so kleine,

wenn sie kleine Projekte machen würden, wo sie wirklich das mal einfach nehmen als Hauptspiel

Bestandteil, also dass man nicht gleich ein neues Far Cry Bout oder Remake von Far Cry 2 in dem

Feuer ja auch ein wichtiger Bestandteil war da damals, also nicht gleich irgendwie den großen

Wurf zu machen, sondern mal wieder irgendwas kleines, indimäßig, charmantes, aber mit diesen

Feuer- und Raucheffekten als Eyecatcher. So ein Showcase, so ein bisschen. Genau, so ein Showcase,

aber auch Spaß. Ja, man darf gerne auch spielerisch. Genau, finde ich, steckt auch sehr viel

Potenzial drin, fand ich auch ganz interessant, jetzt gab es ja auch zu GTA 6, so langsam häufen

sich die Leaks und was da so alles kommt, wir hatten ja eh den Mega-Leak vom Gameplay und so,

aber eine französische Seite meint oder will über die Engine mehr erfahren haben,

über nicht näher benannte Quellen, da fand ich aber sehr interessant, dass ein Aspekt, der sehr

herausgestellt worden ist, das Wasser ist die Wasserphysik in GTA 6. Man sieht jetzt hier gerade,

wie das noch in GTA 5 umgesetzt ist, also quasi Wireframe, also wie das Drahtgitter im Hintergrund

aussieht und ja, wir wissen alle, Wasser entspielen ist halt auch ein schwieriger Fall, weil das halt

auch wieder, wie interagiert es mit der Spielfigur, wie sieht das aus, wenn ich drin schwimme,

wie sieht das aus, wenn ich darauf schieße, wenn ein Stein ins Wasser fällt, es ist sehr schwer,

da auch wieder das alles vernünftig ändern zu lassen, eine große Herausforderung. Ja, aber wenn

ein Entwicklerstudio besessen ist von Wasser, dann Rockstar. Also den Leak, das hätte ich dir ja

schon sagen können, bevor er geliegt ist, dass sie mit dem Wasser mehr machen, aber wenn du das

Wasser anschaust in Red Dead Redemption 2, das ist sensationell. Also wenn du da in so einen Pool

reinsteigst oder in einen Teich reinsteigst und rumschwimmst, dann siehst du halt wirklich,

wie das Wasser sich halt korrekt bewegt bei deinen Schwimmbewegungen, es schlägt kleine Wellen

und selbst wenn du dann aus dem Pool rausgehst, schwabbelt es halt noch so ein bisschen weiter

und beruhigt sich dann langsam und macht dann halt wieder, geht seinem Wasseralltag nach,

danach dann wieder und das gilt ja für alles, was du in Red Dead mit Wasser machen kannst,

wenn du eine Dynamietstange reinschmeißt, dann siehst du die Wellen, die das schlägt, wenn du

in den Fluss steigst mit dem Pferd, siehst du, wie das Wasser halt dann um das Pferd rum und dann

aber auch im Fluss um die Felsen rum sich bewegt und so was. Das gefrorene Wasser sieht auch sehr

gut aus in Red Dead Redemption 2. Man läuft schon einfach mal ein paar Kreise im Schnee, einfach

weil es so schön ist, die Spuren zu sehen, die da entstehen. Klar, also die Tiefe Liebtheit,

was auch solcher Aspekte angeht, da ist sicher Rockstar sehr weit vorne dabei. Nicht nur die Pferdehoden,

sondern auch das Wasser. Ja, das ist ja auch ein spannendes Thema, aber ich sage mal die

grafische Weiterentwicklung von Pferdehoden, da müssen wir uns nicht zu intensiv mit aussehen.

Ich dachte, das wäre jetzt ein eigener Talk, wo wir dann mit den Geschichten durchgehen.

Also ich mag Pferde, nichts gegen Pferde. Ja, aber Wasser, definitiv mit Wasser kann man noch viel

tun und auch mit noch echterer Wasser für Sie kann halt auch noch mal so immersionssteigerend sein.

Ich glaube, da werden wir auch viele Dinge sehen. Ich glaube zwar auch, dass es schon immer noch

schwierig bleibt, aber ich muss auch sagen, wir haben ja auch gerade die Szene gesehen.

Das sieht schon sehr gut aus, aber halt trotzdem immer noch nicht so wie in echt. Ich weiß,

das ist natürlich ein sehr hoher Anspruch. Gerade bei so etwas wie Wasser, wo das halt extrem viele

kleine Moleküle hat, die alle einzeln irgendwie irgendwo hin reagieren darauf, was ich da mache

und dann hast du Wasserspritzer und alles Mögliche. Das ist schon so eine der schwierigsten Elemente,

die du überhaupt in den Spielen haben kannst. Aber auch deswegen jede Verbesserung, die kommt,

nehmen wir mit Kuss an. Ich bin sehr gespannt, was uns dann geht, ja, sechs erwartet.

Ja, als jemand, der Cities Cannons 1 gespielt hat, da war, muss ich sagen, da bin ich um jede

Verbesserung dankbar, denn da war Wasser eigentlich durchsichtiger Pudding. Das ist dann

die schlechteste Variante. Durchsichtiger Pudding ist nie gut, auch im echten Leben nicht.

So, ein super schwieriger Bereich, wo wir schon dabei sind. Für Spielgrafik sind auch Menschen,

gerade menschliche Gesichter. Wir haben gerade alle gesehen in Starfield, wie schwierig es ist,

echt aussehende menschliche und gut animierte menschliche Gesichter zu bauen, denn das haben

Sie leider nicht so gut hingekriegt. Siehst du da auch Potenziale und Entwicklungen?

Ja, auf jeden Fall. Es gibt ja auch schon da auch aktuelle Techniken, die es jetzt schon

besser machen oder die zumindest da sind, die natürlich noch größermaßen genutzt werden

müssen. Klar, wir kommen nicht nur um auch wieder die Unreal Engine. Meta Human ist da das Stichwort.

Wenn man die ersten Bilder gesehen hat, als das angekündigt wurde, das ist schon sehr

beeindruckend, wie echt aussehende Charaktere man damit erschaffen kann. Und was jetzt auch,

auch da, Sie sind immer dran, das zu verbessern. Also bei Meta Human ist jetzt auch, ich weiß

ja, wie lange es ist, ein paar Monate, glaube ich, die Animator-Technik hinzugekommen. Also,

dass du quasi das, was du selber, also du machst Mimiken, du kannst sie sogar auch

mit deinem Handy aufnehmen, mit dem iPhone aufnehmen. Und das wird dann übertragen auf

die Spielfigur. Und das ist schon auch sehr beeindruckend, wenn die dann wirklich so genauso

wie wir jetzt hier reden, die Mimik und die Gestik und auch die Augen, wie das zusammengekniffen ist.

Und das ist schon was, was auch wieder halt diesen, ja, den Realismus von Spielen deutlich

nach oben treiben kann. Weil klar, das finde ich, es geht mir schon immer noch so irgendwie,

vor allem die Augen finde ich immer schwierig bei Spielfiguren.

Ich mein, denk so, warum ist es denn so schwierig, Augen hinzukriegen, die irgendwie nicht so aussehen

wie das würde, die Figuren zu Lehrer starten.

Wow, ja. Aber ein Mensch hat ja so viele kleine Augenbewegungen und so was,

auch wenn wir jetzt im Gespräch oder so, das ist wahnsinnig schwer umzusetzen.

Und ich hatte auch mal gelesen, es gibt dem psychologischen Effekt, es gibt ja dieses Uncanny

Valley, dass du sagst, okay, du siehst ein menschliches Gesicht und je realistischer dieses Gesicht

versucht wird, darzustellen, desto mehr achtest du auf die Kleinigkeiten. Also je mehr

dieses Spiel dir weiß machen möchte, hey, es ist ein echter Mensch, desto mehr guckst

hin und sagst, aber der bewegt seine Augen falsch. Während, wenn du in den 90ern irgendwie

Lara Croft oder so gesehen hast, hast du halt gesagt, ja gut, es sind halt irgendwie, es ist halt

irgendwie drei Texturen auf so viel Polygonen und fertig. Ja. Und jetzt, aber trotzdem,

wir kommen noch nicht raus aus diesem Uncanny Valley. Ich glaube, das wird auch noch eine

weite, also wenn es überhaupt jemals klappt, wird es eine weite Reise sein.

Ist auch so auch bei diesen Meta Human Animator Geschichten, das ist jetzt nicht so, dass man

dann da sagt, okay, da sieht das wirklich echt aus, aber es sind schon deutliche Verbesserungen

am Vergleich zu vorher und dann gibt es ja auch, auch da arbeiten dann auch, klar, wieder ist

dabei mit dem sogenannten Audio to Face Pluckin, was gibt es auch für die Unreal Engine und

auch funktioniert auch zusammen mit Meta Human. Und da ist dann quasi die Idee oder der Grundgedanke,

dass du einfach eine Audio Datei, der Engine oder quasi bei der Programmierung dazugibst

und dann wird halt entsprechend das durch die KI so umgesetzt, dass die Lippenbewegung halt genau

dem entsprechen und was auch sehr cool ist, wenn man sich jetzt jetzt sagt, du kannst auch sagen,

wie soll denn die Spielfigur jetzt gerade aussehen? Ist die wütend, ist die glücklich,

ist die traurig und dass das quasi dann auch per KI entsprechend mehr oder weniger mit ein paar Klicks

auf deine Spielfigur umgesetzt wird. Klar, auch das, es ist noch nicht perfekt und Manek, ja.

Also das ist weit entfernt. Das gehört ja zu diesem NVIDIA Omniverse, das glaube ich so ein

ganzes Toolset ist einfach. Und als ich das zum ersten Mal gesehen habe, dachte ich so, ui,

also so arg emotional. Es sind ja unterschiedliche Ton-Samples, diese benutzen in unterschiedlicher

Emotionalität. Es gibt das wütende, ausdrucksvolle, gesprochenes, was leiser gesprochenes und so.

Also an den Gesichtern ablesen kann ich das noch nicht so richtig.

Nee, es ist schon, es sind da noch Noir und so. Ich sag mal, vielleicht den Unterschied

zwischen sehr fröhlich und wütend, den sieht man dann vielleicht noch. Aber es sind zumindest Schritte

in die richtige Richtung oder in eine spannende Richtung, weil klar, auch das, also geht es mir

zumindest auch immer, dass ja auch ein Problem oder auch bei Starfield. Man wirrt halt einfach aus,

wenn man so eine Katze hat und dann, naja, dann passen die Lippenbewegungen halt überhaupt nicht

zu dem, was die Figur sagt oder das Gesicht sieht halt irgendwie ein bisschen sehr statisch aus

oder da fehlen. Ich meine klar, das menschliche Gesicht, wir haben wie viele Muskel sind da,

ich weiß es jetzt nicht, extrem viele. Ja, mehr als fünf. Ja, das würde ich auch vermuten. Und das

jetzt nachzustellen ist natürlich auch eine große Herausforderung. Aber es spielt halt gerade

für die Immersion auch wieder, ich weiß es so ein viel gerittenes Schlagwort, aber es ist

schon ein sehr wichtiges einfach. So geht es mir zumindest, weil eben echt für dieses Versinken

in Spielwelten machen all die kleinen Nuancen doch viel aus und gerade, wenn du sie dann alle zusammen

nimmst, dann gibt es immer mehr Stellen, wo du aus dem Spiel gerissen wirst oder weißt, okay,

das ist jetzt eine Spielgrafik, soll ja auch weiter so sein, aber es darf gerne realistischer werden

für mich. Es darf ja, es ist ja auch genug Platz für andere Stile. Also wenn du sagst,

ich mach jetzt bewusst kein realistischen Stil, ich möchte eher was komikhafteres haben, es ist

ja alles super cool und legitim und auch was es heute schon gibt. Aber klar, wenn man halt sagt,

ich möchte so eine realistische Darstellung haben, so wie es halt ein Crisis auch damals gemacht hat

oder so, dann kann man da schon nochmal ordentlich weiterkommen in der Zukunft. Und auch gerade in

VR, also wenn man daran denkt, gerade wenn du es irgendwie in Virtual Reality spielst,

wo du ja noch mal näher dran bist an den Sachen, noch mal eigentlich immersiver

drin sein sollst und dann steht hypothetisch gesprochen im Befestarkarakter vor dir und sagt,

oh schön, dass du da bist, wir wurden gerade von Piraten erschossen. Ja, das ist schon ein bisschen

anders als definitiv. Also da geht noch was, wo geht noch was? Gibt es in deiner magischen

Glasskugel der Grafiktechnologie-Zukunft noch Sachen, von denen du sagst, darauf müssen wir achten?

Oder das ist im Kommen? Grundsätzlich, es ist ein bisschen indirekt jetzt, was ich sage, weil es

jetzt nicht so direkte Grafiktechnologie ist, aber es ist auch eine sehr wichtige Technologie,

die Spiele deutlich verbessern kann in Zukunft, nämlich Direct Storage. Das ist ja was, was auf

den Konsolen, schon PlayStation 5 und Xbox Series X, auch schon das. Im Prinzip geht es darum,

dass ich dank eines sehr schnellen Datenträgers einfach Daten sehr schnell spiele, Daten sehr

schnell streamen kann und dass ich spiele, dass einfach der Flaschenhalt Datenträger ein bisschen

wegfällt, ist halt immer ein bisschen das Problem bei solchen Techniken. Es ist gut, dass es sie in

den Konsolen jetzt gibt. Man muss ja auch bei den vorherigen Konsolen, während am PC lange SSDs

gang und gäbe waren, also sehr schnelle Datenträger waren da Festplatten noch lange Zeit,

halt der Standard. Man konnte sie schon austauschen oder das nicht, aber es muss ja auch das gesamte

System dahinter, also auch das Betriebssystem muss damit umgehen können, die Spiele müssen

damit umgehen können. Aber damit sich das durchsetzen kann, ist es sehr wichtig, dass es in den

Konsolen ist, aber wir haben halt auf dem PC natürlich wieder das Problem. Direct Storage ist

da und ist auch für Windows da, kann Spiele potenziell deutlich verbessern, dass ich zum Beispiel

mich viel schneller durch Spiele bewegen kann und dass trotzdem die Spielwelt nahtlos gestreamt

wird. Ein Beispiel dafür ist ja von den Konsolen von der PS5 Ratchet & Clank Rift Apart, wo es ja

diese berühmte Szene gibt, die ja auch schon vorab auf Messen gezeigt wurde und man durch diese

Dimensionstoure fällt am Anfang und es geht halt wirklich blitzschnell, neue Welt, neue Welt,

neue Welt. Und ich habe es bei mir zu Hause gespielt auf dem PC dann, die PC Version und

tatsächlich siehst du, okay, da sind halt so Mikroklattern drin, weil er da nachlädt, weil ich

halt auch weiß nicht, wie schnell CSC und Co. Aber genau die Szene, da habe ich auch ein Vergleichsvideo

zu gemacht, wo ich genau das nämlich mal getestet habe, wie schnell geht das auf dem PC mit einer

der sehr schnellen neuen SSDs, wie schnell geht es mit einer normalen SSD und man sieht dann eben

genau das, was du da ansprichst. Statt so mehr oder weniger das Dimensionstall geht auf und zack,

ich bin in der neuen Welt, hat man dann, also bei der schlimmsten, schlechtesten Variante, dreht

sich der Arme, ist es Ratchet oder Clank, ich kenne das Spiel nicht, der Ratchet. Ja, der dreht sich

dann erstmal so sekundenlang im Kreis, weil halt die Daten nicht schnell genug nachgeladen werden

können. Und da kann eben DirectSold Shelf und das ermöglicht, einfach spielen, neue Arten, so

was umzusetzen. Muss natürlich auch als Entwickler erstmal schauen, okay, wie kann ich das dann auch

cool umsetzen. Aber das ist zumindest ein Feld, wo ich auf jeden Fall noch viel Potenzial sehe.

Aber was ist denn das Problem? Also ich meine, das ist ja da eigentlich. Du hast halt immer

das Problem, gerade auf dem PC, natürlich haben mittlerweile sehr viele Leute eine SSD drin,

aber wir brauchen ja nicht irgendeine SSD für DirectSold Shelf, sondern am besten brauchst du

eine möglichst schnelle PCI Express SSD, also mit der PCI Express Schnittschnitte. Vorherwahl ist

lange Zeit der SATA Standard bei sowohl SSDs als auch bei Festplatten genutzt worden. Der hat

halt einfach einen Limit, 500 Megawatt pro Sekunde ist es ungefähr. Und DirectSold, ich bin gar nicht

ganz sicher, was die offizielle Voraussetzung ist, aber ich glaube, im Mindestzeit ist es 10-fach

irgendwie, ich glaube entweder 5 Gigawatt pro Sekunde oder vielleicht sogar noch mehr, bin

ich jetzt gar nicht ganz sicher. Aber es hat halt nicht jeder eine PCI Express SSD in seinem Rechner.

Klar, die werden sind auch billiger geworden, so wie SSDs in den letzten Jahren e-generally

viel billiger geworden sind und es ist jetzt nicht so, dass man sich das nicht leisten könnte.

Aber muss als Entwickler natürlich immer überlegen, okay, was mache ich denn, wenn jemand mein Spiel

spielt, der halt entweder keine PCI Express SSD hat oder der vielleicht sogar, es gibt auch noch

Rechner mit HDDs, kann ich jetzt keinen empfehlen, da sind die Ladezeiten dann doch schon ganz schon

lang mittlerweile, aber es gibt sie noch und da musst du halt überlegen, okay, sage ich meine

Mindestvoraussetzung, damit du mein Spiel spielen kannst, ist eine PCI Express SSD, dann schneidest

du dir aber natürlich einige Käufer ab, die dann halt einfach sagen, okay, ich erfülle

nicht die Mindestanforderung und ich kann dieses Spiel nicht spielen. Das ist immer das bisschen

der Pferdefuß des PCs, dass man halt versucht, eine möglichst breite Zielgruppe immer noch an

zu sprechen. Ist es ja auch okay, es ist ja auch gut so für Leute, die halt ein langsamerer PC haben,

aber gleichzeitig muss du es halt einfach berücksichtigen. Kannst nicht einfach so tun

wir als, das ist natürlich der große Vorteil von den Konsolen, da weißt du halt als Entwickler,

okay, jede PlayStation 5 Kandast und jede Xbox Series X Kandast, gut jetzt vielleicht,

wenn jetzt Abwärtskompatibilität zu den Eltern brauchen, gibt ja genug Spiele,

die das mittlerweile glaube ich auch nicht mehr haben. Das macht es einfacher, aber es gibt

ja immer noch sehr, sehr viele Spiele, die halt trotzdem auch wieder für alle drei,

sowohl für die PlayStation, für die Xbox und für den PC kommen und da musst du halt auch wieder

als Entwickler überlegen, okay, wie berücksichtigt das und wie viele Ressourcen stecke ich auch

da rein, sage ich mal, zu gucken, wie ich diese neue Technik jetzt cool in Spielen nutzen kann.

Es ist ja jetzt auch nicht so, dass es, auch wenn die Technik toll ist und gut ist, dass sie gibt,

aber einfach mal eben so gute Spiele, die entstehen da jetzt auch nicht von selbst,

die musst du auch erst mal haben und dann entsprechend umsetzen. Ja, ja, aber kurze Ladezeiten

oder schnelles Nachladen, schnelles Streaming, eine Welt schnell nachladen zu können,

wie in einem Spider-Man 2, dass ich halt super schnell und flüssig mich durch New York schwingen kann,

das hat ja dann auch durchaus Schauwert und Vorteile. Definitiv, das ist auch so ein bisschen,

halt so was unterschätzt das glaube ich auch, weil man so gefühlt, so geht es mir dann zumindest,

denkt man so, ja gut ist doch klar, man, ich schwinge jetzt ja halt durch die Spielwelt

und das sieht alles gut, das ist kein Problem, aber muss ich dann erstmal klarmachen, was das für

die Hardware heißt, wenn die halt so schnell auf einmal, also sie muss ja quasi, wenn du halt einfach

von dieser Szene die ganze Zeit in Sekunden schnell durch laute andere Szenen wechselst,

musst du ja ständig neu, ach, da steht ein neues Haus, das hat eine neue Textur, da steht wieder

das und das muss ja alles mitgeladen werden, auch wenn du es jetzt natürlich, man guckt ja jetzt bei

diesem durch die Weltfliegen, achtet man ja jetzt nicht so genau darauf, welche Häuser da stehen

und welche Texturen da raus sind, aber du würdest es eben sehr deutlich wahrnehmen, wenn da auf einmal

alles nur noch matschig ist, weil das ist nicht mehr hinterherkommen. Genau, weil wenn die Autos

aufploppen, genau, richtig, und solche Geschichten und das ist schon was, was dann so ein Hintergrund

irgendwie passiert, aber auch einen großen Einfluss haben kann. Ja, die letzte Technologie, die ich

noch auf meinem Zettel stehen habe, ist, dass wir unsere Augen hinaufrichten auf die Cloud, mit dem

Cloud Rendering. Ja, auch ein wichtiges Stichwort, ja, das stimmt genau, bei Microsoft Flight Simulator

wird es ja schon genutzt, grundsätzlich, die Cloud ist ja auch so ein Schlagwort, das schon sehr

lange auch, sag ich mal, in der Industrie oder in der Gaming-Industrie rumgeistert, ich kann mir

auch noch sehr gut an die ersten Cloud Gaming Versuche erinnern, die da auch mehr mittelprächtig

waren, Gott, was hatten wir damals für schlechtes Internet, aber das ist ja noch mal ein anderes Aspekt,

Cloud Gaming meint ja, dass ich das quasi das komplette Rendern auf einem Server abläuft,

wie bei, jetzt komme ich doch nicht auf den Namen von Nvidia, wie heißt das denn noch mal?

Tee Force Now. Ja, genau, ich bin noch, ja, gibt noch diverse andere, sogar die Telekom hat

mein Streaming-Dienst angekündigt, ich weiß gar nicht mehr, was daraus geworden ist. Ja, hat

verschiedene Prolehrer, aber hier geht es ja im Prinzip darum, dass man sagt, man hat höher

aufgelöste Daten oder hat sehr viele Daten, die quasi live während du spielst aus der Cloud in

deinem Spiel, in deinen lokalen Rechner gestreamt werden, was dann eben auch Beschränkungen aufhebt,

die du halt mit der lokalen Hardware hättest, aber dann vom Datenspeicher her,

wie viel Platz hast du auf deinem Rechner? Ich meine, Spiele werden nicht umsonst immer riesiger,

so ist es nicht, aber das ist halt was, was da auch ein bisschen Abhilfe schaffen kann,

obwohl ich auch gespannt bin, in welche Richtung es da geht. Aber klar, da bist du natürlich von

einer guten Internetleitung, dann auch wieder, je nachdem, wie viele Daten es sind, welche Daten

es sind, auch abhängig, aber das sind wir ja mittlerweile schon ein Stück weit, sag ich mal,

gewohnt. Es gibt zwar immer noch so die Aufschreihe, wenn irgendwas online,

was nicht, bei Payday 3 gab es da nicht erst irgendwie Ärger um Always On, aber es ist so

ein bisschen Normalität, sag ich mal mittlerweile. Klar, wenn die Cloud wichtiger wird, dann wird

auch unser Internet immer wichtiger. Das ist wohl richtig und es darf gerne weiter ausgebaut

werden. Ich finde die Idee tatsächlich ja wirklich spannend zu sagen, es wird halt Grafikberechnung

von deinem lokalen System ausgelagert in die Cloud. Ja, das Risiko ist immer da, dass wenn das

Internet halt nicht mitspielt oder wenn du nicht online sein kannst, dann fungst es halt nicht,

dann funktioniert es nicht. Aber gerade für aufwendigere Szenerie oder wenn du halt sagst,

okay, der Rechner wäre an sich gar nicht stark genug, um das darstellen zu können,

wie die Welt, über die man fliegt jetzt gerade im Flight Simulator oder sowas halt zu berechnen,

das dann auszulagern. Spannend, auch da interessante Möglichkeiten, wie sich ergeben

für die Zukunft. Und das war es schon von unserem Talk. Es war eine Tour de Force,

ein Ritt durch die Grafiktechnologien der Zukunft. Vielen Dank Nils. Ja, sehr gerne.

Machine-generated transcript that may contain inaccuracies.

Grafik ist nicht alles, und fotorealistische Grafik erst recht nicht. Natürlich wird es auch in Zukunft Spiele geben, die bewusst auf einen Oldschool-Look à la Dave the Diver setzen oder auf alternative Grafikstile wie Limbo oder Party Animals.

Die wahren Augenöffner sind jedoch Spiele, die aussehen wie das echte Leben. Oder die zumindest nah ans echte Leben rankommen, wenn man nicht zu genau hinschaut - etwa in Red Dead Redemption 2.

Welche Riesensprünge die Spielegrafik in Zukunft machen wird und welche neuen Technologien dafür notwendig sind, bespricht Micha in diesem Talk von FYNG Tech mit unserem Hardware-Urgestein Nils »Rendering« Raettig.

Dabei geht es natürlich auch ums Pathtracing, das bereits Gegenwart ist - etwa in Cyberpunk 2077 oder in Portal RTX. In Zukunft wird die Technologie eine noch größere Rolle spielen, weil sie nicht nur schöner aussehen kann als Raytracing, sondern Vorteile für Entwicklerstudios bietet. Welche, erklärt Nils im Talk.

Damit sich das Pathtracing sein volles Potenzial entfalten kann, braucht es jedoch auch - logisch - mehr Leistung. Wenn es nach Nvidia geht, fließt diese Leistung in Zukunft nicht mehr darin, Spiele klassisch in nativer Auflösung zu rendern (also beispielsweise 1080p oder 4K), sondern in KI-Berechnungen.

Denn die Künstliche Intelligenz - präziser gesagt: das Machine Learning - soll in Zukunft dabei helfen, von der Grafikkarte ausgegebene Bilder aufzuhübschen. Oder die Algorithmen übernehmen sogar vollständig das Rendering von Szenen, was Nvidia bereits 2018 in einer frühen Demo gezeigt hat.

Die Grafikzukunft w