Jup, bei den Engine Trailern ist es immer sehr beeindruckend, was die Entwickler rausholen, allerdings kann man nochmal von mind. 5 Jahren ausgehen was es an Zeit braucht, bis diese Qualität auch wirklich in der Industrie Verwendung findet. Auch weil die Hardware der Konsumenten das größtenteils einfach noch nicht packt.
Schrompf hat geschrieben: ↑07.04.2022, 07:14
Was mich allerdings nervt, ist der stete Trend zu Temporal Sub Sampling und Denoising usw. Ja, da läuft nachher ein glorifizierter Weichzeichner drüber, den man mit Wörtern wie "Deep Learning" versucht, besser klingen zu lassen. Aber es nervt mich in der Bewegung, es nervt mich am Bildschirmrand, überall rauscht und zieht es Spuren nach wie in den "Betrunken"-Bildeffekten der ersten MMOs.
KI basierte Lösungen sind meistens noch sehr viel schlechter als die von handgeschriebenen Lösungen. Das Hauptproblem an KI basierten Filtern ist, dass es sehr schwer ist, dass das Bild über mehrere Frames hinweg stabil bleibt, da die Filter im Moment nur mit Informationen aus einem einzigen Frame arbeiten.
Der Optix Denoiser von NVIDIA funktioniert relativ gut für statische Szenen, verreckt aber richtig hart bei Refraktion und beweglichen Szenen ("Schmiereffekt").
Der KI Filter der mich von der Qualität her echt beeindruckt hat, ist DLSS. Die freie Alternative von AMD namens FSR benutzt kein KI, und kommt da leider nicht ran. Mit dem NVIDIA Treiber leak vor kurzem kann man vielleicht hoffen, dass sich in dem Bereich was tut und mehr freie Super Sampler auf den Markt kommen.
Schrompf hat geschrieben: ↑07.04.2022, 07:14
Wahrscheinlich sind die ganzen fancy neuen Rendertechniken der letzten zehn Jahre so extrem aufwändig, dass auch die fetten Grafikkarten das nicht fullscreen single-frame hinkriegen. Aber es geht mir trotzdem auf die Nerven. Und Unreal ist das Paradebeispiel für mich für eine Engine, die nur auf Screenshots gut aussieht, die nach 2s Stillstand geschossen wurden.
Jeder will jetzt halt realistisches Licht, mit PBR kommt man einfach nicht sehr weit, man muss schon Strahlen in irgendeiner Form durch den Raum schießen, damit es nach was aussieht. In Vollbild kann man den Kram sowieso nicht machen, fast jeder berechnet das Licht in 1/2 oder 3/4 Auflösung, und skaliert dann mit TAU oder einem bilateralen Filter hoch. Die Grafikkarten heute sind zwar extrem schnell, aber es braucht noch ein paar Jahre, bis Ray tracing ohne extreme Weichzeichner möglich ist.