Chromanoid hat geschrieben:Warum sollte es nicht auch KNNs für's Rendering geben, deren Mechanismen sich an Vorgängen im Gehirn orientieren (sofern sich diesbezüglich Erkenntnisse ergeben)? Dort scheint grafische Darstellung jedenfalls recht gut zu klappen :)...
Weil wir das Rendering nicht im Kopf machen, sondern die physikalischen Vorgänge in der Natur dies bewirken (wie z.B. hier die indirekte Beleuchtung). Man denkt sich ja nicht „da steht ein Tisch“, und dann generiert das Gehirn eine graphische Vorstellung davon; sondern die Natur schickt dir irgendwelche Photonen auf die Netzhaut, welche dein Gehirn als die Information eines Tisch interpretiert. Vergleiche doch mal die RAW-Bilder einer Kamera mit den Bild, welches dir dein Auge liefert. Das ist der Unterschied, den dein Kopf bewirken könnte.
CodingCat hat geschrieben:Unabhängig davon faszinierte mich eigentlich nur die Herangehensweise, auf dieser Ebene Training/Fitting zu betreiben, deren Maßstab mir ein wenig analog zu der Art und Weise erschien, mit der wir uns beim Malen das Aussehen neuer Kompositionen anhand unserer Erfahrung mit unzähligen bereits gesehenen Lichtverhältnissen und Objektkonstellationen rekonstruieren.
Mmh, ja, der Mensch lernt irgendwie die nichtlineare Beleuchtungsfunktion, da hast du schon recht (sonst könnte man ja keine unrealistischen Bilder von realistischen Photos unterscheiden). Bei mir hat dein Beitrag nur den Neuronale-Netze-Schwabulator-Trigger ausgelöst, vermutlich habe ich leicht überreagiert. ;)
Krishty hat geschrieben:Liege ich da halbwegs richtig?
Ja. Wenn du statt der ganzen Render-Gleichung nur die indirekte Beleuchtung betrachtest (das hatte ich in meinem letzten Beitrag nicht wirklich herausgehoben; die direkte Beleuchtung wird nämlich ganz klassisch mit Punktlichtquellen und VSM berechnet) trifft es das (natürlich unter Weglassung der ganzen Details) ganz gut.