Allgemein: Der Ursprung ergibt sich bei mir Realativ, da ich das Stereokamerasystem irgendwo mal hinstelle und von dort aus relativ messen beginne.
Ebenso kann ich die Blickrichtung schätzen.
Hier würde ich eine Parallelprojektion des Meshs ansetzen.
Das bedeutet, dass der Blickvektor von der Kamera zum Blick(Target)Punkt ein LookAt Vektor ist, oder? Darauf müsse sich die Ebene in der die Polygone (ohne Tiefe) liegen dann bestimmen lassen, aber wie lege ich in dieser Ebene dann die Punkte fest ohne, dass sie verzerrt oder verdreht werden? Würde dies über ein rechtwinkliges Koodinatensystem an diesen Punkt dann dann berechenbar sein?
- Der Normalenvektor und zwei auch rechtwinklig auf einander stehende Vektoren bestimmen um das Koodinatensystem zu erhalten.
- wenn man dann diese normalisiert sollte man in Schritten der Vektoren die Punkte bestimmen
Die "Tiefe" der Punkte kann ich dann über einen Normalisierten LookAt Vektor bestimmen. ( Ziel zu Kamera Vektor)
Kann man diese Berechnungen in eine Transformationsmatrix-Matrix packen (wenn ja wie) oder muss man hier jeden der Schritte einzeln für jeden Punkt berechnen? Vom Laufzeit verhalten dürfte es massiv an Echtzeit vorbei gehen...
Ich vermute, dass hier es zu Fehlern kommen wird. Welche sich dann im Matching bemerkbar machen werden, da eine Kameraaufnahme keine Paralellprojektion ist. Deshalb kommt jetzt die zweite Variante in der ich die Brennweite der Kameras miteinrechne.
Der Ursprung, Kameraposition usw ist wie oben, aber nun müsste ich um die Tiefe der Punkte zu bestimmen den Strahlensatz bemühen...
Also für jeden Punkt des Meshs einen Vektor bestimmen, diesen Normalisieren und dann darauf addieren.
Ob dies schnller geht?
Hat jemand schon mal sowas gemacht? Oder Erfahrungen wie man diese Berechnungen ansetzt ohne alles mit Vektoren zu rechnen?