Spektrogramm/Sonagramm zu Audio
Verfasst: 04.08.2010, 18:26
Huhu,
ich bin hier wieder am verzweifeln...
Eigentlich würde das Thema eher in Soundprogrammierung (noch besser in Signalverarbeitung) passen, aber den Bereich gibs ja bei uns noch nicht... also Grafik. :lol: Zugrunde liegt ein Audiostream. Dieser wird in ein Spektrogramm/Sonagramm umgewandelt und angezeigt:
Um genau zu sein handelt es sich hier um eine Sprachdatei... die hellen Linien sind dabei die Ausprägungen in den einzelnen Frequenzen. Man erkennt ganz gut die einzelnen Buchstaben vom Muster her.
Nun zu meinem Problem. Wenn ich nun diese Darstellung wieder in ein Audiosignal verwandeln will, geht das schief. Ich habe das folgendermaßen gelöst... ich gehe jede Pixelspalte durch und addiere eine Sinuswelle, die mit der entsprechenden Frequenz abläuft. Das Ergebnis wird dann praktischerweise wieder in ein Spektrogramm zur Darstellung umgewandelt, so das Kenner vielleicht erahnen können, was da eventuell falsch läuft:
Wie man sehen kann, scheint es, als ob in regelmäßigen Abständen das Singal unterdrückt wird. Ich habe gestern und heute viel rumprobiert, aber kein Indiz gefunden, woran das liegen könnte. Ich dachte zunächst daran, das sich vielleicht die ganzen Sinuskurven ungünstig überlagern, aber es macht keinen Unterschied, in welcher Phase diese starten.
Gruß
Zudo
PS: Auch Linearinterpolation zwischen den Sampels bzw. einfach mal das Maximum der Ausprägung des letzten und nächsten Sampels ändert so gut wie nichts... es muss also ein anderes Phänomen sein.
PPS: Vielleicht würde es auch helfen, wenn man statt Sinuskurven zu addieren, direkt IFFT einsetzt, aber da ist mir noch unklarer, wie das gehen soll. :(
ich bin hier wieder am verzweifeln...
Eigentlich würde das Thema eher in Soundprogrammierung (noch besser in Signalverarbeitung) passen, aber den Bereich gibs ja bei uns noch nicht... also Grafik. :lol: Zugrunde liegt ein Audiostream. Dieser wird in ein Spektrogramm/Sonagramm umgewandelt und angezeigt:
Um genau zu sein handelt es sich hier um eine Sprachdatei... die hellen Linien sind dabei die Ausprägungen in den einzelnen Frequenzen. Man erkennt ganz gut die einzelnen Buchstaben vom Muster her.
Nun zu meinem Problem. Wenn ich nun diese Darstellung wieder in ein Audiosignal verwandeln will, geht das schief. Ich habe das folgendermaßen gelöst... ich gehe jede Pixelspalte durch und addiere eine Sinuswelle, die mit der entsprechenden Frequenz abläuft. Das Ergebnis wird dann praktischerweise wieder in ein Spektrogramm zur Darstellung umgewandelt, so das Kenner vielleicht erahnen können, was da eventuell falsch läuft:
Wie man sehen kann, scheint es, als ob in regelmäßigen Abständen das Singal unterdrückt wird. Ich habe gestern und heute viel rumprobiert, aber kein Indiz gefunden, woran das liegen könnte. Ich dachte zunächst daran, das sich vielleicht die ganzen Sinuskurven ungünstig überlagern, aber es macht keinen Unterschied, in welcher Phase diese starten.
Gruß
Zudo
PS: Auch Linearinterpolation zwischen den Sampels bzw. einfach mal das Maximum der Ausprägung des letzten und nächsten Sampels ändert so gut wie nichts... es muss also ein anderes Phänomen sein.
PPS: Vielleicht würde es auch helfen, wenn man statt Sinuskurven zu addieren, direkt IFFT einsetzt, aber da ist mir noch unklarer, wie das gehen soll. :(