Guten Tag!
Ich habe ein Sinussignal (z.B. f=40 kHz), das ich an zwei
Kanäle meines BNC-Adapters anschliesse. Wenn ich nun beide Kanäle
abtaste und visualisiere, ist eindeutig eine Phasenverschiebung zu
erkennen (bei einer Abtastrate 180 kHz => ca. 20°).
Inzwischen
habe ich herausgefunden, dass diese Verschiebung dadurch zustande
kommt, dass meine Karte nur einen A/D-Wandler hat und daher per
Round-Robin-Scan die Abtastwerte nacheinander aufnimmt (also zuerst
Kanal 1, dann Kanal 2). Dieser zeitliche Versatz äussert sich in der
Phasenverschiebung (Interchannel Delay).
Wie kann ich die Messwerte bzw. die Messung so ändern, dass ich korrekte Werte erhalte, mit denen ich rechnen kann? Eine zeitliche Verschiebung eines gemessenen Signals würde da helfen, nur wie mache ich das? Mit Hilfe des Zeitstempels komme ich nicht weiter (siehe angehangenes VI)...
Die Abtastwerte befinden sich in einem Array und bestehen minimal aus 4 Werten/Periode.
Zudem habe ich zur Veranschaulichung zwei Skizzen angehangen: zum einen die zwei Signale, die mit einem Oszilloskopen aufgenommen werden und zum anderen die zwei Signale, die mit LabView gemessen werden. Bei der Messung mit LabView wird eine fehlerhafte Phasenverschiebung berechnet.
Leider bin ich schon länger auf der Suche nach einer Lösung, konnte aber bisher nichts finden.
Vielen Dank!
Gruss!
Mario Pina y Ripke