04-07-2010 05:00 AM
Salve a tutti, ho questo problema.
Sto acquisendo dati da un processo e li sto memorizzando in tdms. Sono sequenza brevi che durano massimo un paio di minuti.
Quando vado poi a visualizzare i dati con tdms viewer vedo che la scala dei tempi è stravolta, un paio di minuti risultano durare oltre una decina di ore.
Uso una timed loop ed il periodo di campionamento è 100Hz
04-08-2010 02:43 AM
Ciao Pablo,
potresti darmi qualche informazione aggiuntiva?
Puoi postare il tuo codice (o magari un esempio che riproduca il problema)? Se usi LV 2009 posta il codice con il Vi snippet.
Ciao
04-08-2010 03:31 AM
Ciao Matteo.
Ecco il codice.
Ho ricontrollato i vecchi grafici e questo problema non si presentava (usavo un ciclo while).
successivamente invece ho sostituito il while con un timed loop ed ho cambiato anche la frequenza di campionamento.
Inoltre ho notato che gli incrementi temporali nel tdms risultano unitari, come se ogni istante lui lo vedesse pari ad 1 sec anzichè 10msec.
04-09-2010 05:28 AM
Che versione di LV stai usando ora?
Ciao,
04-10-2010 03:58 AM