pomiar czasu trwania operacji
: 10 maja 2005 11:14
Witam wszytskich.
Mam problem, potrzebuje każdorazowo podawać ile trwała operacja (dokładnie reakcja urządzenia na wysterowanie). Zarówno start jak i stop pomiaru czasu jest generowane programowo (struktura Event).
Pętle Wait 1ms na wejściu odrzucam (obciąża procek a sama procedura trwa tyle że są bardzo duże przekłamania). Inne rozwiązanie to użycie Get Date/Time In Seconds, różnica jest czasem trwania. Tyle, że jeśli między start a stop wstawie delay=150ms (na przykład), to różnicza czasów waha się od 110 do 170ms... troche dziwne. jak może być mniej niż delay?
Jesli ma ktoś pomysł jak dokładnie mierzyć czas to prosiłbym o pomoc. Dodam, że czasy które mnie interesują są właśnie w granicach 100ms (ale dokładność do 10ms jest wystarczająca).
Mam problem, potrzebuje każdorazowo podawać ile trwała operacja (dokładnie reakcja urządzenia na wysterowanie). Zarówno start jak i stop pomiaru czasu jest generowane programowo (struktura Event).
Pętle Wait 1ms na wejściu odrzucam (obciąża procek a sama procedura trwa tyle że są bardzo duże przekłamania). Inne rozwiązanie to użycie Get Date/Time In Seconds, różnica jest czasem trwania. Tyle, że jeśli między start a stop wstawie delay=150ms (na przykład), to różnicza czasów waha się od 110 do 170ms... troche dziwne. jak może być mniej niż delay?
Jesli ma ktoś pomysł jak dokładnie mierzyć czas to prosiłbym o pomoc. Dodam, że czasy które mnie interesują są właśnie w granicach 100ms (ale dokładność do 10ms jest wystarczająca).