Obliczanie czasu trwania sygnału
: 29 lis 2012 10:04
Witam,
Mam do zrobienia projekt dekoder morse'a
Założyłem sobie tak, że czas trwania sygnału (np. na woltomierzu) decyduje jaki znak przyszedł (kropka czy kreska), następnie kropki i kreski dekoduje na litery. Zamiana znaków na litery nie jest problemem. Problemem natomiast jest klasyfikowanie jak długo trwał sygnał wysoki oraz jak długo trwał niski. Jako że w chwili obecnej nie mam dostępu do tego woltomierza, chciałbym to zrobić aby sygnałem był chociażby jakiś pasek, lub nawet przełącznik typu boolean na front panelu. Ale jak zabrać się za pomiar czasu trwania danego stanu? Próbowałem z dwiema pętlami if, i przekazywaniu wartości Tick Count do drugiej pętli w chwili skończenia tej pierwszej, ale czasami wysyła wynik z pierwszego obiegu pętli a czasami z ostatniego. Czy mógłbym liczyć na jakąś pomoc jak to zrobić?
pozdrawiam
Mam do zrobienia projekt dekoder morse'a
Założyłem sobie tak, że czas trwania sygnału (np. na woltomierzu) decyduje jaki znak przyszedł (kropka czy kreska), następnie kropki i kreski dekoduje na litery. Zamiana znaków na litery nie jest problemem. Problemem natomiast jest klasyfikowanie jak długo trwał sygnał wysoki oraz jak długo trwał niski. Jako że w chwili obecnej nie mam dostępu do tego woltomierza, chciałbym to zrobić aby sygnałem był chociażby jakiś pasek, lub nawet przełącznik typu boolean na front panelu. Ale jak zabrać się za pomiar czasu trwania danego stanu? Próbowałem z dwiema pętlami if, i przekazywaniu wartości Tick Count do drugiej pętli w chwili skończenia tej pierwszej, ale czasami wysyła wynik z pierwszego obiegu pętli a czasami z ostatniego. Czy mógłbym liczyć na jakąś pomoc jak to zrobić?
pozdrawiam