Witam wszystkich,
Mam problem z uzyskaniem poprawnego widma dla sygnału binarnego losowego. Może ktoś wie, co jest tego przyczyną?
Z góry bardzo dziękuję za każdą wskazówkę
W sygnale złożonym wyłącznie z zer i jedynek zawsze będzie jakaś składowa stała. W Twoim przypadku im więcej bitów, tym bliższa ona będzie 0,5 - wystarczy policzyć średnią. Dlatego w widmie będzie duży prążek dla f=0, a dla reszty - cóż, szum zbliżony do 0.
Pytanie: o jakie widmo chodzi, jakie miałoby być poprawne?
Jeśli płaskie widmo szumu białego, to chyba musi być to sygnał analogowy, tzn. tablica próbek. Polecam przejrzenie palety Signal Generation w dziale Signal Processing. Są tam generatory różnych rodzajów szumu, w tym Gaussian White Noise, a także Bernoulli Noise, który generuje tablicę zer i jedynek z rozkładem jednorodnym - to, co zrobiłeś ręcznie.
miłego kodzenia życzę
EDIT: zdałem sobie sprawę, że sygnał nie musi być analogowy, żeby miał płaskie widmo. Ale nie może się też składać z zer i jedynek. Wyjście? Sygnał składający się z "1" i "-1". Dla rozkładu jednorodnego średnia będzie bliska 0, zatem też brak będzie tego początkowego prążka. Tylko nie jestem pewien, czy wtedy można go nazwać cyfrowym.
Witam,
stworzylem sygnal cyfrowy 0-1 i dolozylem szum. Mam teraz problem z widmami. Pomoglbys moze jak nalezy to zrobic badz przeslal mi czesc swojego programu?
P.S. Mam temat do wykonania w labview: estymacja i detekcja losowych sygnalow cyfrowych w obecnosci szumu