ВходНаше всё Теги codebook 无线电组件 Поиск Опросы Закон Четверг
28 ноября
150618
Argon (12.03.2009 14:36, просмотров: 36830)
Кто-нибудь слышал о гармоническом анализе при переменном интервале дискретизации? Оказалось вдруг, что надо вычислять спектр сигнала 1Гц - 10кГц. Если тупо дискретизовать в течение 1 секунды (1 период минимальной частоты) с интервалом 20 мкс (5 отсчетов на период максимальной частоты), то требуется памяти на 50000 отсчетов. Подумалось, если дробить частотный диапазон на 1Гц-100Гц и 100Гц-10000Гц и измерять последовательно, то требуется памяти всего на 1000 отсчетов (по 500 на поддиапазон)! И далее - при дроблении на 3 поддиапазона необходимо всего 324 отсчета, по 108 на поддиапазон. Если развить идею дальше, то предельный случай - когда количество поддиапазонов равно количеству отсчетов и интервал дискретизации изменяется от самого длительного до самого короткого и наоборот. В этом случае памяти требуется минимальное количество. Можно даже формулу вывести. Чем не микроконтроллерное решение? Но что делать далее с набранным массивом данных? С поддиапазонами проще - к каждому можно применить классическое FFT... Чувствую, что эту идею должны были придумать до меня и проработать теорию. Где бы копнуть?