Справочник от Автор24
Поделись лекцией за скидку на Автор24

Статистическая теория радиотехнических систем

  • ⌛ 2018 год
  • 👀 948 просмотров
  • 📌 907 загрузок
  • 🏢️ Нижегородский государственный технический университет
Выбери формат для чтения
Статья: Статистическая теория радиотехнических систем
Найди решение своей задачи среди 1 000 000 ответов
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «Статистическая теория радиотехнических систем» pdf
СТАТИСТИЧЕСКАЯ ТЕОРИЯ РАДИОТЕХНИЧЕСКИХ СИСТЕМ f(x) 1 2  2 1 e 22 m-σ m m+σ Нижний Новгород 2018 x МИНИСТЕРСТВО НАУКИ И ВЫСШЕГО ОБРАЗОВАНИЯ РОССИЙСКОЙ ФЕДЕРАЦИИ ФЕДЕРАЛЬНОЕ ГОСУДАРСТВЕННОЕ БЮДЖЕТНОЕ ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ ВЫСШЕГО ОБРАЗОВАНИЯ «НИЖЕГОРОДСКИЙ ГОСУДАРСТВЕННЫЙ ТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ им. Р.Е. АЛЕКСЕЕВА» СТАТИСТИЧЕСКАЯ ТЕОРИЯ РАДИОТЕХНИЧЕСКИХ СИСТЕМ Рекомендовано Ученым советом Нижегородского государственного технического университета им. Р.Е. Алексеева в качестве учебного пособия для студентов высших учебных заведений, обучающихся по специальности 11.05.01 «Радиоэлектронные системы и комплексы» и направлениям подготовки 11.03.01 и 11.04.01 «Радиотехника» Нижний Новгород 2018 УДК 621.391:621.396 ББК 32.84в6 С 781 Авторы: В.А. Сьянов, А.Г. Рындык, Д.М. Балашова, В.Н. Буров Рецензент доктор физико-математических наук, профессор кафедры бионики и статистической радиофизики Нижегородского государственного университета им. Н.И. Лобачевского А.Г. Флаксман С 781 Статистическая теория радиотехнических систем: учеб. пособие / В.А. Сьянов [и др.]; Нижегород. гос. тех. ун-т им. Р.Е. Алексеева. – Нижний Новгород, 2018. – 166 с. ISBN 978-5-502-01127-3 Рассмотрены основы теории вероятности, математической статистики и теории случайных процессов. Представлены методы нелинейного безынерционного преобразования стационарных случайных процессов. Приведены методы синтеза и анализа оптимальных алгоритмов обработки сигналов на фоне помех в системах связи и радиолокации. Рассмотрены статистические методы разрешения и оценки параметров сигналов в условиях действия аддитивных гауссовских помех. Предназначается для студентов высших учебных заведений, обучающихся по специальности 11.05.01 «Радиоэлектронные системы и комплексы» и направлениям подготовки 11.03.01 и 11.04.01 «Радиотехника». Пособие может быть использовано для самостоятельной и аудиторной работы студентов. Рис. 49. Табл. 8. Библиогр.: 12 назв. УДК 621.391:621.396 ББК 32.84в6 ISBN 978-5-502-01127-3  Нижегородский государственный технический университет им. Р.Е. Алексеева, 2018 ОГЛАВЛЕНИЕ ВВЕДЕНИЕ……………………………………………………………. 6 1. СТАТИСТИЧЕСКОЕ ОПИСАНИЕ СЛУЧАЙНЫХ СОБЫТИЙ И ЯВЛЕНИЙ…............................................................ 7 1.1. Основные понятия теории вероятности………………............. 1.2. Сумма и произведение событий. Основные теоремы………... 1.3. Примеры заданий………………………………………….......... 7 8 11 2. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ…………………………………..... 16 2.1. Понятие случайной величины. Закон распределения……....... 2.2. Функция распределения. Плотность вероятности……………. 2.3. Совместное распределение нескольких случайных величин... 2.4. Независимость случайных величин…………………………… 2.5. Числовые характеристики случайных величин………………. 2.5.1. Сумма и произведение случайных величин……………. 2.5.2. Математическое ожидание, мода и медиана………..….. 2.5.3. Дисперсия и среднеквадратическое отклонение…..….... 2.5.4. Моменты случайных величин………...…………………. 2.5.5. Числовые характеристики системы двух случайных величин. Корреляционный момент………….................. 2.6. Примеры распределений случайных величин…………...…… 2.6.1. Нормальное (гауссово) распределение…………..…....... 2.6.2. Равномерное распределение……………….…………..... 2.6.3. Распределение Релея……………………………………... 2.6.4. Показательное распределение…………………………… 2.6.5. Биномиальное распределение………………………….... 2.6.6. Распределение Пуассона……………………………….... 2.6.7. Геометрическое распределение………………………..... 2.6.8. Гипергеометрическое распределение…………………… 2.7. Примеры заданий……………………………………………...... 16 17 19 23 24 24 25 26 27 3. СЛУЧАЙНЫЕ ПРОЦЕССЫ……………………………………... 47 3.1. Понятие случайного процесса………………………………..... 3.2. Функция распределения и плотность вероятности…………... 3.3. Моментные и корреляционные функции…………………....... 3.4. Стационарные случайные процессы…………………………... 3.5. Эргодические случайные процессы………………………........ 3.6. Свойства корреляционных функций. Корреляционная матрица…………………………………….... 3.7. Спектральные характеристики случайного процесса……....... 47 48 49 51 53 28 30 31 34 35 37 38 39 39 40 41 54 56 3 3.8. Гауссовский случайный процесс…………………………….... 3.9. Белый шум…………………………………………………......... 3.10. Воздействие случайных процессов на линейные системы..... 3.11. Примеры заданий……………………………………………… 58 60 62 65 4. ФУНКЦИОНАЛЬНОЕ ПРЕОБРАЗОВАНИЕ СЛУЧАЙНЫХ ВЕЛИЧИН И ПРОЦЕССОВ………………...... 70 4.1. Преобразование одномерной случайной величины………...... 4.2. Преобразование многомерной случайной величины……........ 4.3. Преобразование декартовых координат в полярные……......... 4.4. Примеры заданий……………………………………….............. 70 71 73 75 5. СТАТИСТИЧЕСКОЕ ОЦЕНИВАНИЕ ПАРАМЕТРОВ РАСПРЕДЕЛЕНИЯ……………………………………………...... 80 5.1. Выборочное среднее…………………………………………..... 5.2. Выборочная дисперсия……………………………………......... 81 83 6. ОСНОВЫ СТАТИСТИЧЕСКОЙ ТЕОРИИ ОБНАРУЖЕНИЯ СИГНАЛОВ………………………………….. 86 6.1. Задачи статистической теории обработки сигналов……...….. 6.2. Задача обнаружения сигналов………………………………..... 6.3. Алгоритм оптимального обнаружения детерминированного сигнала. Структура оптимального обнаружителя…………… 6.4. Характеристики обнаружения детерминированного сигнала.......................................................................................... 6.5. Алгоритм оптимального обнаружения сигнала со случайной начальной фазой. Структура оптимального обнаружителя…. 6.6. Характеристики обнаружения сигнала со случайной начальной фазой………………………………………………... 6.7. Алгоритм оптимального обнаружения сигнала со случайными амплитудой и начальной фазой. Структура оптимального обнаружителя ……………………………….... 6.8. Характеристики обнаружения сигнала со случайными амплитудой и начальной фазой……………………………….. 6.9. Согласованный фильтр……………………………………….... 6.10. Частотная характеристика согласованного фильтра……….. 6.11. Свойства согласованного фильтра…………………………... 6.12. Обнаружение пачки импульсных сигналов. Когерентный обнаружитель пачки импульсов…………………………….. 6.13. Некогерентный обнаружитель пачки импульсов…………... 6.14. Накопитель пачки импульсов с логикой «k из N»………….. 6.15. Обнаружитель сигналов на фоне небелого шума…………... 4 86 89 94 97 100 102 103 105 107 110 111 113 115 116 118 6.16. Различение двоичных детерминированных сигналов……..... 122 6.17. Характеристики оптимального различения сигналов……..... 125 6.18. Примеры заданий…………………………………………….... 130 7. РАЗРЕШЕНИЕ СИГНАЛОВ…………………………………...... 137 7.1. Понятие о разрешающей способности сигналов……………... 137 7.2. Функция рассогласования сигнала…………………………….. 137 7.3. Функции рассогласования импульсных сигналов……………. 138 8. ИЗМЕРЕНИЕ ПАРАМЕТРОВ СИГНАЛА…………………...... 144 8.1. Основы теории измерения параметров сигналов…………...... 8.2. Оптимальный алгоритм измерения параметров сигналов…... 8.3. Измерение параметров радиолокационных сигналов…..…… 8.3.1. Измерение дальности…………………………………...... 8.3.2. Измерение скорости……………………………………… 8.4. Следящие измерители параметров цели………………………. 8.5. Точность измерения радиолокационных параметров…...…… 8.5.1. Точность измерения временного запаздывания…..…..... 8.5.2. Точность измерения частоты…………………..………... 8.5.3. Точность измерения угловой координаты………...……. 8.5.4. Точность совместного измерения параметров…...…….. 8.6. Примеры заданий………………………………………………. 144 145 147 148 149 150 152 153 154 154 156 158 БИБЛИОГРАФИЧЕСКИЙ СПИСОК…………………………….. 163 ПРИЛОЖЕНИЕ……………………………………………………… 164 5 ВВЕДЕНИЕ Учебное пособие предназначено для бакалавров, специалистов, магистров и аспирантов, обучающихся по направлениям «Радиотехника», «Радиоэлектронные системы и комплексы». Оно может быть использовано для изучения теоретических основ методов синтеза и анализа оптимальных алгоритмов обработки сигналов на фоне помех в рамках дисциплин «Теория вероятностей и математическая статистика», «Статистическая теория радиотехнических систем». «Статистическая радиотехника», «Функциональное моделирование систем и комплексов». Необходимо отметить, что по данной тематике издано большое количество учебников, учебных пособий и монографий [1-13]. Все они имеют значительный объем, сложный математический аппарат, что затрудняет их широкое использование в практической работе для студентов. Авторы постарались в доступной форме изложить тот минимальный объем информации, который позволяет усвоить теоретические основы статистических методов в системах радиолокации и связи для дальнейшего их изучения. В первой, второй и третьей главах рассмотрены основные теоремы теории вероятностей, законы распределения и числовые характеристики случайных величин, теории случайных процессов и их безынерционного преобразования. Для усвоения приведенного материала даны задачи и примеры их решения. В четвертой главе приведено описание видов функциональных преобразований одномерных и многомерных случайных величин. Основы математической статистики изложены в пятой главе. В шестой главе пособия рассмотрены оптимальные алгоритмы обнаружения и разрешения сигналов на фоне помех. Рассмотрены методы синтеза и анализа согласованных фильтров простых и сложных сигналов. Приведены задачи и рассмотрены методы их решения. В седьмой и восьмой главах излагаются статистические методы разрешения и оценки параметров сигналов в условиях воздействия аддитивных гауссовских помех. Приведены функции рассогласования простых и сложных сигналов. Рассмотрены методы оптимальной оценки параметров сигналов на фоне гауссовского шума. В конце приведены задачи с решениями по соответствующей тематике. Авторы надеются, что данное учебное пособие поможет облегчить изучение теоретических основ статистической теории радиотехнических систем студентам и аспирантам радиотехнических специальностей. 6 1. СТАТИСТИЧЕСКОЕ ОПИСАНИЕ СЛУЧАЙНЫХ СОБЫТИЙ И ЯВЛЕНИЙ 1.1. Основные понятия теории вероятности Событие – это всякий факт, который в результате опыта (испытания), т.е. при осуществлении определенной совокупности условий S, может произойти или нет. События бывают: достоверные, невозможные и случайные. Достоверное событие обязательно произойдет в результате испытания, невозможное никогда не произойдет, а случайное может произойти или нет. Теория вероятностей – раздел математики, посвященный изучению закономерностей массовых случайных событий и явлений. Знание закономерностей, которым подчиняются массовые случайные события, позволяет предвидеть, как эти события будут происходить. Пусть в результате N испытаний возможно возникновение нескольких событий A1, A2, … Am. Тогда справедливы следующие утверждения: 1. События называют равновозможными, если есть основания считать, что ни одно из них не является более возможным, чем другое. 2. События называют несовместными, если появление одного из них исключает появление других событий в одном и том же испытании. 3. Несколько событий образуют полную группу, если в результате испытания появится хотя бы одно из них. В частности, если события, образующие полную группу, попарно несовместны, то в результате испытания появится одно и только одно из этих событий. 4. Противоположными называют два единственно возможных несовместных события, образующих полную группу. Противоположное событие обозначается A . Основным и наиболее важным понятием является вероятность. Вероятность – это число, характеризующее степень возможности появления события А в определенных условиях. Приведем статистическое и классическое определения вероятности. Пусть испытание повторяется N раз, в результате чего случайное событие А происходит n раз. В этом случае можно ввести относительную частоту события А как отношение числа n испытаний, в которых событие А наступило, к общему числу N произведенных испытаний: n . N При увеличении числа N частота события стремится к вероятности события А  ( A)  7 lim ( A)  P( A). N  Если в результате достаточно большого числа испытаний оказалось, что относительная частота события близка к заданному числу ν*, то это число можно принять за статистическую вероятность события. Каждый из возможных результатов испытания называется элементарный исход. Считается, что эксперимент удовлетворяет классическому определению вероятности, если пространство элементарных исходов состоит из конечного числа равновозможных исходов. Тогда вероятность события А – это отношение числа благоприятствующих этому событию исходов к общему числу всех равновозможных несовместных элементарных исходов, образующих полную группу. Вероятность определяется формулой: P(A) = m/n, где m – это число элементарных исходов, благоприятствующих событию А, а n – общее число возможных элементарных исходов испытания. Здесь предполагается, что все элементарные исходы несовместны, равновозможны и образуют полную группу. Из определения вероятности следуют её свойства: Свойство 1. Вероятность достоверного события P(A) = 1. Свойство 2. Вероятность невозможного события P(A) = 0. Свойство 3. Вероятность случайного события – положительное число, заключенное между нулем и единицей, т.е. вероятность любого события удовлетворяет неравенству 0 ≤ P(A) ≤ 1. Свойство 4. Вероятность противоположного события P  A   1  P  A. 1.2. Сумма и произведение событий. Основные теоремы Суммой двух событий называется событие С = А+В, состоящее в появлении события А или события В, или обоих этих событий. Если события А и В несовместные, то С = А+В – событие, состоящее в появлении либо А, либо В. Произведением двух событий называется событие С = АВ, состоящее в совместном появлении событий А и В. Как следует, произведением нескольких событий называют событие, состоящее в совместном появлении всех этих событий. События могут находиться между собой в таких взаимоотношениях, что вероятность одного из них зависит от того, произошли другие события 8 или нет. Обозначим через P(B/A) условную вероятность события В, вычисленную в предположении, что событие А уже произошло. Она определяется формулой P B / A   P  AB  P  A  , (1.1) где Р(АВ) – вероятность произведения двух событий. Тогда событие B называется статистически независимым от A, если P(B/A) = Р(В). Наоборот, событие B называется статистически зависимым от A, если P(B/A) ≠ Р(В). Кроме того, если событие В не зависит от события А, то и событие А не зависит от события В. Это значит, что свойство статистической независимости событий взаимно. С введенными операциями суммы и произведения событий связаны две основные теоремы теории вероятностей: теорема сложения и теорема умножения вероятностей. Теорема сложения вероятностей. Вероятность суммы двух событий равна сумме вероятностей этих событий за вычетом их совместного появления: P( A  B)  P( A)  P( B)  P( AB). (1.2) Для несовместных событий P( A  B)  P( A)  P( B) . Укажем два основных следствия из теоремы сложения вероятностей: 1. Сумма вероятностей несовместных событий A1, A2, … Am, составляющих полную группу, равна единице: P(A1 + A2 +… + Am) = P(A1) + P(A2) + … P(Am) = 1. 2. Сумма вероятностей противоположных событий равна единице: Р(А)+Р( A )=1. Теорема умножения вероятностей. Вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную в предположении, что первое событие произошло: P ( AB )  P ( A) P ( B A)  P ( B ) P ( B A). (1.3) Укажем два основных следствия из теоремы умножения вероятностей: 1. Вероятность совместного появления нескольких событий равна произведению вероятности одного из них на условные вероятности всех остальных, причем вероятность каждого последующего события вычисляется в предположении, что все остальные уже произошли: P ( A1 A2 .. An )  P ( A1 ) P ( A2 A1 ) P ( A3 A1 A2 )    P ( An A1 A2    An 1 ). Например, для трех событий: Р(АВС)=Р(А) Р(В/A) Р(С/AB). 9 2. Вероятность произведения n независимых в совокупности событий равна произведению вероятностей этих событий: P( A1, A2 ,..., An )  P( A1) P( A2 )... P( An ). К числу основных формул элементарной теории вероятностей относится формула полной вероятности, формула Байеса и формула Бернулли. Формула полной вероятности. Пусть некоторое событие A может появиться только в сочетании с одним из попарно несовместных событий H1, H2, … Hn, которые составляют полную группу. Эти события называют гипотезами. Предположим, что известны вероятности этих событий P(Hi) и условные вероятности P(A/Hi), i=1, 2, …n, события A. Тогда безусловную вероятность P(A) события A можно найти по формуле полной вероятности: n P( A)   P( H i ) P( A H i ). (1.4) i 1 Формула Байеса. Условную вероятность того, что имела место гипотеза Hk, если в результате испытания событие A произошло, можно найти по формуле Байеса: P( H k ) P( A H k ) P ( H k A)  n . (1.5)  P( H i )P( A H i ) i 1 Формула Байеса позволяет оценить вероятности гипотез после того, как становится известным исход испытания, в результате которого появилось событие А. Формулы Байеса играют фундаментальную роль во многих проблемах статистической радиотехники (в частности, при оптимальном приеме сигналов на фоне помех). При этом вероятности гипотез P(Hi) обычно называют априорными вероятностями, а условные вероятности P(Hi /A) – апостериорными вероятностями гипотез. Формула Бернулли. Пусть производится несколько независимых испытаний, причем в каждом из них событие A может появиться или нет, т.е. возможны только два исхода. Вероятность появления этого события («успех») в каждом испытании постоянна и равна p, следовательно, вероятность «ненаступления» события A («неудача») равна q = 1- p. Тогда, вероятность того, что при n независимых испытаниях событие A появится ровно k раз, можно найти по формуле Бернулли: Pn k   Cnk p k q n  k , (1.6) n! – число сочетаний, т.е. число комбинаций, которое k!( n  k )! можно составить из n различных элементов по k элементов, которые отличаются хотя бы одним элементом. При этом не требуется, чтобы событие A где Cnk  10 повторилось k раз в определенной последовательности. Как следствие, вероятность того, что из серии независимых опытов событие A появится от k1 до k2 раз включительно, равна: Pn k1  k  k2   k2  Cnm p m q n  m . (1.7) m  k1 Используя формулу Бернулли, можно найти наиболее вероятное число успешных испытаний и номер первого успешного испытания. Теорема. Наивероятнейшим числом появления события A в n независимых испытаниях называется такое значение k0, при котором вероятность Pn(k) наибольшая. Это число определяется по формуле: np–q ≤ k0 < np+p. Если np–q – дробное число, то неравенство определяет одно значение наивероятнейшего числа успехов. Если np–q – целое число, то неравенство определяет два значения наивероятнейшего числа успехов. Теорема. Вероятность того, что первое успешное испытание (появление события А) произойдет в испытании с номером k, равна: P(k) = qk-1p. 1.3. Примеры заданий Задача 1.1 Однотипная продукция с браком разложена в три одинаковых ящика. В первом ящике количество бракованных деталей – 4 из 100 шт., во втором – 6 из 120 шт., в третьем – 8 из 80 шт. Из одного из ящиков наудачу берется одна деталь. Чему равна вероятность P ( A ) того, что деталь окажется бракованной? Решение Пусть P( H1 ) - вероятность того, что деталь взята из первого ящика, P( H 2 ) - из второго, P( H 3 ) - из третьего. По условию задачи эти события равновероятны: 1 P( H1 )  P( H 2 )  P( H 3 )  . 3 Условные вероятности события P A Hi  равны соответственно 4 6 1 P  A H1   ; P A H 2   ; P A H 3   . 100 120 10 Тогда полная вероятность искомого события равна: 3 1 1 1 1  19 P( A)   P( H i ) P A H i         0,063 . 3  25 20 10  300 i 1 11 Задача 1.2 На производстве работают три автоматических линии, выпускающие качественные изделия с вероятностями p1 = 0,9, p2 = 0,95, p3 = 0,8 соответственно. Первая линия дает 50% продукции, вторая – 30%, третья –20%. Определить вероятность того, что наугад выбранное качественное изделие сделано на первой, второй или третьей линии? Решение Пусть событие A состоит в том, что выбранное изделие качественное. P( H i ) Пусть – вероятность того, что изделие сделано на i -й линии. По условию задачи P(H1) = 0,5, P(H2) = 0,3, P(H3) = 0,2. Условные вероятности того, что качественное изделие взято с i-й линии, равны соответственно P(A/H1) = 0,98, P(A/H2) = 0,95, P(A/H3) = 0,8. Тогда апостериорную вероятность того, что качественное изделие сделано на i-й линии, можно найти по формуле Байеса (1.5): P( H k ) P( A H k ) P( H k A)  . P( A) Полная вероятность события A равна: 3 P( A)   P( H i )P A H i   0,5  0,98  0,3  0,95  0,2  0,8  0,935. i 1 Тогда апостериорные вероятности того, что взятое качественное изделие окажется с первой, второй или третьей линии, соответственно равны 0,98 PH1 A  0,5   0,524 ; 0,935 0,95 PH 2 A  0,3   0,305 ; 0,935 0,8 PH 3 A  0,2   0,171. 0,935 Задача 1.3 Бинарный источник дискретных сообщений передаёт 1 и 0 с априорными вероятностями P1 и P0=1─P1. Вследствие действия помех в канале возникают ошибки. Условная вероятность ошибочного приёма нуля при передачи единицы равна P(0´/1), а условная вероятность ошибочного приема единицы при передачи нуля равна P(1´/0). Найти условную вероятность передачи единицы P(1/1´) и нуля P(0/1´), если на приёмном конце получена единица 1´. Найти условную вероятность передачи единицы P(1/0´) и нуля P(0/0´), если на приёмном конце получен ноль 0´. Исходные данные: P(1)=0,6; P(0´/1)=0,2; P(1´/0)=0,1. 12 Решение Найдём полную вероятность того, что на приёмном конце получена единица P (1) или ноль P ( 0 ) : P (1)  P (1) P (1 / 1)  P ( 0 ) P (1 / 0 ) , P ( 0 )  P (1) P ( 0  / 1)  P ( 0 ) P ( 0  / 0 ) . По формуле Байеса для условной вероятности при приеме «единицы» и «нуля» получим P (1) P (1 / 1) , P (1 / 1)  P (1) P(0) P (0 / 0) . P (0 / 0)  P(0) События (1 / 0 ) и ( 0 / 0 ) составляют полную группу событий, поэтому для них выполняется условие P (1 / 0 )  P ( 0 / 0 )  1 , следовательно, P(0´/0) = 1 – P(1´/0) = 0,9. Аналогично справедливо равенство P ( 0 / 1)  P (1 / 1)  1 , откуда P(1´/1) = 0,8. Подставляя данные условия задачи в выражения для P (1) , P (0 ) , P (1 / 1) и P ( 0 / 0) , получим: P (1)  0,52 ; P ( 0 )  0, 48 ; P (1 / 1)  0,923 ; P ( 0 / 0 )  0,75 . События (1 / 1) и ( 0 / 1) , ( 0 / 0) и (1 / 0) также составляют полную группу событий, поэтому сумма вероятностей этих событий соответственно равны: P(1 / 1)  P(0 1)  1 , P(0 / 0)  P(1 0)  1 . Подставляя численные значения, окончательно получим P ( 0 / 1)  0,077 , P (1 / 0 )  0,25 . Задача 1.4 По каналу связи, подверженному воздействию помех, передается одна из двух команд управления в виде кодовых комбинаций «11111» или «00000» с априорными вероятностями появления 0,7 и 0,3 соответственно. Наличие помех приводит к уменьшению вероятности правильного приема «0» и «1» до величины p  0,6 при независимых ошибках передаваемых символов в кодовой комбинации. На выходе приемного устройства зарегистрирована команда «10110». Найти вероятности передачи входных команд для принятия «оптимального» решения устройством управления. 13 Решение Обозначим А событие, состоящее в приеме комбинации «10110». Можно сделать два предположения: 1) гипотезе H 1 соответствует передаче комбинации «11111» с вероятностью P( H1 )  0,7 ; 2) гипотезе H 2 соответствует передача комбинации «00000» с вероятностью P( H 2 )  0,3 . Найдем условные вероятности приема кодовой комбинации «10110»: P( A H1)  p(1  p) pp(1  p)  0,6  0,4  0,6  0,6  0,4  0,035, P ( A H 2 )  (1  p ) p (1  p )(1  p ) p  0,4  0,6  0,4  0,4  0,6  0,023 . Найдем полную вероятность события А: P ( A)  P ( H 1 ) P ( A / H 1 )  P ( H 2 ) P ( A / H 2 )  0,0314 . По формуле Байеса получим: P( H1 ) P( A / H1 )  0,78 . P ( A) Аналогично для условной вероятности передачи нулевой комбинации имеем: P( H 2 ) P( A / H 2 ) P ( H 2 / A)   0,22 . P ( A) Таким образом, «оптимальный» приемник с вероятностью 0,78 примет решение о том, что была передана кодовая комбинация «11111». P ( H1 / A)  Задача 1.5 В бинарном канале связи передается последовательность из нулей и единиц. Вероятность ошибки при передаче одного бита равна 10-2. Определить вероятность того, что при приеме байта информации произойдет ошибка только в двух битах. Решение Вероятность однократной ошибки P01 = P10 = 10-2. Тогда вероятность двукратной ошибки можно рассчитать по формуле Бернулли (1.6): 8!  4 ( 2) 2 Pош  P8 (k  2)  C82 P01 (1  P01 )6  10 (0,99)6  0,00263. 6!2! Задача 1.6 Производится шесть независимых выстрелов по цели. Вероятность попадания в цель при каждом выстреле p  0,75 . Вычислить: а) вероятность пяти попаданий; б) вероятность не менее пяти попаданий; в) вероятность более трех промахов. 14 Решение Вероятность промаха равна q  1  p  0,25 . Условие задачи соответствует схеме независимых испытаний Бернулли, поэтому вероятности можно найти по формуле Бернулли: 1. Вероятность пяти попаданий из шести выстрелов равна: P65  C65  p5  q  0,356 . 2. Вероятность того, что будет не менее пяти попаданий из шести выстрелов, складывается из вероятностей пяти и шести попаданий и равна: P6n ( n  5)  C65 p 5 q  C66 p 6  0,534 . 3. При шести выстрелах событие «более трех промахов» эквивалентно тому, что будет меньше трех попаданий, т.е. либо ни одного попадания, либо одно попадание, либо два попадания. Тогда вероятность более трех промахов равна: P6n ( n  3)  q 6  C61  p  q 5  C62  p 2  q 4  0,0376 . 15 2. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 2.1. Понятие случайной величины. Закон распределения Случайному событию А можно поставить в соответствие количественную характеристику – случайную величину. Случайная величина – это переменная величина ξ, которая в результате опыта (испытания) может принимать то или иное заранее неизвестное значение. Для полного описания случайной величины необходимо указать возможные значения, принимаемые случайной величиной, и вероятности этих значений. Соотношение, устанавливающее в той или иной форме зависимость между возможными значениями случайной величины и их вероятностями, называется законом распределения. Различают два основных типа случайных величин: дискретные и непрерывные. Дискретной называется случайная величина, принимающая конечное или счетное множество возможных значений. Закон распределения дискретной случайной величины ξ, принимающей значения x1, x2, …., xk, задается указанием вероятностей этих значений: pi = P { ξ = xi}, где i = 1, 2, …, k. Утверждают, что случайная величина имеет дискретное распределение, если выполняется два условия: 1) pi = P{ ξ = xi} > 0 для любых i = 1, 2, …, k. k 2)  pi  1. i 1 Закон распределения дискретной случайной величины можно задать таблично (табл. 2.1), аналитически (с помощью функции распределения) и графически. Таблица 2.1 Закон распределения одномерной случайной величины ξ P x1 p1 x2 p2 x3 p3 … … xk pk Закон распределения дискретной случайной величины можно изобразить графически в прямоугольной системе координат. Полученную фигуру называют многоугольником распределения (рис. 2.1). Для непрерывной случайной величины не удается ввести подобное распределение вероятностей. Непрерывная случайная величина принимает бесчисленное множество значений, причем вероятность попадания ее в любую бесконечно малую область бесконечно мала. 16 p (x) 1 x1 x2 x3 x4 x5 x Рис. 2.1. Многоугольник распределения 2.2. Функция распределения. Плотность вероятности Функцией распределения случайной величины ξ называется функция Fξ (x), равная вероятности того, что случайная величина ξ примет значение, меньшее, чем x: Fξ (x) = P {ξ < x}, –∞ < x < +∞. (2.2) Это определение является универсальным как для дискретных, так и для непрерывных случайных величин. С учетом этого случайную величину называют непрерывной, если её функция распределения непрерывная, кусочно-дифференцируемая с непрерывной производной. Далее перечислены основные свойства функции распределения. Свойство 1. Значения функции распределения удовлетворяют неравенству 0 ≤ F(x) ≤ 1. Свойство вытекает из определения функции распределения (2.2). Свойство 2. F(x) – неубывающая функция, т.е. F(x2) ≥ F(x1), если x2 ≥ x1. Следствие 1. Вероятность того, что случайная величина примет значения, заключенные в интервале (a; b), равна приращению функции распределения на этом интервале: (2.3) P( a ≤ ξ < b) = F(b) – F(a). Следствие 2: Вероятность того, что непрерывная случайная величина ξ примет одно определенное значение, равна нулю. Свойство 3: Если возможные значения случайной величины принадлежат интервалу (a; b), то: 1) F(x) = 0 при x ≤ a; 2) F(x) = 1 при x ≥ b. Следствие 1: Если возможные значения непрерывной случайной величины расположены на всей оси x, то справедливы следующие предельные соотношения: 17 lim F ( x)  0 , lim F ( x)  1. x  x  Для дискретной случайной величины функция распределения имеет ступенчатый вид (рис. 2.2) и может быть представлена следующим образом: F ( x)   P{  x p }. (2.4) xp x Fξ(x) 1 p(ξ=x3) x1 x2 x3 x4 x Рис. 2.2. Функция распределения дискретной случайной величины Для непрерывной случайной величины функция распределения непрерывна (рис. 2.3). F(x) 1 x Рис. 2.3. Функция распределения непрерывной случайной величины Непрерывную случайную величину можно задать, используя не функцию распределения, а плотность распределения вероятностей, или кратко, плотность вероятности. Плотность вероятности fξ(x) непрерывной случайной величины ξ определяется как предел отношения вероятности попадания значений случайной величины в малый интервал [x, x+Δx] к длине этого интервала Δx при Δx→0: fξ(x) = lim P( x    x  x) / x . (2.5) x0 Эта запись эквивалентна вычислению первой производной от функции распределения. 18 Случайная величина ξ имеет абсолютное непрерывное распределение, если существует неотрицательная функция fξ(x) ≥ 0 такая, что для любых действительных x x F ( x)   f ( z )dz , (2.6)  где fξ(x) – плотность вероятности случайной величины ξ. Далее перечислены свойства плотности распределения. Свойство 1. Плотность вероятности – это неотрицательная функция, т.е. fξ(x) ≥ 0 для любых x. Свойство 2. Интеграл от плотности вероятности в бесконечных пределах равен 1:   f  ( z )dz  1.  Свойство 3. Если случайная величина ξ имеет абсолютное непрерывное распределение с плотностью вероятности fξ(x), то функция Fξ(x) тоже непрерывна и дифференцируема: fξ(x) = dF ( x ) . dx Свойство 4. Если случайная величина ξ имеет абсолютное непрерывное распределение с плотностью вероятности fξ(x), то b P(a ≤ ξ < b) =  f  ( x ) dx . a Так можно найти вероятность того, что непрерывная случайная величина принимает значения из интервала (a, b). 2.3. Совместное распределение нескольких случайных величин Ранее рассматривались случайные величины, возможные значения которых определялись одним числом. Такие величины называют одномерными. При статистическом анализе сложных случайных явлений возникают задачи со многими случайными величинами. В таком случае рассматривается многомерная случайная величина  = {1, 2, …n} или система совместно распределенных случайных величин 1, 2, …n. Законом распределения многомерной случайной величины называют соотношение, устанавливающее в той или иной форме зависимость между возможными значениями многомерной случайной величины и их вероятностями. 19 Закон распределения дискретной многомерной СВ может быть задан в виде таблицы или аналитически (пример совместного распределения двух случайных величин 1, 2, табл. 2.2), с помощью функции распределения. В табл. 2.2 pij  p xi , y j  P 1  xi ,  2  y j – вероятность совмест-     M N ного распределения двух случайных величин 1 и 2,   pij  1 . i 1 j 1 Таблица 2.2 Закон распределения двумерной случайной величины 2 1 y1 y2 y3 … yN x1 p(x1, y1) p(x1, y2) p(x1, y3) … p(x1, yN) x2 p(x2, y1) … x3 p(x3, y1) … … … xM p(xM, y1) … … … … … p(xM, yN) Функцией распределения многомерной случайной величины ξ называется функция F1 ... n  x1,...xn  , определяющая для каждой группы чисел x1, … xn вероятность ξ1 < x1, … ξn < xn: совместного появления следующих F1 ... n ( x1... xn )  P(1  x1, ... n  xn ) , –∞ < x < +∞. событий: (2.7) С учетом этого многомерную случайную величину называют непрерывной, если её функция распределения непрерывная и дифференцируемая по каждому аргументу. Перечислим основные свойства функции распределения многомерной случайной величины: Свойство 1. Значения функции распределения удовлетворяют неравенству 0 ≤ F1 ... n  x1... xn  ≤ 1. Свойство вытекает из определения функции распределения (2.7). Свойство 2. F(x) – неубывающая функция по каждому аргументу, т.е. F(b, x2, … xn) ≥ F(a, x2, … xn), если b ≥ a. Следствие 1. Вероятность того, что случайная величина примет значения, заключенные в интервале (a; b), равна приращению функции распределения на этом интервале. В частности, для двумерной 20 случайной величины: P (a < ξ1 < b, ξ2 < y) = F (b, y) – F (a, y), P (a1 < ξ1 < a2, b1 < ξ2 < b2) = F (a2, b2) – F (a1, b2) – [F (a2, b1) – F (a1, b1)]. Свойство 3. Значения функции распределения удовлетворяют следующим предельным соотношениям:  F1...n  x1...xn   0 , если любой из аргументов xi –> -∞,  F1... n  x1...xn   1 , если все аргументы (x1 … xn) –> +∞, В частном случае двумерной случайной величины F (–, y) = F(x, –) = F(–,–) = 0, F(,) = 1. Свойство 4. Зная закон распределения системы случайных величин, можно определить законы распределения отдельных случайных величин, входящих в систему: F1 ... n  x1 , x2 ...xn 1 ,    F1 ... n 1  x1 , x2 ...xn 1  , F1 ... n  x1 , ...   F1  x1 . В частном случае двумерной случайной величины F(x, ) = F(x), F(, y) = F(y). Многомерная случайная величина ξ имеет абсолютное непрерывное распределение, если существует неотрицательная функция f 1... n  x1...xn  ≥ 0 такая, что для любых действительных x1, x2, … xn x1 x2 F1... n ( x1...xn )  xn   ...  f1... n u1...un du1 ...dun .   (2.8)  Функция f 1... n  x1... xn  называется плотностью распределения вероятностей (плотностью вероятности) многомерной случайной величины ξ. Перечислим основные свойства плотности вероятности многомерной случайной величины: Свойство 1. Плотность вероятности – это неотрицательная функция, т.е. f 1... n  x1...xn  ≥ 0 для любых x. Свойство 2. Интеграл от плотности вероятности по всему n-мерному пространству равен единице:      f 1 ... n u1... un  du1 ... dun  1.   Свойство 3. Если многомерная случайная величина  имеет абсолютное непрерывное распределение с плотностью вероятности f 1...n  x1 ... x n  , то функция F1... n  x1... xn  также непрерывна и дифференцируема: 21 f1...n  x1... xn   dF1... n ( x1... xn ) . dx1... dxn Свойство 4. Плотность распределения составляющих многомерную случайную величину:  f 1  x1       f 1...n u1...un  du2 ... dun .   В частном случае двумерной случайной величины с плотностью вероятности f 1 ,2 ( x, y ) :    f 1, 2 ( x, y)dy  f 1 ( x),   f 1, 2 ( x, y)dx  f 2 ( y).  Таким образом, чтобы получить плотность вероятности одной из СВ, входящих в многомерную СВ, нужно плотность распределения многомерной СВ проинтегрировать в бесконечных пределах по аргументам, соответствующим всем остальным случайным величинам. Свойство 5. Если многомерная случайная величина  имеет абсолютное непрерывное распределение с плотностью вероятности f 1... n  x1...xn  , то можно найти вероятность попадания этой СВ в заданную область В nмерного пространства: P 1   n   B      f 1...n u1... u n  du1 ... du n . B В частном случае двумерной случайной величины с плотностью вероятности f 1 ,2 ( x, y ) можно найти вероятность попадания точки в прямоугольник (рис. 2.4): b1 b2 P (a1 ≤ ξ1 < b1, a2 ≤ ξ2 < b2) =   f 1 ,2 ( x, y ) dxdy . a1 a2 Условным законом распределения СВ 1, входящей в двумерную СВ (1, 2), называется ее закон распределения, вычисленный при условии, что другая случайная величина 2 приняла определенное значение y. Условная функция распределения обозначается F(x/y), условная плотность вероятности обозначается f (x/y). Зная закон распределения одной СВ (1), и условный закон распределения второй СВ (2), можно найти закон распределения двумерной СВ (1, 2): (2.9) f 1 ,  2 ( x, y )  f 1 ( x)  f  2 ( y x) или f 1 ,  2 ( x, y )  f  2 ( y )  f 1 ( x y ) . 22 y b2 (x,y) b1 a1 a2 x Рис. 2.4. Иллюстрация попадания двумерной случайной величины в заданную область пространства Формулу (2.9) называют теоремой умножения законов распределения случайных величин, которая аналогична теореме умножения вероятностей событий (1.3). Если многомерная случайная величина  имеет абсолютное непрерывное распределение с плотностью вероятности f 1...n  x1 ... x n  , то условным законом распределения многомерной случайной величины 1, 2, …n-1 называется закон распределения, вычисленный при условии, что случайная величина n приняла определенное значение xn: f  ... ( x1... xn ) f 1... n 1  x1... xn 1 / xn   1 n . f  n ( xn ) 2.4. Независимость случайных величин Две случайные величины 1 и 2 называются независимыми, если закон распределения одной СВ не зависит от того, какие возможные значения приняла другая СВ. Таким образом, если события {1 < x} и {2 < y} независимы при любых значениях x и y, то вероятность их произведения, согласно теореме умножения вероятностей, P {1 < x, 2 < y} = P {1 < x} ·P {2 < y}. Тогда, учитывая определение (2.2), F1 ,  2  x, y   F1 ( x) F 2 ( y ) , т.е. функция совместного распределения двух независимых случайных величин 1 и 2 равна произведению функций распределения этих величин. Случайные величины 1, 2, …n называются независимыми в совокупности или просто независимыми, если при любых действительных x1 … xn (2.10) F1 ... n  x1... xn   F1 ( x1 )  F 2 ( x2 )  ... F n ( xn ). 23 Необходимое и достаточное условие независимости дискретных случайных величин: случайные величины 1 и 2 независимы тогда и только тогда, когда при любых i и j pij = pi · pj, (2.11) где pij – вероятность совместного распределения двух случайных величин 1 и 2 (табл. 2.2), pi  P 1  xi   N M j 1 i 1  pij , p j  P  2  y j    pij . Необходимое и достаточное условие независимости для непрерывных случайных величин: Случайные величины 1 и 2 независимы тогда и только тогда, когда во всех точках непрерывности функций f 1 ,  2 ( x, y ) , f 1 ( x) , f  2 ( y ) имеем f 1 , 2 ( x, y )  f 1 ( x)  f  2 ( y ) , (2.12) где f 1 ,  2 ( x, y ) – плотность вероятности совместного распределения (или системы) случайных величин 1 и 2. Условия (2.11), (2.12) независимости случайных величин дискретного и непрерывного типа обобщаются на случай n случайных величин 1, 2, …n (n > 2). 2.5. Числовые характеристики случайных величин В ряде задач для описания случайной величины, кроме функции распределения и плотности вероятности, используют такие числовые характеристики случайной величины, как математическое ожидание (МО), дисперсия и среднеквадратическое отклонение (СКО). Также используют моменты различных порядков. 2.5.1. Сумма и произведение случайных величин Произведением случайной величины ξ на постоянную величину C называется случайная величина Cξ, возможные значения которой равны произведениям C на возможные значения величины ξ. Вероятности возможных значений Cξ равны вероятностям соответствующих возможных значений ξ. Произведением двух независимых случайных величин  и  называется случайная величина  · , возможные значения которой равны произведениям каждого возможного значения СВ  и каждого возможного значения СВ . Вероятности возможных значений произведения для независимых  и  равны соответствующим произведениям вероятностей возможных значений сомножителей. Суммой двух случайных величин  и  называется случайная величина  + , возможные значения которой равны суммам каждого возможного 24 значения СВ  и каждого возможного значения СВ . Вероятности возможных значений  +  для независимых  и  равны соответствующим произведениям вероятностей возможных значений слагаемых, для зависимых  и  – произведениям вероятности одного слагаемого на условную вероятность второго. 2.5.2. Математическое ожидание, мода и медиана Математическим ожиданием M(ξ) случайной величины ξ, принимающей возможные значения x1, x2, … xk, вероятности которых равны соответственно p1, p2, …. pk, называется число k M(ξ) = x1p1 + x2p2 + … + xkpk =  xi pi . (2.13) i 1 Математическим ожиданием M(ξ) непрерывной случайной величины ξ, распределение которой характеризуется плотностью вероятности fξ(x), называется число  M     xf  ( x)dx . (2.14)  k Учитывая, что  pi  1 , выражение (2.13) можно переписать в виде i 1 p1 x1  p2 x2  ...  pk xk . (2.15) p1  p2  ...  pk Из (2.15) следует, что математическое ожидание СВ ξ – это средневзвешенное значение случайной величины и характеризует положение «центра» закона распределения. Свойства математического ожидания: 1) если С – постоянная, то M (С) = C; 2) если С – постоянная, то M (Cξ) = CM (ξ); 3) для любых случайных величин 1, 2 M (ξ1 ± ξ2) = M (ξ1) ± M (ξ2). Свойство справедливо и для n независимых случайных величин; 4) математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий: M (ξ1·ξ2) = M (ξ1) · M (ξ2). Свойство справедливо и для n независимых случайных величин. Модой случайной величины  называется её наиболее вероятное значение. Модой дискретной случайной величины  называется её возможное значение xi, которому соответствует максимальная вероятность M    25 (xмод на рис. 2.5, а). Для непрерывной случайной величины модой является то значение, при котором плотность вероятности принимает максимальное значение, т.е. f (x = xмод) = max (рис. 2.5, б). f (x) p (x) x1 x2 xмод x4 x5 x а) xмод x б) Рис. 2.5. Мода случайной величины Мода может быть одна или несколько. В зависимости от этого соответствующие распределения СВ называются одномодовые и многомодовые. Имеются также распределения, которые вообще не имеют моды (антимодальные распределения). Медианой случайной величины  называют такое её значение xмед, для которого справедливо выражение P{  ≤ xмед} = P{  > xмед}, т.е. с вероятностью 0,5 данная СВ  по результатам наблюдения окажется либо меньшей, либо большей xмед. Этой характеристикой пользуются в основном для непрерывных случайных величин. В случае симметричного модального распределения медиана совпадает с математическим ожиданием и модой СВ. 2.5.3. Дисперсия и среднеквадратическое отклонение Кроме таких характеристик, как средние, типичные, наиболее вероятные значения случайной величины, используются еще характеристики рассеивания случайной величины. Дисперсия произвольной СВ характеризует рассеивание СВ относительно МО и определяется по формуле: (2.16) D () = M [( – M ())2], т.е. дисперсия равна математическому ожиданию квадрата отклонения случайной величины от математического ожидания. Для дискретных СВ выражение (2.16) эквивалентно сумме k D () =  xi  M () 2 pi . i 1 26 Для непрерывной СВ выражение (2.16) эквивалентно интегралу  D () =  xi  M () 2 f  ( x)dx .  Понятие дисперсии случайной величины  используется для характеристики мощности или интенсивности флуктуаций (отклонений) СВ  относительно её математического ожидания. Дисперсия имеет размерность квадрата случайной величины. Свойства дисперсии: 1) D () =M [( – M ()) 2] = M ( 2) – M 2(); 2) D () ≥ 0; 3) если С – постоянная, то D (С) = 0; 4) если С – постоянная, то D (C)=C 2D (); 5) если С – постоянная, то D ( + C) = D (); 6) для двух независимых случайных величин  и η D ( ± η) = D () + D (η). Свойство справедливо и для n независимых случайных величин. Для наглядной характеристики рассеивания СВ удобнее пользоваться среднеквадратическим отклонением, размерность которого совпадает с размерностью случайной величины. Среднеквадратическое отклонение служит характеристикой абсолютных значений флуктуаций СВ: σ   D   . 2.5.4. Моменты случайных величин Понятие момента широко используется в механике для описания распределения масс в пространстве. Теми же приемами пользуются в теории вероятностей для описания основных свойств распределения случайной величины. Чаще всего используются на практике моменты двух видов – начальные и центральные. Начальным моментом k-го порядка называют величину vk = М(ξ k), которая для непрерывной и дискретной случайных величин соответственно равна  vk =  x k f  ( x )dx ,  k k vk =  pi xi . i 1 27 Нетрудно убедиться, что начальный момент первого порядка равен математическому ожиданию СВ ξ:  v1 =  xf ( x)dx = M (ξ) = mξ . (2.17)  Центральным моментом k-го порядка называют величину vk = М ((ξ – mξ) k) , которая для непрерывной и дискретной случайных величин соответственно равна  µk =  ( x  m ) k f  ( x ) dx ,  k k µk =  pi ( xi  m ) . i 1 Очевидно, что для любой СВ центральный момент первого порядка M (ξ – mξ) = 0. Центральный момент второго порядка определяет дисперсию СВ ξ:  µ2 =  ( x  m ) 2 f  ( x ) dx = D(ξ). (2.18)  Нормированный центральный момент третьего порядка A = µ3/σ3 служит характеристикой асимметрии распределения СВ относительно МО, (симметричность графика плотности вероятностей fξ(x)) и называется коэффициент асимметрии. Нормированный центральный момент четвертого порядка E = (µ4/σ4 – 3) характеризует плотность вероятности СВ ξ с точки зрения «островершинности» или «плосковершинности» и называется эксцессом случайной величины. 2.5.5. Числовые характеристики системы двух случайных величин. Корреляционный момент В предыдущем параграфе были введены характеристики одномерной случайной величины – начальный и центральный моменты различных порядков. Аналогичные числовые характеристики – смешанные моменты различных порядков – можно ввести для системы двух случайных величин. Начальным смешанным моментом порядка (p + s) двумерной СВ (1, 2) называют величину    p, s  M 1p 2s , (2.19) которая для непрерывной и дискретной случайных величин соответственно равна 28    p, s   x p s y f 1 ,  2  x, y dxdy ,    p,s   xip y sj pij. i j Из начальных моментов используются в основном моменты первого порядка: 1,0  M 1102  M  1   m1 ,   0,1  M  1012   M  2   m . 2 Центральным смешанным моментом порядка (p + s) двумерной СВ (1, 2) называют величину  p,s  M (1  m1 ) p (2  m2 ) s , (2.20)   которая для непрерывной и дискретной случайных величин соответственно равна    p , s    ( x  m1 ) p ( y  m 2 ) s f 1 ,2  x, y  dxdy ,    p,s  p   xi  m i j 1  y j  m2  s pij. Из центральных смешанных моментов используются в основном моменты второго порядка:  2,0  M  (1  m1 ) 2 (2  m2 )0   M  (1  m1 ) 2   D (1 ),     2 2  0,2  M  (1  m1 ) ( 2  m2 )   M  (2  m2 )   D (2 ).     Особую роль как характеристика системы играет центральный смешанный момент второго порядка 1,1  M [(1  m1 )1 ( 2  m2 )1 ]  r1,2 , (2.21) который имеет особое название – момент взаимной корреляции двух случайных величин 1 и 2 или корреляционный момент. Корреляционный момент характеризует линейную статистическую зависимость двух случайных величин. Эта зависимость может быть ярко или менее выраженной, т.е. корреляционный момент характеризует степень линейной статистической зависимости двух случайных величин. На практике вместо r1 , 2 пользуются безразмерной величиной – коэффициентом корреляции: 29 1 ,  2  r1 ,  2 1  2 , (2.22) где  1  1 ,  2  1 . В случае 1,2  0 , корреляция двух случайных величин 1 и 2 считается положительной, а в случае 1,2  0 – отрицательной. Если r1 , 2  0 и 1,2  0 , то случайные величины называются некоррелированными. Если 1 и 2 – независимые случайные величины, то r1,2  0 и 1,2  0 . Таким образом, независимые случайные величины всегда некоррелированные. Обратное утверждение неверно. Для системы случайных величин 1, 2, …n корреляционные моменты и коэффициенты корреляции записывают в виде корреляционной матрицы rij и нормированной корреляционной матрицы ij , где r1 , 1 rij  r 2 ,1 ... r1 ,  2  r1 ,  n r 2 ,  2 ...  , (2.23) r n , n 1 1 ,  2  1 ,  n ij  ... 1  2 ,  n . ... ... 1 (2.24) Корреляционная матрица – это матрица, состоящая из корреляционных моментов. На главной диагонали корреляционной матрицы – дисперсии случайных величин D(1), D(2), …D(n). Из определения корреляционного момента (2.21) следует, что rij = rji, следовательно, элементы корреляционной матрицы, расположенные симметрично по отношению к главной диагонали, равны. 2.6. Примеры распределений случайных величин Далее рассмотрены наиболее распространенные (популярные) виды распределений. Среди них абсолютные непрерывные распределения (нормальное, равномерное, показательное, Релея) и дискретные распределения (биномиальное, пуассоновское, геометрическое и гипергеометрическое). 30 2.6.1. Нормальное (гауссово) распределение Нормальный (гауссовский) закон распределения занимает особое место в теории вероятностей и статистической радиотехнике. Это наиболее часто встречающийся на практике закон распределения. В общем виде нормальный закон распределения СВ  задается выражением для плотности вероятности (рис. 2.6):  1  1 f  x   exp  2 x  m  2  , (2.25)   2  2   где mξ и σξ – математическое ожидание и СКО случайной величины. Функция распределения случайной величины, распределенной по нормальному закону (рис.2.7), равна:  1  x 1 2 F  x    exp  2 x  m   dx   m,  ( x). (2.26)  2  2         f  x  1 2  2 1 e 22 m-σ m m+σ x Рис. 2.6. Плотность вероятности нормального закона распределения F  x  1 0.5 m x Рис. 2.7. Функция распределения нормального закона 31 Основные характеристики нормального распределения: 1. Кривая распределения нормальной СВ асимптотически стремится к нулевому уровню: lim f   x   0. x   2. Математическое ожидание M() = mξ, дисперсия D() =  2 и СКО σξ случайной величины ξ. 3. Математическое ожидание mξ характеризует положение кривой плотности вероятности (кривой распределения) на оси абсцисс (рис. 2.6). При изменении математического ожидания кривая распределения смещается вдоль оси абсцисс без изменения своей формы. 4. Мода и медиана равны математическому ожиданию СВ в силу симметричности кривой распределения относительно прямой x = m. 5. Среднеквадратическое отклонение σξ характеризует форму кривой распределения:  максимальное значение кривой распределения равно fmax = 1 22 и достигается в точке x = m;  кривая распределения имеет точки перегиба: при x1 = m–σ и x2 = m+σ вторая производная (fξ(x))΄΄= 0, а при переходе через эти точки (fξ(x))΄΄ меняет знак. Значения плотности вероятности в этих точках меньше максимального в «е» раз: f  m    f  (m  )  1 e 22 ;  при увеличении σξ максимум кривой распределения уменьшается, а сама кривая распределения становится более пологой, при уменьшении σξ максимум кривой распределения увеличивается, а сама кривая распределения становится более островершинной. 6. Центральные моменты вычисляются по рекуррентной формуле:  q  q  1 2  q  2 , где q = 1, 2, 3, …. (0 1). Следовательно, все нечетные моменты равны нулю, а четные центральные моменты пропорциональны дисперсии СВ: 1 = 3 = 5 … = 0, 2= σ2, 4= 3σ4, 6= 15σ6, … и т.д. 7. Учитывая предыдущее свойство, коэффициенты асимметрии и эксцесса равны нулю: A = E = 0. Свойство одновременного равенства нулю коэффициентов асимметрии и эксцесса является отличительным признаком нормального закона 32 распределения. Поэтому значения коэффициента асимметрии и эксцесса часто используются, чтобы характеризовать степень отличия анализируемого распределения от нормального. 8. Только для гауссовских СВ некоррелированность тождественна независимости. Стандартное нормальное распределение – это нормальное распределение с параметрами m = 0 и σ = 1. Другими словами, это закон распределения нормированной СВ  = (–m)/σ, значения функции распределения которой табулированы (см. приложение):  x2  1 f x  exp   . (2.27) 2 2   Интеграл (2.26) не выражается через элементарные функции, но его можно вычислить через специальную функцию, для которой составлены таблицы значений. Эта функция – функция распределения нормированной СВ  и называется интеграл вероятностей[1, 2]: x  t2  1 F  x    exp   dt   0,1 x    ( x), (2.28) 2 2     где t – значения нормированной СВ . Таким образом, для вычисления интеграла (2.26) используется связь стандартного нормального и нормального распределений и таблицы значений интеграла вероятностей [2]:  xm  xm  m ,  ( x )   0,1     . (2.29)       Определим вероятность попадания нормально распределенной СВ  в заданный интервал. По свойству плотности вероятности: b-m  a - m . P(a ≤ ξ < b) =  m ,  b    m ,  a    0,1     0,1   (2.30)       Свойства стандартного нормального распределения: 1)  0,1 (  x )  1   0,1 ( x ) ; 2) P(|| < x) = 1–20,1(–x) = 20,1(x) – 1. Из последнего свойства вытекает правило трех сигма: если СВ  имеет нормальное (гауссово) распределение, вероятность того, что абсолютное отклонение ее значений от математического ожидания превысит значение 3σ, очень мала (приближенно равна 0,0027). Вероятность противоположного события P(|–m| ≤ 3σ) = 0.9973. Это правило характеризует рассеяние случайной величины вокруг её МО и позволяет, зная СКО и МО случайной величины, ориентировочно указать интервал ее практически возможных значений. 33 2.6.2. Равномерное распределение Распределение вероятностей называют равномерным, если на интервале, которому принадлежат все возможные значения СВ, плотность вероятности сохраняет постоянное значение. В типовых задачах статистической радиотехники случайная начальная фаза сигнала имеет равномерное распределение на интервале от 0 до 2π. Равномерное распределение СВ ξ, определенной на интервале [a, b], задается плотностью вероятности (рис. 2.8): 0, x  a,   f  x   1 / b  a  , a  x  b, (2.31)  0, x  b.  При этом функция распределения СВ ξ (рис. 2.9) равна  0, x  a, x  a F ( x)   , a  x  b, (2.32) b  a   1, x  b. f  x  F  x  1 1 ba 0.5 a b Рис. 2.8. Плотность вероятности x a b x Рис. 2.9. Функция распределения Основные характеристики равномерного распределения: 1. Математическое ожидание СВ ξ: ab M() = . 2 2. Медиана xmed = (a + b)/2 (из-за симметричности плотности вероятности). 3. Мода отсутствует (антимодовое распределение). 4. Дисперсия СВ ξ:  b  a 2 D()= . 12 5. Среднеквадратическое отклонение СВ ξ:   b  a  / 2 3. 34 6. Коэффициент эксцесса E = (4/σ4) – 3 = –1.2 < 0 (в силу «плосковершинности» кривой распределения). 7. Коэффициент асимметрии A = 3/σ3 = 0 (в силу симметричности кривой распределения). Вероятность попадания СВ в интервал (α, β) равна  dx  P         . ba ab 2.6.3. Распределение Релея Распределение Релея занимает важное место в статистической радиотехнике и теории радиолокации. В статистической радиотехнике полагают, что огибающая узкополосного гауссовского случайного процесса имеет распределение Релея. В радиолокации случайная амплитуда отраженного от цели сигнала также распределена по закону Релея. В частности, для нахождения вероятности попадания точки в заданную область пространства используют распределение Релея. Рассмотрим задачу нахождения распределения случайной величины (2.33)   12  22 , где ξ1 и ξ2 – статистически независимые гауссовские СВ с параметрами M 1   M 2   0, D1   D2   2x . Выборочные значения случайных величин η, ξ1, ξ2 обозначим соответственно y, x1, x2. Поскольку величины ξ1 и ξ2 – независимые, их двумерная плотность вероятности определяется как произведение одномерных [2]:  x12  x22  1 . f  x1 , x2   f  x1  f  x2   exp   2 2  2 x 2 x   Переходя от прямоугольной системы координат к полярной (x1 = ρcosφ, x2 = ρsinφ), получим двумерную плотность вероятности в виде [4]:  2   f (, )  f  x1 , x2  J 2 (, )  exp  2  . 2 2 x  2 x  где якобиан преобразования переменных x1 x1  ( x1, x2 )   cos    sin  J 2 (, )     . x2 x2 sin   cos     35 После интегрирования по φ, учитывая выражение (2.33) и соотношение ρ = x12  x22 , получим плотность вероятности случайной величины η:  y2  y f  ( y )  2 exp  2  , x  2 x  y  0. (2.34) Это распределение называется распределением Релея. График релеевского распределения изображен на рис. 2.10. Функция распределения для закона Релея  y2  F ( y )  1  exp   2  , y  0.  2 x  f  x  1 x e x x  2 x Рис. 2.10. Распределение Релея. Плотность вероятности Основные характеристики релеевского распределения выражаются через СКО случайных величин ξ1 и ξ2: 1. Математическое ожидание СВ η: M (η) =  x 2. Мода xmod = σx, f η(xmod) = 1 x e  . 2 . 3. Медиана xmed =  x ln 4 . 4. Дисперсия СВ η:  D(η) =  2   2x . 2  5. Среднеквадратическое отклонение СВ η: ση ≈ 0.65σx. 36 2.6.4. Показательное распределение Показательным (или экспоненциальным) называют распределение вероятностей непрерывной СВ ξ, которое описывается плотностью вероятности (рис. 2.11, а)  exp x, x  0, f  ( x)   (2.35) 0, x  0,  где λ – постоянная величина. Показательное распределение – это аналог распределения Пуассона для дискретных СВ. Его используют в основном для описания таких непрерывных СВ, как время безотказной работы радиоаппаратуры. Параметр λ – это интенсивность отказов, которая определяет все числовые характеристики экспоненциального распределения. Основные характеристики показательного распределения: 1. Математическое ожидание СВ ξ: M () = 1/ λ. 2. Дисперсия СВ ξ: D () = 1/ λ2. 3. Коэффициент асимметрии А = 2. 4. Коэффициент эксцесса Е = 6. 5. Функция распределения показательного закона (рис. 2.11, б) x F  x   P  x    x exp  xdx  1  exp  x, x  0. 6. Вероятность того, что  принадлежит интервалу (a, b) P(a <  < b) = F(b) – F(a) = exp[–λa] – exp[–λb]. f  x  F  x  λ 1 а) x б) x Рис. 2.11. Показательный закон распределения 37 2.6.5. Биномиальное распределение Биномиальным называют дискретное распределение вероятностей, определяемое формулой Бернулли (1.6). Рассматривается n независимых испытаний, в каждом из которых событие А может появиться или нет. Вероятность наступления события во всех испытаниях постоянна и равна p. Число появлений события А в этих испытаниях – дискретная случайная величина ξ. Вероятность того, что в последовательности n испытаний СВ ξ примет значение k, равна Pn (  k )  Cnk p k (1  p) n  k . (2.36) Представим биномиальный закон в табличном виде (табл. 2.3). Таблица 2.3 Биномиальный закон распределения ξ P n pn n-1 npn-1q k Cnk pk qn-k …. …. …. …. qn n Из условий нормировки получим  Cnk p k (1  p ) n  k  1. k 0 Основные числовые характеристики биномиального распределения: 1. Математическое ожидание СВ : M() = np. 2. Дисперсия СВ : D() = npq. 3. Коэффициент асимметрии: q p A . npq 4. Коэффициент эксцесса: 1  6 pq E . npq При описании потока редких событий в последовательности независимых испытаний имеет место асимптотическое выражение биномиального распределения. Для определения вероятности появления события А ровно k раз в n испытаниях, если число испытаний n велико, а вероятность p мала, причем величина np=const, используют формулу Пуассона [1]. 38 2.6.6. Распределение Пуассона Распределением Пуассона называют дискретное распределение вероятностей, определяемое формулой k   (2.37) Pn (k )  e . k! Это распределение представляет интерес для описания модели потока редких событий (число отказов радиоаппаратуры, поток заряженных частиц, последовательность молниевых разрядов, поток заявок на обслуживание). Далее приведен закон распределения в табличной форме (табл. 2.4). Таблица 2.4 Закон распределения Пуассона ξ P  e 1 e  2 k …. n 2  e 2 k  e k! …. n  n e n! Основные числовые характеристики распределения Пуассона: 1. Математическое ожидание СВ : M () = λ. 2. Дисперсия СВ : D () = λ. 3. Коэффициент асимметрии: 1 A .  4. Коэффициент эксцесса: 1 E .  2.6.7. Геометрическое распределение Пусть производятся независимые испытания, в каждом из которых вероятность наступления события A постоянна и равна p (вероятность отсутствия события q = 1-p). Испытания заканчиваются, как только появится событие A. Обозначим через ξ дискретную случайную величину – число испытаний, которое надо провести до первого появления события A. Тогда, согласно теореме умножения вероятностей (1.3), вероятность того, что в первых k-1 испытаниях событие A не наступило, а в k-м – наступило P(ξ = k) = qk-1p. (2.38) 39 Полагая k = 0, 1, 2, …, n получим геометрическую прогрессию с первым членом p и знаменателем q. Поэтому этот закон распределения называется геометрическим. Далее приведен закон распределения в табличной форме (табл. 2.5) Таблица 2.5 Геометрическое распределение ξ 1 2 3 k …. n P p pq q2p qk-1p …. qn-1p Основные числовые характеристики биномиального распределения: 1. Математическое ожидание СВ : 1 M() = . p 2. Дисперсия СВ : D() = q . p2 3. Коэффициент асимметрии: A 2 p . 1 p 4. Коэффициент эксцесса: p2 E  6 . 1 p 2.6.8. Гипергеометрическое распределение Пусть в партии из N деталей имеется M стандартных. Из партии случайно (без возврата и без учета порядка) выбирают n деталей. Обозначим через ξ случайную величину – число m стандартных изделий среди n отобранных (рис. 2.11). N M n N-M Рис. 2.11. Гипергеометрическая модель отбора 40 m n-m Возможные значения СВ ξ: m = 0, 1, 2, … min (M, n). Тогда вероятность того, что среди n отобранных деталей окажется ровно m стандартных, находится по формуле m nm СM CN  M P  m   . C NM (2.39) Основные характеристики биномиального распределения: 1. Математическое ожидание СВ : nM M() = . N 2. Дисперсия СВ : N  N  n 1   N  n  M M D() =   . N 1 2.7. Примеры заданий Задача 2.1 Известно, что случайная величина  представлена статистически независимыми выборочными значениями  x1 , x2 ,..., xn  . Математическое ожидание СВ M(ξ) = m и дисперсия D(ξ) = σ2. Найти математическое ожидание и дисперсию случайной величины 0 , совпадающей со средним арифметическим выборочных значений СВ ξ: X 0  1 n  xi . n i 1 Решение Найдем математическое ожидание СВ ξ: 1 n  1 n M (0 )  M   xi    M ( xi )  m . n  i 1  n i 1 Найдем дисперсию СВ ξ:   1 n 2   1 n  2 2 2  D( 0 )  M {( 0  m) }  M   xi   m  M  2  xi x j   m  .   n i 1   n  n i , j 1    2 Из последнего выражения следует, что вычисление среднего арифметического значения СВ ξ позволяет уменьшить СКО измерений в n раз. 41 Задача 2.2 Пусть случайная величина  , принимающая случайное значение x , подчиняется нормальному (гауссовскому) закону распределения. Тогда плотность вероятности f ( x)   ( x  m) 2  1 . exp  2  2 2   Показать, что первый и второй центральные моменты равны M(ξ) = m и дисперсия D(ξ) = σ2. Решение Найдем математическое ожидание СВ ξ:  ( x  m) 2  1  dx  M     x  exp  2  2   2     ( x  m) 2   ( x  m) 2  1  m    dx.  dx   ( x  m)  exp    exp  2 2   2   2   2 2     Первый интеграл равен нулю, поскольку функция под знаком интеграла нечетная, а интеграл имеет симметричные пределы. Второй интеграл из условия нормировки:  ( x  m)2  1   exp  22 dx  1 . 2     Таким образом, M    m . Найдем дисперсию СВ ξ: D     ( x  m) 2  1  2 dx  ( x  m)  exp  2  . 2   2    Сделав замену переменной t = (x–m)/σ, получим  t2  2  2 D     t exp  2 dt . 2      t2  Проведем интегрирование по частям u  t , dv  t exp  dt :  2    t2  2   2     t 2  2   D   t exp  2 dt   d exp  2    , 2   2        42 где первый интеграл равен нулю, а второй сводится к интегралу Пуассона   t2   exp  2 dt  2 .    Задача 2.3 Плотность вероятности случайной величины  , принимающей случайное значение x , подчиняется гауссовскому закону распределения:  ( x  m) 2  1 . f ( x)  exp  2  2 2   Требуется найти: 1. Вероятность того, что случайная величина примет значение из интервала [α, β], т.е.   ,   , где    . 2. Вероятность того, что случайная величина примет значение из следующих интервалов:   ( m  ), ( m  ) ,   ( m  2), ( m  2),   ( m  3), ( m  3). Решение Найдем искомую вероятность:  ( x  m)2  1  P       exp  22 dx  F ()  F  , 2    z  ( x  m) 2  1  dx – функция распределения гауссовгде F ( z )   exp  2  2   2   ского закона. xm Сделаем замену переменной t  . Тогда  m   t2  1   m   m P       exp  2 dt         , 2   m         t2  1 x где  ( x)   exp  2  dt – интеграл вероятности, для которого спра2     ведливо равенство  (  x )  1   ( x ) . Для вероятностей попадания в интервал ( m   ), ( m  2  ), ( m  3 ) можно найти с использованием таблицы интеграла вероятности [7]: 1. Pm      m    0,6826 ; 2. Pm  2    m  2  0,9545 ; 43 3. Pm  3    m  3  0,9973 . Задача 2.4 Ошибка измерения дальности ξ до неподвижной цели распределена по гауссовскому закону с математическим ожиданием m (систематическая ошибка) и среднеквадратическим отклонением  (случайная ошибка). Определить вероятность:  того, что измеренное значение дальности отклонится от истинного значения не более, чем на d;  при трех независимых измерениях ошибка хотя бы одного измерения не превзойдет по абсолютной величине d. Решение Исходные данные для решения задачи: m = 5 м,  = 10 м, d =15 м. Определим вероятность того, что измеренное значение дальности отклонится от истинного значения (начало координат) не более чем на d . Она сводится к вычислению вероятности попадания случайной величины  (ошибка измерения) в интервал значений –d до +d. Поскольку  подчиняется гауссовскому закону распределения, вероятность попадания случайного значения дальности  в интервал значений (α, β), где α < β, согласно задаче 2.3, равна   m    m , Р (  x  )               t2  1 x где  ( x)   exp 2 dt – интеграл вероятности. 2     Для данных условий задачи получаем  15  5    15  5  P  15  x  15          0,827 .  10   10  Вероятность того, что при трёх независимых измерениях ошибка ξ хотя бы одного измерения не превзойдет по абсолютной величине d , можно определить по формуле: P2  1  (1  P1 ) 3 . Учитывая, что P1 = 0,82, P2  1  (1  P1)3  1  (1  0,827)3  0,995. Задача 2.5 Пусть плотность вероятности случайной величины  , принимающей случайные значения x ≥ 0 и распределенной по релеевскому закону, равна 44  x2  f ( x )  2 exp  2  .   2  Требуется проверить условие нормировки для плотности вероятности и найти математическое ожидание, дисперсию, моду и медиану случайной величины. x Решение   x2   x2  1  1) 2  x  exp  2 dx   exp  2   0  1  1 – условие норми 0  2   2  0 ровки выполняется;  x 2   x2  x x x 2) m      exp  2  dx   exp  2   0    2   2       x2     exp  2 dx   ; 2 2      2  x2   x2  x2 x x 2 2  exp  2  dx  m   2 exp  2   3)     2  2   2  0     0   x2     2  x  exp  2  dx  m2   2  2   ; 2   2   4) согласно определению медианы случайной величины, найдем интеграл от ее плотности вероятности:   xm2  1  x2   x2  1   x  exp  2 dx   exp  2   exp  2   2 ,  2 xm  2   2  x  2  m откуда получим xm   ln 4   1,177 ; 5) для нахождения моды найдем максимум плотности вероятности. Для этого найдем производную от плотности вероятности и приравняем её к нулю:  x 2  1 x 2  df ( x)  exp  2  2  4   0 , dx  2     45 откуда получаем xmax   . Задача 2.6 Плотность вероятности f(x) случайной величины  имеет вид f ( x)   exp (  x ), для – ∞ < x < + ∞, где α и β – постоянные величины. Найти соотношение, которому должны удовлетворять постоянные α и β, вычислить и построить функцию распределения и плотность вероятности F(x) и f(x) для случая β = 2. Решение Из условия нормировки плотности вероятности получаем:   0   1 1  2   exp( x )dx    exp(  x)dx   exp(  x)dx      .          Для выполнения условия нормировки необходимо   2  . В частном случае β = 2 плотность вероятности f ( x)  exp(2 x ) , а функция распределения x для x  0, 0,5 exp(2 x) F ( x)   exp(2 z )dz   1  0,5 exp(2 x) для x  0.  46 3. СЛУЧАЙНЫЕ ПРОЦЕССЫ 3.1. Понятие случайного процесса На практике часто можно встретить случайные величины, которые в процессе одного наблюдения изменяются случайным образом в зависимости от одного или нескольких параметров. Например, собственные шумы радиоприемного устройства, амплитуда и фаза принимаемого радиосигнала, атмосферные, индустриальные и другие помехи, колебания давления, температуры, влажности в какой-либо точке атмосферы, – это случайные процессы (или случайные функции). Случайная функция может зависеть не от одного, а от нескольких аргументов. Например, скорость ветра зависит от времени и от пространственных координат. В радиотехнике наиболее часто приходится оперировать со случайными процессами, зависящими от одного аргумента – от времени. При этом под случайным процессом обычно понимается электрическая величина (ток, напряжение, напряженность поля), изменяющаяся случайно во времени. Случайный процесс (СП) – это процесс изменения случайной величины во времени, обозначается X(t), Y(t), (t). Конкретный вид случайного процесса в определенном опыте называется реализацией случайного процесса. Например, проводится N независимых испытаний, в результате которых мы получаем N реализаций одного и того же СП (x(i)(t), i = 1…N). Множество всех мыслимых реализаций СП (x(i)(t), i = 1…N, N–> ) называют ансамблем реализаций. Ансамбль реализаций несет в себе всю необходимую информацию о СП. Каждая реализация СП является детерминированной функцией времени, но для полностью идентичных систем в тех же условиях опыта в один и тот же момент времени значения (t) будут отличаться, т.е. разные реализации в момент времени tk будут принимать разные значения. В этом состоит существенное отличие случайной функции от детерминированной, значения которой однозначно определяются значениями аргументов. Зафиксируем некоторый момент времени t = tk. Для этого момента времени имеем N различных значений случайного процесса (рис. 3.1). Множество мыслимых значений СП в момент времени tk образуют k-е «сечение» СП (tk). Множество всех значений СП в момент времени tk можно рассматривать как случайную величину k. Таким образом, можно ввести второе определение случайного процесса. Случайные процессы – это такие процессы, значения которых в любой момент времени являются случайными величинами. 47 x(1)(t1) x(1) x(1)(t2) t x(2) x(2)(t1) x(2)(t2) t x(N) t x(N)(t1) x(N)(t2) Рис. 3.1. Ансамбль реализаций случайного процесса 3.2. Функция распределения и плотность вероятности Поскольку значение СП в каждый фиксированный момент времени – это случайная величина, то для описания СП применяются те же вероятностные характеристики: плотности вероятности, функции распределения, характеристические, моментные и корреляционные функции. Случайный процесс в общем случае описывается с помощью nмерной функции распределения Fn (x1, x2, …, xn; t1, t2, … tn) = P{ (t1) < x1;  (t2) < x2; …;  (tn) < xn} или соответствующей ей n-мерной плотности вероятности fn (x1, x2, …, xn; t1, t2, … tn) = dn Fn (x1, x2, …, xn; t1, t2, … tn)/dx1dx2 …dxn, и тем детальнее, чем больше n – число сечений СП. Плотность вероятности и функция распределения СП связаны однозначными зависимостями: x1 xn   Fn (x1, x2, …, xn; t1, t2, … tn) =  ...  f n  x1 , x2 ,..., xn ; t1 , t2 ,...tn  dx1dx2 ...dxn , f n  x1, x2 ,..., xn ; t1, t2 ,...tn   48 dFn ( x1, x2 ,..., xn ; t1, t2 ,...tn ) . dx1... dxn Свойства функции распределения и плотности вероятности случайного процесса аналогичны свойствам функции распределения и плотности вероятности случайной величины. В частности, из n-мерной плотности вероятности всегда можно получить любую плотность вероятности меньшего порядка m путем интегрирования первой по «лишним» аргументам:     f n  x1... xm ; t1... tm    ...  f n  x1... xm ; t1...tn  dxm 1... dxn , m  n , а из n-мерной функции распределения можно получить функцию распределения меньшего порядка, например, (n–1)-го порядка: Fn-1 (x1, x2, …, xn-1; t1, t2, … tn-1) = Fn (x1, x2, …, xn-1, ∞; t1, t2, … tn). 3.3. Моментные и корреляционные функции В качестве характеристик случайных процессов можно использовать начальные и центральные моментные функции. Под начальными моментными функциями СП (t) понимают функции  k1 t  , k1k2 t1, t2  , ….,  k1k2 ...kn t1, t2 ,...tn  , являющиеся математическими ожиданиями соответствующих произведений: vk1 (t )  M    k1 (t )  k  x 1 f x ; t  dx,      vk1k 2 (t1 , t 2 )  M  k1 (t 1 )   k 2 (t 2 )    x1k1 x2k 2 f  x1 , x2 ; t1 , t2  dx1dx2 , vk1k 2 ...k n (t1 , t 2 ,...t n )  M         k1 (t   k2 )   (t 2 )...   k n 1  (t n )     ...  x1k1 x2k 2  ...  xn k n  f  x1 , x2 ,... x n ; t1 , t 2 ,...t n  dx1dx 2 ...dx n , где ki – неотрицательное целое число (1 ≤ I ≤ n); vk1k2 ...kn (t1 , t 2 ,...t n ) – n-мерный момент (k1 + k2 + … + kn)-го порядка. Под центральной моментной функцией СП (t) понимают величину:  k1k2 ...kn (t1, t2 ,...tn )  M (t1 )  1 (t1 ) k1  (t 2 )  1 (t2 ) k2 ...  (t n )  1(tn ) kn .        В дальнейшем особую роль будут играть следующие моментные функции: 1) начальный одномерный момент первого порядка – математическое ожидание случайного процесса:  1 (t )  M (t )  (t )   xf  x; t  dx  m (t ) . (3.1)  Таким образом, математическое ожидание СП – это результат усреднения по ансамблю реализаций ( (t ) ), т.е. среднее значение СП в любой 49 момент времени. В каждый момент времени tk наблюдается случайная величина ξ(tk), МО которой равно m(tk), поэтому МО случайного процесса – это функция времени; 2) начальный двумерный момент второго порядка – ковариационная функция случайного процесса:     v11 (t1 , t2 )  M (t 1 )  (t2 )    x1 x2 f  x1 , x2 ; t1 , t 2  dx1dx2  K  t1 , t 2  ; (3.2)   3) центральный одномерный момент второго порядка – дисперсия случайного процесса:   2 (t )  M (t )  m (t )  2  (t )  m (t )  2     x  m (t )  2 f ( x; t )dx   (3.3)  2  D (t )  t . Это функция, характеризующая степень разброса мгновенных значений СП относительно среднего в любой момент времени t; 4) центральный двумерный момент второго порядка – корреляционная функция случайного процесса: 11 (t1 , t2 )  M (t 1 )  m (t1 )  (t 2 )  m (t2 )          ( x1  m (t1 ))( x2  m (t2 )) f  x1, x2 ; t1 , t2  dx1dx2  R t1 , t2 . (3.4)   Ковариационная и корреляционная функции характеризуют степень статистической связи значений СП (случайных величин), наблюдаемых в моменты времени t1 и t2. Если корреляционная функция R t1 , t 2   0 , то значения СП ξ(t) в моменты времени t1 и t2 называются некоррелированными, а если ковариационная функция K  t1 , t 2   0 , то значения СП ξ(t) в моменты времени t1 и t2 называются ортогональными, Для двух случайных процессов ξ(t) и η(t) по аналогии с (3.2) и (3.4) можно ввести понятие взаимной корреляционной функции: R (t1, t2 )  M {((t 1 )  m (t1 ))  ((t 2 )  m (t2 ))}, (3.5) R (t1, t2 )  M {((t 1 )  m (t1 ))  ((t 2 )  m (t2 ))} и взаимной ковариационной функции: K  (t1 , t 2 )  M {(t 1 )  (t 2 )}, (3.6) K  (t1 , t 2 )  M {(t 1 )  (t 2 )}. Поскольку значение случайного процесса в каждый момент времени является случайной величиной, то значение функции взаимной корреляции 50 для двух произвольных моментов времени t1, t2 – это корреляционный момент двух случайных величин ξ1 и η2. Таким образом, взаимая корреляционная функция – это мера статистической связи двух случайных процессов. Случайные процессы ξ(t) и η(t) называются некоррелированными, если взаимная корреляционная функция для двух произвольных моментов времени равна нулю: R (t1 , t 2 )  0 . Случайные процессы ξ(t) и η(t) называются ортогональными, если взаимная ковариационная функция для двух произвольных моментов времени равна нулю: K  (t1 , t 2 )  0 . 3.4. Стационарные случайные процессы Случайный процесс ξ(t) называется стационарным в узком смысле, если все конечномерные функции распределения вероятностей любого порядка инвариантны относительно сдвига по времени Δt, т.е. при любых Δt и n справедливо равенство Fn  x1,..., xn ; t1,..., tn   Fn  x1,..., xn ; t1  t ,..., tn  t  . (3.7) Аналогичное равенство должно выполняться и для плотностей вероятностей f n  x1,..., xn ; t1,..., tn   f n  x1,..., xn ; t1  t ,..., tn  t  , (3.8) а также для характеристических, моментных и корреляционных функций. Стационарный в узком смысле случайный процесс, в отличие от нестационарного, ведет себя однородно (однообразно) во времени (процесс ξ1(t) – стационарный, процесс ξ2(t) – нестационарный, рис. 3.2). ξ1(t) t ξ2(t) t Рис. 3.2. Реализация стационарного и нестационарного процессов 51 Из определения стационарности (3.7) следует, что f (x; t1) = f (x; t1 – t1) = f1 (x), f (x1, x2; t1 – t1, t2 – t1) = f (x1, x2; τ) и так далее, т.е. все n-мерные плотности вероятностей и n-мерные моментные функции зависят не от n, а от n –1 моментов времени [4]. Таким образом, математическое ожидание и дисперсия стационарного в узком смысле случайного процесса не зависят от времени  1 (t )  M (t )   xf  x  dx  m ,       2 (t )  M (t )  m (t )  2   x  m (t )  2 f ( x)dx  D ,  а ковариационная и корреляционная функции зависят лишь от разности аргументов τ = t2 – t1: K  t1 , t 2   K  t 2  t1   K    , R t1 , t 2   R t 2  t1   R  . При решении многих практических задач многомерные плотности вероятности не рассматривают, а оперируют только с моментными функциями. В связи с этим введено понятие стационарности в широком смысле. Случайный процесс ξ(t) называется стационарным в широком смысле, если его математическое ожидание, дисперсия и ковариационная (или корреляционная) функция инвариантны относительно сдвига по времени, т.е.  mξ = const;  Dξ = 2 = const; (3.9)  K(t1, t2) = K(t2 – t1) = K(τ). Таким образом, случайные процессы, стационарные в узком смысле, всегда стационарны и в широком смысле. Обратное утверждение в общем случае неверно. Для гауссовских стационарных процессов понятие стационарности в узком и широком смысле полностью совпадают. Два случайных процесса ξ(t) и η(t) называются стационарно связанными в широком смысле, если их взаимная ковариационная (или корреляционная) функция инвариантна относительно сдвига по времени: K  (t1, t2 )  M {(t 1 )  (t 2 )}  M {(t 1  t 1 )  (t 2  t 1 )}  K  (), R (t1, t2 )  M {(t 1 )  (t 2 )}  M {(t 1  t 1 )  (t 2  t 1 )}  R (). 52 3.5. Эргодические случайные процессы Для многих стационарных СП основные характеристики (плотности вероятностей, моментные функции) можно получить путем усреднения не только по ансамблю реализаций («поперек процесса»), но и по одной временной реализации СП достаточно большой длительности («вдоль процесса»). Например, за оценку математического ожидания mξ стационарного процесса ξ(t) можно принять величину 1T mˆ   (t )  lim  (t )dt , T  T 0 а в качестве оценки дисперсии – 1T 2 ˆ D  ((t )  m )  lim  [(t )  m ]2 dt . T  T 0 Таким образом, для эргодического случайного процесса по одной достаточно длинной реализации можно судить о всем процессе в целом. На практике временной интервал T берут конечным, но по возможности большим. Таким образом, стационарный в широком смысле случайный процесс называется эргодическим, если результаты усреднения по времени совпадают с результатами усреднения по ансамблю реализаций:  (t )  (t ) ;  ((t )  m )2  ((t )  m )2 . (3.10) В этом случае, согласно первому свойству дисперсии, 2  ((t )  m ) 2   2 (t )  m2 , откуда следует физический смысл дисперсии случайного процесса – это мощность флуктуационной составляющей СП, которая находится как разность полной мощности случайного процесса  2 (t ) и постоянной составляющей процесса m2 . Для многих встречающихся на практике стационарных случайных процессов справедливо соотношение lim R    0 ,  53 которое является достаточным условием для того, чтобы процесс был эргодическим. Физически это условие означает, что последующее значение процесса оказывается практически некоррелированным с предыдущим значением, если эти значения разделены достаточно большим интервалом времени. 3.6. Свойства корреляционных функций. Корреляционная матрица Из выражений (3.2), (3.4)-(3.6) следуют основные свойства корреляционных и ковариационных функций: 1. Ковариационная и корреляционная функции случайного процесса связаны следующим соотношением: K  t1 , t 2   R t1 , t 2   m t1 m t 2 . (3.11) В частности, для стационарных СП: K     R    m2 . Если математическое ожидание СП mξ(t) = 0, то K  t1 , t 2   R t1 , t 2  . 2. Ковариационная и корреляционная функции – это четные функции: K(t1, t2) = K(t2, t1), R(t1, t2) = R(t2, t1). В частности, для стационарных СП R(τ) = R(- τ), K(τ) = K(- τ). 3. Взаимно ковариационная и взаимно корреляционные функции: Kη(t1, t2) = Kη(t2, t1), Rη(t1, t2) = Rη(t2, t1). В частности, для стационарно связанных случайных процессов Kη(τ) = Kη(- τ), Rη(τ) = Rη(- τ). 4. Значения корреляционной функции удовлетворяют неравенству | R (t1, t 2 ) | D (t1 ) D (t2 ) , если t1  t2. Если t1 = t2, то Rξ(t1, t1) = Dξ(t1) = 2 t  . В частности, для стационарных СП: | R ( ) | D , R ( 0)  D   2 . Таким образом, корреляционная функция стационарного СП является четной функцией аргумента τ, имеет максимум, равный дисперсии Dξ при τ = 0, непрерывна при всех значениях τ, если только непрерывна при τ = 0, и, как правило, убывает до нуля при τ ->∞. 54 Корреляционные свойства двух случайных процессов в два различных момента времени можно задать с помощью корреляционной и ковариационной матрицы: R (t1 , t2 ) R (t1 , t2 ) K  (t1 , t 2 ) K  (t1 , t2 ) R , K (3.12) R (t1 , t2 ) R (t1 , t 2 ) K  (t1 , t2 ) K  (t1 , t2 ) Допустим, имеется многоканальная радиоэлектронная система, у которой N приемных каналов. При этом в каждом канале будет наблюдаться случайный процесс. В общем случае, если нужно задать корреляционные свойства для двух процессов в n моментов времени или для совокупности n разных процессов в два момента времени, то потребуется корреляционная (или ковариационная) матрица размером n x n. В ряде случаев оказывается целесообразным вместо R(t1, t2) и Rη(t1, t2) рассматривать соответственно нормированную корреляционную функцию и нормированную взаимную корреляционную функцию (по аналогии с коэффициентом корреляции (2.22)): R Н t1 , t2   R t1 , t2  / D (t1 ) D (t2 ) , RН t1 , t2   R t1 , t2  / D (t1 ) D (t2 ) . (3.13) Эти функции количественно характеризуют степень линейной зависимости значений одного или двух случайных процессов в два различных момента времени. Тогда корреляционные свойства двух случайных процессов в два различных момента времени можно задать с помощью нормированной корреляционной матрицы: R Н (t1 , t 2 ) R Н (t1 , t 2 ) , RН  (3.14) R Н (t1 , t 2 ) R Н (t1 , t 2 ) В большинстве радиотехнических задач встречаются нормированные корреляционные функции двух типов: в виде монотонно убывающей функции от аргумента τ (рис. 3.3, а) и в виде осциллирующих затухающих функций (рис. 3.3, б). На практике вместо точного аналитического задания нормированной корреляционной функции часто ограничиваются указанием только интервала корреляции τk. Интервал (или время) корреляции – это временной интервал, на котором в среднем имеет место заметная коррелированность между значениями случайного процесса. Другими словами, это интервал, в пределах которого можно с определенной вероятностью определить следующее значение процесса, зная предыдущее. Для стационарных СП под интервалом корреляции понимается величина 55  1  k   R() d   r () d . R(0) 0 (3.15) ρξcosω0τ ρξ 1 1 τk τ a) τ б) Рис. 3.3. Нормированные корреляционные функции стационарных процессов 3.7. Спектральные характеристики случайного процесса Для изучения спектральных характеристик случайного процесса используется спектральная плотность средней мощности (спектральная плотность), которая равна средней мощности случайного процесса, приходящейся на единицу полосы частот. Спектральная плотность мощности (СПМ) стационарного в широком смысле случайного процесса с нулевым математическим ожиданием может быть получена как преобразование Фурье от корреляционной функции процесса  G ()   R( ) exp( j) d . (3.16)  Отсюда следует, что корреляционная функция стационарного случайного процесса равна: 1  R ( )   G () exp( j )d. 2   (3.17) Формулы (3.16) и (3.17) являются аналитическим представлением теоремы Винера-Хинчина [4, 5]. 56 Учитывая связь корреляционной и ковариационной функций (3.11), можно показать, что для процесса с ненулевым математическим ожиданием G ()  G0 ()  2 m 2 () , (3.18) т.е. спектральная плотность стационарного СП с ненулевым МО равна сумме спектральной плотности соответствующего центрированного процесса G0(ω) и заданной константы (мощности постоянной составляющей процесса) на нулевой частоте. Интегрирование выражения (3.18) по аргументу ω позволяет найти полную среднюю мощность случайного процесса 1   (t )   G () d . 2   2 (3.19) В случае, когда математическое ожидание СП равно нулю, интеграл в выражении (3.19) равен 1     G0 ()d . 2   2 (3.20) Спектральная плотность мощности СП является неотрицательной и четной функцией частоты: G(ω) ≥ 0, G(-ω) = G(ω). Учитывая четность СПМ стационарного процесса, формулы (3.16) и (3.17) можно переписать в виде  G ()  2  R () cos d , 1 R ( )   G () cos d. 0 «Протяженность» спектральной плотности мощности процесса по оси частот характеризуется эффективной шириной спектра, которая определяется из следующего равенства: эф  1  N max  N ()d , (3.21) где N(ω) – односторонняя СПМ случайного процесса (см. рис. 3.4): G ()  ,   0, N ()     0,  0, N max  Gmax . (3.22) 57 Эффективную ширину спектра СП можно определить, как ширину равномерного в полосе частот спектра процесса, эквивалентного данному по средней мощности. Учитывая выражение (3.20), получим эф 2  . N max (3.23) N(ω) Nmax ωэф ω Рис. 3.4. СПМ случайного процесса Корреляционная функция и СПМ стационарного случайного процесса обладают всеми свойствами, характерными для пары взаимных преобразований Фурье. В частности, чем «шире» СПМ, тем «уже» корреляционная функция и наоборот. Этот результат количественно выражается в виде принципа или соотношения неопределенности [4]: k эф  0(1) . 3.8. Гауссовский случайный процесс Вещественный случайный процесс ξ(t) называется гауссовским, если для любого конечного множества моментов времени t1, t2, …, tn случайные величины 1 = (t1), 2 = (t2), …n = (tn) имеют совместную нормальную плотность вероятности f n ( x; t )  1  1  exp  ( x  m )T R 1 ( x  m )  ,  2  ( 2 ) n R (3.24) где x = [x1, x2, …, xn]T; t = [t1, t2, …, tn]T; m = [m1, m2, …, mn]T; R – корреляционная матрица гауссовского случайного процесса, составленная для n моментов времени; R-1 – обратная матрица; R – детерминант корреляционной матрицы: 58 R  R11 R21 R12 R22 ... R1n ... R2 n ... Rn1 ... Rn 2 ... ... ... Rnn Плотность вероятности стационарного гауссовского СП ξ(t) может быть представлена в более компактной записи [5]:   1 n n Д  f n ( x; τ )  ( 2 ) D exp  2   Rij ( xi  m)( x j  m)  , (3.25)  2 D i 1 j 1  где τ = [τ1, τ2, …, τn]T, D – детерминант нормированной корреляционной матрицы, RijД – алгебраическое дополнение элемента Rij в матрице R. 2 n 2 1 2 Рассмотрим частный случай n-мерного стационарного гауссовского СП ξ(t) с некоррелированными временными отсчетами. Тогда матрица R – диагональная с элементами Rii = 1 на главной диагонали, детерминант D = 1, а алгебраические дополнения RijД = 1 при I = j ( RijД = 0 при I = j). Пусть статистические характеристики случайного процесса равны: mξ = 0, 2 . Тогда одномерная плотность вероятности гауссовского случайного процесса  ( x  m)2  1 . f  ( x)  exp  2  2 2   Поскольку отсчеты не коррелированы, то для n-мерной плотности вероятности можно записать:  f  ( x1 ,..., x n )  2 2 n 2 exp  1 n  2  ( x i  m)    2 2 i 1  (3.26) n n 1  2 1 2 2   2 exp  2 ( xi  m)    f  ( xi ) .  2  i 1 i 1 Далее перечислены основные свойства гауссовского случайного процесса [4]: 1) гауссовский СП полностью определяется указанием математического ожидания mξ(t)и корреляционной функции Rξ(t1, t2); 2) для гауссовских СП некоррелированность значений процесса тождественна их независимости (3.26); 3) для гауссовских СП понятия стационарности в широком и узком смысле совпадают;   59 4) в результате линейного преобразования гауссовского СП получается также гауссовский СП; 5) в результате нелинейного преобразования свойство гауссовости утрачивается; 6) с помощью линейного преобразования коррелированные значения гауссовского СП можно привести к некоррелированным. 3.9. Белый шум Рассмотрим стационарный случайный процесс η(t) с равномерной спектральной плотностью мощности G(ω) = N0/2 = const в очень широком диапазоне частот, –∞<ω<+∞ (рис. 3.5). Такой СП называют белым шумом. Корреляционная функция такого процесса: N0  N R ( )  cos d  0 ( ) ,  2 0 2 (3.27) где дельта-функция δ(τ) равна нулю при всех τ, кроме τ = 0. Отсюда следует, что значения такого случайного процесса в любые два несовпадающих, но сколь угодно близких момента времени, не коррелированы. Для белого шума формула (3.20) дает физически неправдоподобный результат σ2 = ∞, и для него нельзя записать даже одномерную плотность вероятности. Таким образом, белый шум следует рассматривать как математическую идеализацию, поскольку все реальные СП имеют спектральную плотность, убывающую при высоких частотах, следовательно, обладают конечным временем корреляции τk  0 и ограниченной средней мощностью. На практике модель белого шума используется, когда в пределах амплитудночастотной характеристики системы спектральную плотность мощности внешнего воздействующего случайного процесса можно приближенно считать постоянной величиной. N0 () 2 G(ω) N0 N0 2 а) τ ω б) Рис. 3.5. Корреляционная функция (а) и спектральная плотность (б) белого шума 60 В качестве физического примера модели белого шума рассматривают тепловой шум, вызванный хаотическим движением электронов в проводниках. Известно, что спектральная плотность мощности напряжения теплового шума на сопротивлении R равна: 1 hf   hf   G ( f )  4kTR  exp   1 , kT   kT   (3.28) k  1,38  10 23 Дж К – постоянная Больцмана; T – температура в градусах Кельвина T  273 0  t ; t – температура в градусах Цельсия; h  6,62 10  34 Дж  с – постоянная Планка; f – частота в Герцах. При выполнении условия hf kT   1 , что справедливо для частот вплоть до f = 300 ГГц, λ = 1мм, выражение (3.28) переходит в формулу Найквиста: G ( f )  4 kTR  N 0 . В качестве примера найдем мощность шума на входе радиоприемного устройства при идеальном П-образном по частоте входном фильтре низкой частоты с f  [ 0, F ] без потерь. где Рис. 3.6. Входная цепь радиоприемника Максимальное согласование источника теплового шума и входа приемника достигается при выполнении условия R  RВХ . Средняя мощность 2  2  4kTRF . На теплового шума в рабочей полосе приемника равна U Ш входном сопротивлении приемника выделяется часть мощности источника, 2 UШ равная Pвх   kTF . Для T  2900 и F = 1 МГц мощность входного 4 RВХ теплового шума равна Pвх  4 1015 Вт . 61 3.10. Воздействие случайных процессов на линейные системы Линейной называется система, осуществляющая линейные преобразования входных сигналов. В такой системе справедлив принцип суперпозиции, заключающийся в том, что сумма входных воздействий может быть найдена путем суммирования откликов по каждому из воздействий в отдельности. Для анализа процессов в таких системах используются методы решения дифференциальных уравнений, импульсных и переходных характеристик (интеграл Дюамеля), метод преобразования Фурье и Лапласа и другие. Пусть имеется линейная система (с комплексной частотной характеристикой K(jω), на вход которой поступает стационарный случайный процесс ξ(t) с известными статистическими характеристиками m  0 и АКФ R () . ξ(t) η(t) K(jω) Рис. 3.7. Схема линейной системы Необходимо найти статистические характеристики случайного процесса η(t) на выходе линейной системы. Известно, что передаточная и импульсная характеристики в линейной системе связаны прямым и обратным преобразованиями Фурье: 1  g (t )   K ( j) exp( jt )d – импульсная характеристика линейной 2   системы (фильтра);  K ( j)   g (t ) exp( jt )dt – комплексная частотная характеристика  (КЧХ) системы. Будем предполагать, что g ( t )  0, при t  0 линейная система устойчива, так, что при воздействии дельта импульса на её входе lim g (t )  0 . t  Реализацию входного случайного процесса (t ) можно выразить через спектральную плотность:  S ( j)   (t ) exp( jt )dt ,  62 (3.29) (t )  1   S ( j) exp( jt )d . 2   (3.30) Тогда процесс на выходе линейной системы 1  (t )   S ( j) K ( j) exp( jt )d . 2   (3.31) Перейдем от отдельной реализации СП к ансамблю реализаций, проведя статистическое усреднение выражения (3.31). При этом учитываем, что для эргодических процессов статистическое усреднение можно заменить усреднением по времени    . Меняя местами операции интегрирования и статистического усреднения, получим 1   (t )    S ( j)  K ( j) exp( jt )d  0 , 2    так как  S ( j)    (t )  exp( jt )dt  0 .  Таким образом, спектральная характеристика СП при сделанных допущениях в установившемся режиме (без учета начальных условий и переходных процессов в системе) является случайной величиной, математическое ожидание которой равно нулю. Найдем АКФ процесса на выходе фильтра. Из выражения (3.31) найдем процесс, сдвинутый по времени на τ: 1  (t  )  S  ( j) K ( j) exp( j(t  ))d .  (3.32) 2   Поскольку (t ) – вещественная функция, то выражение (3.32) не изменится, если в правой его части перейти к комплексно-сопряженным спектральным характеристикам: 1   (t  )  S  ( j) K  ( j) exp( j(t  ))d .  (3.33) 2   Используя выражения (3.31) и (3.33), получим АКФ выходного процесса R ()  (t )(t  )  1     S  ( j) S  ( j)  K ( j) K  ( j) exp(  j) exp[ j (  )t ]dd.   4     63 Далее учтем, что входной случайный процесс (t ) стационарный, а случайные спектральные характеристики статистически независимы и имеют  - коррелиров анную АКФ:  S  ( j) S  ( j)  2G ()(  ) , (3.34) где G () - спектральная плотность мощности случайного процесса (t ) . Подставим выражение (3.34) в интегральное выражение для АКФ и, учитывая фильтрующее свойство δ-функции, получим: 1  2 R ()  G () K ( j) exp(  j ) d.  2   (3.35) Из выражения (3.35) видно, что энергетические спектры входного и выходного случайных процессов в установившемся режиме связаны соотношением: 2 G  ( )  K ( j)  G  ( ) . (3.36) Соотношение (3.36) позволяет найти связь спектральных характеристик входного и выходного процессов в частотной области. Определим связь АКФ входного и выходного случайных процессов. Для этого найдем сначала выражения для Фурье-преобразования от 2 K ( j) . Учитывая связь КЧХ с ИХ линейной системы  K ( j)   g (t ) exp(  jt ) dt ,  получим   K ( j)   g (t ) exp( jt )dt  .  Найдем квадрат модуля КЧХ системы   2 K ( j)  K ( j) K  ( j)    g (t ) g (t ) exp[ j(t  t )]dtdt  .    Сделаем замену переменной   t  t  , получим      K ( j)     g (t ) g (t   )dt  exp( j)d . (3.37)      Функцию в выражении (3.37) в фигурных скобках можно назвать АКФ импульсной характеристики фильтра: 2 64  Rg ()   g (t ) g (t   ) . (3.38)  Возьмем от левой и правой части выражения (3.37) преобразование Фурье и, с учетом соотношения (3.38), получим:   R (t )  R (t )  Rg (t )   R () Rg (t  )d   Rg () R (t  )d ,  (3.39)  где  – операция свёртки во временной области. Выражение (3.36) определяет связь спектральной плотности процесса на входе и выходе линейной системы в установившемся режиме. Выражение (3.39) отражает связь корреляционных характеристик процессов на входе и выходе линейной системы в установившемся режиме. 3.11. Примеры заданий Задача 3.1 Найти плотность вероятности распределения f ( x1 , x2 ) двумерного гауссовского случайного процесса со статистическими характеристиками m1 , 1 , m2 ,  2 , и вектор-столбцом выборочных значений x = [x1, x2]T, векторстолбцом математических ожиданий m = [m1, m2]T и нормированной корре1 r   . ляционной матрицей R Н    r 1 Решение Из общего выражения для двумерной плотности вероятности в векторной форме имеем: f ( x1 , x2 )  1  1  exp  ( x  m )T R Н1 ( x  m )  , 2 R Н  2  где R Н  1  r 2 . Найдем матрицу, обратную матрице коэффициентов корреляции. Коэффициенты обратной матрицы можно найти по формуле: rij1  (1) i j rijд RН , где rijд – алгебраическое дополнение элемента rijд матрицы коэффициентов корреляции. 65 Тогда обратная матрица коэффициентов корреляции 1  1 r  . 1  r 2   r 1  в выражение для плотности вероятности, получим: R Н1  Подставляя R Н1 f ( x1 , x2 )  1 21 2 1  r 2    ( x1  m1 ) 2 2r ( x1  m1 )( x2  m2 ) ( x2  m2 ) 2   1  exp      . 1 2 12  22  2(1  r 2 )    Задача 3.2 Дана двумерная плотность вероятности некоррелированного гауссовского случайного процесса: 1 f  ( x1 , x2 )   2 21 2 1  r   ( x1  m1 ) 2 2r ( x1  m1 )( x2  m2 ) ( x2  m2 ) 2   1  exp    , 2  2 2   1 2  2(1  r )  1 2   где m1 , m2 , 1 ,  2 , r – математические ожидания, СКО и коэффициент корреляции двух значений СП. Определить одномерные плотности вероятности f  ( x1 ), f  ( x2 ) и условные плотности вероятности f  ( x1 / x2 ), f  ( x2 / x1 ) . Решение Для некоррелированных случайных процессов r  0 , откуда имеем:  1  ( x1  m1 ) 2 ( x2  m2 ) 2   1 f  ( x1, x2 )  f  ( x1 ) f  ( x2 )  exp      21 2 12  22  2     ( x1  m1 ) 2   ( x2  m1 ) 2  1  exp   exp  . 2 2 21 2 2  2      1 2 По определению f  ( x1 x2 )  f  ( x1 , x2 ) f  ( x2 ) . Подставляя соответствующие выражения, после несложных преобразований получим: f  ( x1 / x2 )  66 2   x2  m2 1 x1  m1   exp  r  . 2   2  2 1   2(1  r )  2(1  r )   1 1 Аналогичное выражение можно получить для условной плотности вероятности f  ( x2 / x1 ) . Задача 3.3 Найти автокорреляционную функцию (АКФ) белого гауссовского шума (БГШ) на выходе фильтра с прямоугольной импульсной характеристикой (ИХ): 1  1(t )  1(t  и ) , для 0  t  и g (t )   и .  0, t  и Решение Найдем АКФ ИХ фильтра: 1 и 1  Rg ()   g (t ) g (t  )dt  2  dt  1   для   0 . и  и  и  Аналогично можно найти для   0 . Объединяя результаты, окончательно получим:  Rg ( )   1 1   . и  и  Автокорреляционная функция БГШ R ( )  ( N 0 2) ( ) , где N 0 2 – спектральная плотность мощности шума. Найдем АКФ шума на выходе фильтра:  t  N0  R ( )   R (t ) Rg (   t )dt  (t )1   2 и   и      N  dt  0 1   . 2и  и   Задача 6.4 Найти АКФ случайного процесса на выходе интегрирующей RCцепочки при воздействии на её входе БГШ. Решить во временной и частотной области. Решение во временной области Импульсная характеристика интегрирующей RC-цепочки (фильтра низких частот) g (t )   t  1 exp   , где  0  RC – постоянная времени цепи. 0  0  Найдем АКФ ИХ фильтра: 67    2t    1  1 Rg ()   g (t ) g (t  )dt  2  exp  dt  exp   , 20 0   0 0   0   с учетом положительных и отрицательных сдвигов по  , получим:   1 exp    . 20  0  Найдем АКФ процесса на выходе фильтра как свертку АКФ БГШ и АКФ фильтра и получим окончательно:   N R ()  0 exp    . 40  0  Решение в частотной области Передаточная функция фильтра есть Фурье-преобразование от импульсной характеристики. После вычислений получим: Rg ()  K ( j )  1 . 1  j 0 На выходе фильтра имеем случайный процесс со СПМ: N0 . 2 Найдем АКФ выходного шума, как Фурье-преобразование от его энергетического спектра: G ()  K ( j) R ( )    N0  2 1  1  G (  ) exp( j  ) d      G () cos  d  2    0   N0 cos 2f    . df  exp 4 0 1  4 2 f 2  02  0  Из полученного выражения видно, что анализ прохождения шума на выход фильтра во временной и частотной областях дают одинаковый результат. Задача 3.5 На вход электрической цепи (рисунок) подается белый гауссовский шум n(t) со спектральной плотностью мощности N 0 = 10–18 Вт/Гц. Найти аналитическое выражение, построить график АКФ R(τ) и мощность σ2 случайного процесса на выходе цепи, если R1 = 100 Ом, R2 = 500 Ом, С1=100пф. 68 R1 Uвх C1 R2 Uвых Решение Модуль комплексной частотной характеристики цепи равен  , K ( )  K ( j)  1  2 T 2 где T  R1C1 ,   R2 R1  R2 – коэффициент затухания цепи. Тогда, согласно (3.36) СПМ случайного процесса на выходе цепи равна: N0 2 G()   . 2 1  2T 2 Корреляционную функцию процесса на выходе цепи можно найти как обратное преобразование Фурье от СПМ выходного процесса:   N 0    2 exp( j ) d N 0 2   cos   d N 0 2    . R ( )    exp   4   1  2T 2 4   1  2T 2 4T  T Дисперсия СП на выходе цепи: 2 N 0 N 0    . 4T 4R1C1 2 Подставив заданные номинальные значения R1 =100 Ом, R2 =500 Ом, С1=100 пф, получим   0,83 , R1C1  1010 с ,  2  16 мВ2 . 69 4. ФУНКЦИОНАЛЬНОЕ ПРЕОБРАЗОВАНИЕ СЛУЧАЙНЫХ ВЕЛИЧИН И ПРОЦЕССОВ 4.1. Преобразование одномерной случайной величины Пусть известна плотность вероятности fξ(x) случайной величины ξ. Функциональное преобразование СВ ξ в СВ η описывается зависимостью η = φ(ξ), где φ(.) – непрерывная дифференцируемая функция, не имеющая точек разрыва в области определения. Зная закон распределения СВ ξ и вид функционального преобразования φ(ξ), требуется определить закон и характеристики распределения СВ η. Так как существует однозначная детерминированная зависимость случайных величин η и ξ, то возможные значения этих величин связаны аналогичной зависимостью y = φ(x). Пусть существует обратное функциональное преобразование ξ = g(η), т.е. x  g ( y ) . Тогда плотность вероятности СВ η: dg ( y ) . (4.1) dy Такое преобразование, при котором каждому значению величины ξ соответствует детерминированное значение величины η (без учета предыдущих и будущих значений ξ), называется безынерционным преобразованием случайной величины [4]. Числовые характеристики преобразованной случайной величины можно найти без предварительного вычисления плотности вероятности СВ η, пользуясь формулами: f  ( y )  f  ( g ( y ))  – для непрерывных случайных величин:  M      ( x) f  ( x)dx ,  2  D       ( x)  M     f  ( x ) dx ;  – для дискретных случайных величин: M     ( xi ) pi , i 2 D     ( xi )  M    pi . i Более сложным является случай, когда обратная функция g ( y ) неоднозначна, т.е. одному значению y соответствует несколько значений x. Тогда плотность вероятности определяется через сумму по всем обратным функциям K f   y    f   gi  y   i 1 70 dgi  y  . dy (4.2) 4.2. Преобразование многомерной случайной величины Пусть известна n-мерная плотность вероятности f 1... n  x1...xn  случайных величин 1…n. Нужно найти плотность вероятности f 1 ...n  y1... yn  случайных величин η1…ηn, если задана совокупность детерминированных дифференцируемых функций yi  i ( x1... xn ) , определяющая связь значений x1... xn случайных величин 1... n со значениями y1... yn случайных величин 1...n :  1  1 (1,...,  n ) ,  (4.3)  ..........................    ( ,...,  ) . n 1 n  n Учитывая, что совокупность случайных величин можно рассматривать как значения случайного процесса в разные моменты времени, каждое выражение в (4.3) можно рассматривать как i-е безынерционное преобразование случайного процесса ξ(t). Если существуют однозначные обратные функции  1  g1 (1,..., n ) ,  (4.4)  ..........................   g ( ,...,  ) , n 1 n  n то плотность вероятности преобразованных случайных величин по аналогии с (4.1) определяется формулой f1...n  y1... yn   f1...n x1...xn  J n  y1... yn  , (4.5) где J n - якобиан преобразования переменных g1 g1 ... y1 yn  ( x1...x n ) Jn   ... ... ... (4.6)  ( y1... yn ) g n g n ... y1 yn В случае, если обратные функции (4.4) имеют неоднозначности, необходимо осуществлять суммирование по каждой из ветвей обратного преобразования. Рассмотрим частный случай преобразования двумерной случайной величины (ξ1, ξ2). Пусть известна двумерная плотность вероятности f 1 ,  2  x1 , x2  , и необходимо найти плотность вероятности f 1 ,  2 ( y1 , y2 ) двумерной случайной величины (η1, η2) при известной функциональной зависимости: 71 1  1 ,  2  (1 ,  2 ) . Если существует однозначная обратная функция  2  g (1 , 2 ) , то якобиан преобразования переменных 1 J2   ( x1 , x2 )   ( y1 , y2 ) g ( y1 , y2 ) y1 g ( y1 , y2 ) y2  g ( y1 , y2 ) . y2 Тогда двумерная плотность вероятности случайных величин (η1, η2) по аналогии с (4.5) находится по формуле g ( y1, y2 ) . y2 Для одномерной плотности вероятности СВ η2 получим выражение f 1 , 2 ( y1, y2 )  f 1 , 2 ( y1, g ( y1, y2 ))   g ( y1 , y2 ) dy1 . (4.7) y2   Выражение (4.7) позволяет найти плотности вероятности суммы, разности, произведения и частного двух случайных величин: f 2 ( y2 )   f 1 , 2 ( y1, y2 )dy1   f 1 ,  2 ( y1, g ( y1 , y2 ))  f 2 ( y2 )   f 1 , 2 ( x1, y2  x1 ) dx1 , 2  1   2 , (4.8)   f 2 ( y2 )   f 1 , 2 ( x1, y2  x1 ) dx1 , 2  1   2 , (4.9)   dx1 ,  2  1   2 , x1 (4.10) f 2 ( y2 )   f 1 , 2 ( x1, y2 x1 ) x1 dx1 , 2   2 / 1 . (4.11) f 2 ( y2 )   f 1 ,  2 ( x1 , y2 / x1 )    Для статистически независимых случайных величин с плотностями вероятностей f 1 ( x1 ) и f  2 ( x2 ) в выражениях (4.8) – (4.11): f 1 ,  2 ( x1 , x2 )  f 1 ( x1 )  f  2 ( x2 ) . 72 4.3. Преобразование декартовых координат в полярные Пусть двумерная случайная величина (ξ1, ξ2) – это случайные декартовые координаты некоторой точки (конца вектора) на плоскости. Распределение случайной точки (ξ1, ξ2) задано двумерной плотностью вероятностей f 1 ,  2 ( x1 , x2 ) . Пусть случайные величины ξ1 и ξ2 – статистически независимые, распределенные по нормальному (гауссовскому) закону с параметрами m1  a, m2  b, 1  2   , и задано функциональное преобразование вида 1  12   22 , 1  0, 2  arctg ( 2 1 ), 0  2  2 . Необходимо найти закон распределения двумерной случайной величины (η1, η2). Для этого обозначим возможные значения случайных величин η1 и η2 – ρ и φ, а совместную плотность вероятности – f 1 ,  2 (, ) . Декартовы координаты связаны с полярными координатами нелинейными соотношениями вида x1    cos  , x2    sin , а якобиан преобразования переменных ( x1, x2 ) cos    sin  J2    . (, ) sin   cos  Тогда двумерная плотность вероятности случайных величин (η1, η2), согласно (4.5), находится по формуле f 1 ,  2 (, )    f 1 ,  2 ( cos ,  sin ) . (4.12) Учитывая свойство статистической независимости случайных величин ξ1 и ξ2, f 1 , 2 (, )    f 1 ( cos )  f  2 ( sin ) . Заметим, что случайные величины η1 и η2 не являются статистически независимыми. Выполняя интегрирование, получим отдельно плотности вероятности модуля (или огибающей) η1 и фазы η2 случайного вектора ( 1 ,  2 ) : 2 2 f 1 ()   f 1 , 2 (, )d    f 1 , 2 ( cos ,  sin )d ,   f 2 ()   f 1 , 2 (, )d    f 1 ,  2 ( cos ,  sin )d . (4.13) (4.14) 73 Учитывая, что плотность вероятности случайного вектора (1, 2 )  ( x1  a ) 2  ( x2  b ) 2  1 f 1 ,  2 ( x1 , x2 )  exp   , 2 2 2 2    (4.15) после перехода к полярной системе координат получим:  ( cos   a ) 2  ( sin   b) 2   f 1 ,  2 (, )  exp   . 2  2 2 2   Тогда плотность вероятности (4.13) модуля случайного вектора можно записать в виде  2  1 2 2 f 1 ()  exp  (  cos   a )  (  sin   b )   2 22 0  2   d   2  a 2  b 2  2      exp  exp ( a cos   b sin  )    2   2  d . 22 2   0 (4.16) Обозначив Z  a2  b2 и   arctg(b a ) , перепишем выражение (4.16) в виде   2  Z 2   Z   f 1 ()  2 exp   I , (4.17) 2  0 2   2       1 2 где I 0 ( x )   expx  cos(  )d – модифицированная функция Бесселя 2 0 первого рода нулевого порядка. Распределение (4.17) называется распределением Релея-Райса, или обобщенным законом Релея. Этот закон используется для описания, например, распределения огибающей суммы детерминированного сигнала и узкополосного гауссовского шума. В частном случае, когда a = b = 0, т.е. детерминированный сигнал во входной реализации отсутствует, получаем Z = 0 и распределение (4.17) переходит в распределение Релея:  2   f 1 ()  2 exp  2  .   2  (4.18) Распределение Релея характеризует распределение огибающей ρ узкополосного случайного процесса. 74 4.4. Примеры заданий Задача 4.1 Задано линейное преобразование случайной величины X: η = aξ + b. Найти распределение случайной величины η, если известно распределение случайной величины ξ. Решение Обратная функция g ( y)   y  b  a , а ее производная dg dy  1/ a . Так как обратная функция однозначна, то по формуле (4.1) получим: 1 1  y b  1  y b  f  y   f  x   f  f ( y )  f  , т.е.   . a a  a  a  a  Если СВ ξ равномерно распределена на интервале (x1, x2), то СВ η будет равномерно распределена на интервале (ax1 + b, ax2 + b). Если СВ ξ распределена по нормальному закону с МО m x и дисперсией 2x , то 2  1  y b   f ( y)  exp   2    m    2  a   a 2 x  2    2 1 1  exp   2 2  y  am  b  . 2 2  2  a  2 a   откуда математическое ожидание случайной величины η: mη = amξ + b. Таким образом, линейное преобразование не меняет закон распределения СВ, а только изменяет параметры (числовые характеристики) распределения. 1    Задача 4.2 Дано нелинейное преобразование случайной величины ξ: η = ξ2. Найти распределение случайной величины η, если известно распределение случайной величины ξ. Решение Обратная функция g ( y )   y . Так как обратная функция неоднозначна, то по формуле (4.2) получим: 2 dg  y  dg 1 f  y    f   x   i , где 1,2   , dy dy 2 y i 1 Тогда плотность вероятности СВ η 75 1  f  y  f  y  .   2 y Если случайная величина ξ распределена по нормальному закону с параметрами mξ и σξ, то   1  1 2 2  1  f ( y)  exp   2 y  m   exp   2 y  m   .   2   2  2 y  22      В случае если mξ = 0, то  y  1 f ( y )  exp   2  , y  0 . 2 y 2  2  Таким образом, нелинейное преобразование СВ меняет закон ее распределения. f  y           Задача 4.3 Напряжение U , являющееся нормальной случайной величиной с математическим ожиданием m = 0 и дисперсией  2 , подаётся на нелинейный элемент с вольт-амперной характеристикой вида: 1. I (U )  a U ; 2. I (U )  aU 2 , a  0 . Какова плотность вероятности f (I ) случайного процесса I после преобразования в нелинейном элементе? Решение Известна плотность вероятности входного напряжения цепи:  U2  1 f (U )  exp 2  .  2  2  Для решения задачи находим функцию, обратную ВАХ, и модуль её производной для заданных вольт-амперных характеристик: 1) U  I dU 1 , производная  – функция неоднозначная и имеет a dI a две ветви; I dU 1 и производная – неоднозначная функция.  a dI 2 aI Поэтому выходная плотность вероятности будет иметь так же две ветви: 2) U   76  1 I I  dU ( I )   f    f      a a 1. f ( I )  f U ( I )   a  , для I  0; dI 0, для I  0.  1   I  I      dU ( I )  f  f   2. f ( I )  f U ( I )    2 a I   a  a  , для I  0.  dI  0, для I  0.  В приведенных выражениях функция f () – это плотность вероятности для гауссовского закона распределения. Задача 4.4 Напряжение U , являющееся нормальной СВ со средним значением m и с дисперсией 2 , подаётся на нелинейный элемент с вольт-амперной характеристикой вида (ВАХ): aU n U  0, I (U )   U  0,  0 где a > 0. Какова плотность вероятности f (I ) случайной величины I – тока на выходе нелинейного элемента? Решение Данные для решения задачи: m = 1, 2 =1, a =1, n =1,2. Известна плотность вероятности входного напряжения:  (U  m) 2  1 f (U )  exp  . 2  2 2    Для решения задачи находим функцию, обратную характеристике I = aU n , при U  0 : I dU 1  при n = 1: U  ,  , a dI a I dU 1 , .  a dI 2 aI Найдем значение нормирующего множителя для положительных значений напряжения. Ранее было найдено выражение для вероятности попадания значений в интервал (α, β). Для α = –∞, β = 0 из выражения (2.30) найдем нормирующий множитель:  m 0m P (   x  0)         1    1   (1)  0,84 .        при n = 2: U  77 Тогда искомая плотность вероятности распределения находится по формуле dU ( I ) dU ( I ) . f ( I )  f U ( I )    0,16 (0)  0,84 f (U ( I )) dI dI Первое слагаемое необходимо для выполнения условия нормировки плотности вероятности. Тогда окончательно при I  0 получим:  для n = 1:  ( I  1) 2  0,84 f ( I )  0,16(0)  exp  ; 2 2    для n = 2:  ( I  1) 2  0,42 f ( I )  0,16  (0)  exp  . 2 2I   Задача 4.5 Найти функцию распределения и плотность вероятности двух независимых случайных величин ξ1, ξ2 – отклонений от центра мишени в двух взаимно перпендикулярных направлениях, m1  m2  0, 1   2   . Решение Значения величин , 1 , 2 обозначим соответственно y , x1 , x2 . ξ1 x1 y x2 ξ2 Функция распределения F ( y ) величины СВ η – длины случайного вектора – равна вероятности того, что конец вектора с проекциями x1 и x2 не выйдет за пределы окружности радиусом y  x12  x22 : F ( y )   f  ( x1, x2 )dx1dx2 , x12  x22  y где двумерная плотность вероятности 78  x12  x22  1 . f  ( x1 , x2 )  exp  2 2  2 2   Перейдем к полярным координатам ( ,  ) заменой переменных: x1   cos , x2   sin . Тогда получим:   2   ( x1 , x2 ) 1 2 y F ( y )  exp  2  dd, 2    (  ,  ) 2 0 0  2  где якобиан преобразования: ( x1, x2 ) cos    sin  J2    . (, ) sin   cos  После преобразований получим: 2  2   t2  1 2 y 1 y F ( y )   d   exp  2 d  2  exp  2 dt  2 2 0 0 2 0  2   2   y2   1  exp  2 , y  0.  2  Плотность вероятности соответствует распределению Релея:  y2  y f  ( y )  2 exp  2 , y  0 .   2  79 5. СТАТИСТИЧЕСКОЕ ОЦЕНИВАНИЕ ПАРАМЕТРОВ РАСПРЕДЕЛЕНИЯ Одной из важных задач математической статистики является разработка методов получения обоснованных выводов о массовых явлениях и процессах на основании анализа результатов наблюдений и экспериментов. При этом выводы относятся не к отдельным испытаниям и не к анализируемой выборке, насколько велика бы она ни была, а распространяются на весь изучаемый процесс или явление. Пусть, например, имеется партия из N ( N  1) приборов (например, транзисторов), и необходимо, выбрав случайным образом некоторое количество n  N приборов, сделать вывод о качестве всей партии. Вся совокупность изучаемых объектов или экспериментальных данных называется генеральной совокупностью. Величина N – объем генеральной совокупности. Часть генеральной совокупности, наугад отобранная из нее, называется выборочной совокупностью, или просто выборкой. Число n объектов (данных), составляющих выборку, называется объемом выборки. Обычно каждому i -му элементу выборки можно сопоставить определенное числовое значение xi . Тогда выборку можно представить векторстрокой ( x1 ,..., xn ) . Это могут быть, например, значения реализации случайного процесса в моменты времени t1 ,..., tn . Тогда рассматриваемая выборка представляет собой реализацию случайного вектора как совокупности случайных величин 1 ,..., n . Используемая выборка более или менее удачно характеризует изучаемые свойства генеральной совокупности. Существуют так называемые репрезентативные выборки, которые наиболее хорошо (в смысле того или иного критерия) представляют свойства генеральной совокупности. Далее, если не будет специальных оговорок, будем полагать распределения f ( xi ) всех величин i одинаковыми, а сами величины статистически независимыми, т.е. n f 1 ,... n ( x1 ,..., xn )   f  ( xi ) , i 1 где f ( xi ) не зависит от выборочного значения в момент ti , т.е. случайный процесс является стационарным. Будем предполагать так же, что выполняется условия эргодичности. Для таких процессов важнейшей является задача оценки неизвестных параметров распределения генеральной совокупности. 80 Точечной оценкой неизвестного параметра λ называется произвольная функция ̂ =Θ(x) от выборочных данных x = ( x1 ,..., xn ) . Интервальное оценивание используется в основном при малом числе наблюдений, когда надежность точечных оценок невелика. Доверительная вероятность (надежность) определяет вероятность β того, что полученная оценка параметра отклонится от истинного значения не более чем на наперед заданную малую величину: P   ˆ     .   Если переписать неравенство без модуля, получим: P ˆ      ˆ     , или P1     2    , откуда следует определение доверительного интервала. Интервал (λ1, λ2), центром которого служит оценка параметра λ и в котором с вероятностью β заключено истинное значение параметра, называется доверительным интервалом, соответствующим доверительной вероятности (надежности) β.   5.1. Выборочное среднее Первой задачей, которая часто возникает при статистическом анализе имеющейся в наличии выборки, является попытка определения (оценки) величины математического ожидания M(ξ) какого-либо признака генеральной совокупности. Генеральным средним называют среднее арифметическое значений признака генеральной совокупности. Если все значения признака x1, …, xn генеральной совокупности объема N различны, то M ()    x1  x2  ...  xN  / N . По существу, необходимо найти некоторую статистическую оценку Mˆ () генерального среднего  . Выберем в качестве точечной оценки генерального среднего случайную величину вида: 1 n ˆ xв  M ()   xi , (5.1) n i 1 т.е. среднее арифметическое значение элементов выборки размером n. Определенная таким образом величина x в называется выборочным средним. Основными числовыми характеристиками случайной величины xв являются математическое ожидание M ( xв ) и дисперсия D ( xв ) : 1 n  1 n M ( xв )  M   xi    M ( xi )  M () , (5.2)  n i 1  n i 1 81 1 1 n  1 n D( xв )  D   xi   2  D( xi )  D() , (5.3) n n n  i 1  i 1 где M(ξ), D(ξ) – математическое ожидание и дисперсия генеральной совокупности. Итак, математическое ожидание выборочного среднего совпадает с генеральным средним, поэтому выборочное среднее является несмещенной оценкой генерального среднего. С ростом объема выборки дисперсия выборочного среднего стремится к нулю, следовательно, выборочное среднее сходится по вероятности к генеральному среднему, т.е. является состоятельной оценкой генерального среднего. Определим объем выборки n0 , требуемый для того, чтобы среднеквадратическое отклонение D xв  оценки математического ожидания xв  Mˆ () не превышало заданной величины  . Для точечной оценки x в D xв   . Тогда для дисперсии генеральной совокупности получим D   n0 и необходимый объем выборки определяется из неравенства n0  D() 2 .   Пусть, например,    D  . Тогда n0  1  2 . В частности, для значения   10 2 имеем n0  104 . Другой подход заключается в использовании интервального метода оценивания параметров. Для этого необходимо знать распределение случайной величины – оценки параметра. В нашем случае будем считать, что при n  1 распределение величины xв близко к нормальному. Согласно методу интервального оценивания, определим вероятность того, что выполняется неравенство xв  M ()   . Тогда запишем плотность вероятности для нормального закона, где вместо неизвестных статистических параметров записаны их оценки: f xв ( x )  82  ( x  M ( xв )) 2  1 exp  .   2 D x 2D ( xв ) в   Вероятность того, что оценка среднего значения случайной величины не отклонится от истинного значения на величину   , равна: P xв  M ()    PM ()    xв  M ()    M ( )    ( x  M ())2  1   exp  2 D( x )  dx. 2D( xв ) M ( )   в   Данный интеграл может быть вычислен через табулированную функ- 1 t0 t2 цию Лапласа (t0 )   exp( 2 )dt (см. приложение). 2 0 Произведем замену переменной интегрирования t  x  M () и, учиD ( xв ) тывая (5.3), получим   n  . P xв  M ()    2   D (  )   (5.4) Тогда для случая    D  получим:     P xв  M ()   D  2  n . В частности, при   10 2 и n  10 4   P xв  M ()  10 2 102  21  0,68, откуда видно, что объем n  10 4 выборки не является достаточным, поскольку обеспечивает вероятность отклонения случайной величины от истинного значения не более 0,68. Обычно требуются оценки с вероятностями 0,95 или 0,997. 5.2. Выборочная дисперсия Для определения требуемого объема выборки при оценке генерального среднего с заданной точностью, как было показано ранее, необходимо знание генеральной дисперсии D(ξ). Генеральной дисперсией называют среднее арифметическое квадратов отклонений значений признака генеральной совокупности от его среднего значения  : N 2 D()    xi     / N .  i 1  (5.5) 83 Выберем в качестве точечной оценки генеральной дисперсии D(ξ) величину 1 n Dв  Dˆ ()    xв 2    xi  xв  2 . (5.6) n i 1 Определенная таким образом величина Dв называется выборочной дисперсией. Основными числовыми характеристиками выборочной дисперсии являются математическое ожидание выборочной дисперсии M ( Dв ) и дисперсия выборочной дисперсии D ( Dв ) : 1 n  1 n n  2 M ( Dв )  M        M  2  M (  ) 2   M  2 m1  2   xi x k     n i 1  n i 1 k 1        1 n 1 n2  n 2  2 2 2 2 2  M ( )  2   M { xi }  ( n  n ) M ()   M ( )  M ( )  M ()  2 n n i 1 n  n 1 n 1  M ( 2 )  M 2 ()  D(). n n Таким образом, 2   n 1 D(). n Итак, математическое ожидание выборочной дисперсии не равно генеральной дисперсии, но с увеличением объема выборки математическое ожидание выборочной дисперсии стремится к генеральной дисперсии D ( ) . Следовательно, рассматриваемая точечная оценка дисперсии генеральной совокупности является смещенной. Для нахождения несмещенной оценки генеральной дисперсии рассмотрим величину, которая называется исправленной выборочной дисперсией n ~ Dв  Dв . (5.7) n 1 Математическое ожидание n n n 1 ~ M Dв  M Dв   D   D . n 1 n 1 n ~ Таким образом, точечная оценка Dв является несмещенной оценкой генеральной дисперсии. Из выражения (5.7) следует, что при значениях n  1 обе оценки совпадают. Аналогично получим формулу и для дисперсии выборочной дисперсии. Можно показать, что при n  1 : M ( Dв )    84   1 2  4    22   2  4   2 22   n n 1 1  3  4   3 22    4    22  , n n 2      DDв   D         где  k    xв  k 1 n    xi  xв  k . n i 1 (5.8) При увеличении объема выборки lim D Dв   0 . n Таким образом, выборочная дисперсия Dв сходится по вероятности к генеральной дисперсии D ( ) , т.е. является состоятельной оценкой дисперсии случайной величины. В частности, для гауссовской генеральной совокупности  4   3 22 ,  2   D     2 . Учитывая (5.8), получим n 1 2 M Dв   M      D    2 , n   3     2 DD   D       . n n 2 в 2 2 2 2 4 Определим объем выборки nT , требуемой для того, чтобы СКО отклонения МО от истинного значения не превышало значения  . Для этого необходимо, чтобы выполнялось условие D Dв    . Для гауссовской генеральной совокупности, это условие имеет вид 2 22    . Найдем необходимый объем выборочных значений для выn полнения точности определения СКО в виде точечной оценки. Положим вместо неравенства знак равно    2 . Тогда получаем условие 2 nT  2 . Так, для уменьшения исходного СКО на величину   10 2 (в сто  раз) необходимо произвести вычисления для оценки значений МО и дисперсии для nT  2  104 независимых выборочных значений. 85 6. ОСНОВЫ СТАТИСТИЧЕСКОЙ ТЕОРИИ ОБНАРУЖЕНИЯ СИГНАЛОВ 6.1. Задачи статистической теории обработки сигналов Пусть есть радиотехническая система (РТС), которая представляет совокупность устройств передачи либо извлечения информации, выполняющих единую целевую задачу. Тогда в первом случае рассматривается радиотехническая система передачи информации (РСПИ), а во втором –обзорная радиолокационная система (РЛС). При передаче полезного сигнала в канале передачи информации на вход радиоприемного устройства совместно с сигналом поступают различного рода помехи и шумы. Примером таких помех в РСПИ могут служить частотно-временные искажения сигнала при распространении в радиоканале и собственные тепловые шумы на входе приемного устройства, а для РЛС искусственные и естественные помехи и тепловые шумы. Искажения полезного сигнала в результате действия помех имеют случайный характер, поэтому не могут быть устранены регулярными методами. Наличие помех приводит к искажению полезного сигнала и снижает качество принимаемой информации. Будем называть радиоприемное устройство (РПУ), обеспечивающее минимальный уровень искажения полезного сигнала при фиксированном уровне помех, оптимальным при выбранном критерии оптимальности. Критерии оптимальности и количественные характеристики искажений зависят от типа и назначения приемного устройства. Минимальный уровень искажений при выбранном критерии качества работы оптимального РПУ характеризует потенциальную помехоустойчивость. Любой другой приемник может обеспечить помехоустойчивость строго меньше потенциальной. Синтез оптимальных устройств обработки по заданному критерию с известными статистическими характеристиками сигналов и помех является одной из основных задач теории оптимального обнаружения и различения сигналов. Другой важной задачей статистической теории является анализ влияния работы отдельных устройств на качественные показатели приемного устройства в целом по заданному критерию. В зависимости от целевого назначения РТС решают разные задачи получения полезной информации, поэтому к ним предъявляются различные требования и критерии оценки качества их работы. Исходя из них, можно сформулировать ряд задач обработки сигналов на фоне помех:  обнаружение сигналов;  различение сигналов; 86  разрешение сигналов по параметру;  оценивание параметров сигнала;  фильтрация параметров сигнала. Сформулируем кратко эти задачи. 1. Обнаружение сигналов Пусть на вход РПУ на интервале наблюдения t  [ 0, T ] действует аддитивная смесь сигнала s(t ,  ) и помехи n(t ) , где   (1 ,  2 ,...,  m ) - вектор информационных и случайных параметров сигнала: u ( t )  s ( t ,  )  n ( t ) , где  – случайный параметр, принимающий значения: 0 – при отсутствии сигнала и 1 – при его наличии. Пусть известны статистические характеристики случайных параметров сигнала и шума. Оптимальный приемник должен вынести оценку случайного параметра ̂ и принять гипотезу H 1 , ˆ  1 о наличии сигнала на входе приемника или гипотезу H 0 , ˆ  0 – о его отсутствии. 2. Различение сигналов Пусть на вход РПУ на интервале наблюдения t  [ 0, T ] действует аддитивная смесь набора сигналов вида si (t ,  ) , где i  1, N  и шума n(t ) : u(t )  si (t ,  )  n(t ) . Под набором сигналов si (t ,  ) , имеющих вектор параметров   (1 ,  2 ,...,  m ) , можно подразумевать некий алфавит символов, имеющих априорную (доопытную) вероятность появления на входе РПУ pi . Пусть известны статистические характеристики случайных параметров сигнала и шума. Необходимо по принятой реализации принять решение о наличии конкретного сигнала (символа алфавита) sk (t ,  ) на входе приемника. 3. Разрешение сигналов по параметру Пусть на вход РПУ на интервале наблюдения t  [ 0, T ] действует аддитивная смесь двух сигналов вида s(t ,  ) , где вектор параметров    ( 1 ,...,  ,...,  m ) содержит информационный параметр  , и шума n(t ) : u(t )  s1(t , 1,..., 1,...,  m )  s2 (t , 1,..., 2 ,...,  m )  n(t ) . Пусть известны статистические характеристики случайных параметров сигнала и шума. По информационному параметру  , необходимо произвести разрешение двух близко расположенных сигналов. Задача состоит в синтезе оптимального алгоритма разрешения сигналов и оценке потенциальной разрешающей способности приемного устройства. 87 4. Оценивание параметров сигнала Пусть на вход РПУ на интервале наблюдения t  [ 0, T ] действует аддитивная смесь сигнала s(t ,  ) и помехи n(t ) , где  ( 1 ,...,  ,...,  m ) - вектор информационных и случайных параметров сигнала: u (t )  s(t ,  )  n (t ) . Пусть известны статистические характеристики случайных параметров сигнала и шума. Параметр сигнала  является информационным и подлежит определению (измерению). Наличие помех приводит к тому, что параметр  является случайной величиной, имеющей конечную точность измерения. Поэтому в результате измерения можно получить оценку измеряемого параметра ̂ . Задача состоит в синтезе оптимального алгоритма измерения информационного параметра  . 5. Фильтрация параметров сигнала Пусть на вход РПУ на интервале наблюдения t  [ 0, T ] действует аддитивная смесь сигнала s(t ,  ) и помехи n(t ) , где   (1 ,...,  (t ),...,  m ) вектор информационных и случайных параметров сигнала: u (t )  s(t ,  )  n (t ) . Пусть известны статистические характеристики случайных параметров сигнала и шума. Параметр сигнала  (t ) является информационным, медленно изменяющимся во времени, подлежит слежению во времени изменения его величины. Наличие помех приводит к тому, что закон изменения  (t ) является случайной временной функцией, имеющей конечную точность её изменения. В результате слежения можно получить оценку закона изменения параметра ˆ ( t ) . Задача состоит в синтезе оптимального алгоритма оценки закона изменения информационного параметра  (t ) . Рассмотренные статистические задачи являются взаимосвязанными. Так, задачу обнаружения сигналов можно рассматривать как частный случай задачи различения двух сигналов, один из которых равен нулю. Задача оценки параметра сигнала является частным случаем задачи фильтрации, когда параметр сигнала является постоянной величиной. 88 6.2. Задача обнаружения сигналов Пусть имеется радиоприемное устройство, на входе которого наблюдается входной сигнал u (t ) , представленный своими выборочными значениями во временной области с интервалом t вида (u1, u2 ,.....,un ) . Представленный сигнал состоит из детерминированного сигнала и шума: u (t )  s(t )  n (t ) , где s (t ) – детерминированный (полностью известный) сигнал; n(t ) – шум;  – параметр, принимающий значение равное единицы в случае наличия сигнала в принимаемой смеси и нулю в случае его отсутствия. Необходимо синтезировать оптимальный обнаружитель сигнала, на выходе которого необходимо принять гипотезу H1 о наличии сигнала в принимаемой смеси, или его отсутствии H 0 . На выходе обнаружителя соответственно выносится решение вида  1, в случаегипотезыH1, ˆ   0, в случаегипотезы H0 , (6.1) где ̂ – оценка параметра  . Поскольку параметр  может принимать только два значения – ноль или единица, то такой обнаружитель называется двухальтернативным, а принимаемые при этом гипотезы H1 и H0 - простыми. Решение задачи заключается в отыскании правила, согласно которому по выборочным значениям (u1, u2 ,.....,un ) и принятому критерию обнаружения выносится оптимальное решение (6.1) о наличии или отсутствии сигнала на входе обнаружителя. Для решения разобьем все пространство U выборочных значений входного сигнала вида (u1, u2 ,.....,un ) на две непересекающиеся области U1 – присутствия сигнала на входе приемника и U0 его отсутствия (рис. 6.1). Рис. 6.1. Области принятия и отклонения гипотезы 89 Наличие случайного процесса n (t ) , представленного своими выборочными значениями (n1, n2 ,..., nk ) , приводит к тому, что в результате работы обнаружителя сигнала на его выходе возможны четыре варианта решения статистической задачи: 1. Сигнал отсутствует на входе обнаружителя, в результате его работы принимается гипотеза H 0 , на выходе обнаружитель дает оценку случайного параметра ˆ  0 . Совместную вероятность такого события обозначим pн  P( H0 / s0 ) – вероятность правильного необнаружения сигнала. Полагая известной условную плотность вероятности совместного распределения выборочных значений входного процесса (u1, u2 ,.....,un ) в виде f (u1, u2 ,...,un / H 0 )  f (u / H 0 ) , можно найти вероятность такого события: pн   f (u / H 0 )du . U0 2. Сигнал присутствует на входе обнаружителя, в результате его работы принимается гипотеза H1 , на выходе обнаружитель дает оценку случайного параметра ˆ  1 . Совместную вероятность такого события обозначим D  P( H1 / s1) – вероятность правильного обнаружения сигнала. Полагая известной условную плотность вероятности совместного распределения выборочных значений входного процесса (u1, u2 ,.....,un ) в виде f (u1, u2 ,...,un / H1)  f (u / H1) , можно найти вероятность такого события: D   f (u / H1 )du . U1 3. Сигнал отсутствует на входе обнаружителя, в результате его работы принимается гипотеза H1 , на выходе обнаружитель дает оценку случайного параметра ˆ  1 . Совместную вероятность такого события обозначим F  P( H1 / s0 ) – вероятность ложной тревоги. Полагая известной условную плотность вероятности совместного распределения выборочных (u1, u2 ,.....,un ) значений входного процесса в виде f (u1, u2 ,...,un / H 0 )  f (u / H 0 ) , можно найти вероятность такого события: F   f (u / H 0 )du . U1 4. Сигнал присутствует на входе обнаружителя, в результате его работы принимается гипотеза H 0 , на выходе обнаружитель дает оценку случайного параметра ˆ  0 . Совместную вероятность такого события обозначим pпр  P( H 0 / s1 ) – вероятность пропуска сигнала. Полагая известной условную плотность вероятности совместного распределения выборочных 90 (u1, u2 ,.....,un ) процесса в виде f (u1, u2 ,...,un / H1)  f (u / H1) , можно найти вероятность такого события: pпр   f (u / H1 )du  1  D , значений входного U0 поскольку условные вероятности пропуска сигнала и его правильного обнаружения составляют полную группу событий. Найдем наилучшее правило принятия решения о наличии или отсутствии сигнала на входе обнаружителя. Обозначим постоянные коэффициенты «платы» за ошибки ложной тревоги и пропуска сигнала, как ошибки первого и второго рода П01 и П10 соответственно. Оптимальный приемник, очевидно, должен минимизировать как ошибку первого и второго рода (F и pпр), так и соответствующие платы за них. Однако требования одновременного снижения вероятностей F и pпр невозможно, поскольку эти требования противоречивы. Действительно, снижение вероятности пропуска сигнала pпр  0 до нулевых значений приводит к росту вероятности ложной тревоги до величины F  1 и наоборот. Отсюда следует, что в качестве критерия обнаружения сигнала необходимо выработать компромиссный вариант минимизации ошибок первого и второго рода. В качестве наиболее общего критерия минимизации ошибок обнаружения и платы за них применяют байесовский критерий минимума среднего риска: R  П 01 p( s0 , H1 )  П10 p( s1 , H 0 ) min , (6.2) где П 01, П10 – платы за ошибки первого и второго рода; p( s0 , H1 )  p( s0 ) p( H1 / s0 )  (1  p) F – совместная вероятность отсутствия сигнала на входе приемника и принятия гипотезы H1 в соответствии с формулой Байеса; p( s1, H 0 )  p( s1 ) p( H 0 / s1 )  ppпр  p(1  D) – совместная вероятность наличия сигнала на входе приемника и принятия гипотезы H 0 в соответствии с формулой Байеса; p – априорная вероятность присутствия сигнала на входе премного устройства. Подставим в выражение (6.2) выражения для совместных вероятностей ошибок первого и второго рода: R  П10 ppпр  П 01 (1  p) F min  П10 p pпр  l0 F min , (6.3)      91 П 01 1  p – постоянная величина, имеющая смысл порога П10 p обнаружения. Выражение (6.3) называется байесовским критерием или критерием минимума среднего риска. Эквивалентный критерий можно получить с учетом того, что pпр  1  D , который называется критерием максимума весовой разности: D  l0 F max . (6.4) Подставим в (6.4) интегральные выражения вероятностей правильного обнаружения и ложной тревоги:   f ( u / H ) d u  l f ( u / H ) d u (6.5)   . 1 0  U1 max U1 Объединяя выражения под интегралами и выполняя операцию максимизации подынтегральной разности, получим:  f (u / H1 )   l0  f (u / H 0 )du . (6.6)  f ( u / H ) max U1  где l0  Выражение f (u / H 1 )  l (u ) (6.7) f (u / H 0 ) называется отношением правдоподобия. Из выражения (6.6) следует алгоритм работы оптимального обнаружителя по критерию максимума весовой разности или эквивалентного ему байесовского критерия минимума среднего риска. В соответствии с выражением (6.6) оптимальный обнаружитель детерминированного сигнала на фоне помехи должен вычислить отношение правдоподобия и сравнить его с порогом обнаружения. Если l (u )  l0 , то принимается решение о наличии сигнала в принимаемой смеси, если l (u )  l0 – о его отсутствии. Математически данное утверждение можно представить в следующем виде: H1 f (u / H1 )  1  p П 01 , f (u / H 0 )  p П10 (6.8) H0 1  p П 01 – порог обнаружения байесовского критерия. p П10 Выражение (6.8) показывает, насколько более вероятна гипотеза H1 наличия сигнала в принимаемой входной смеси, по сравнению с гипотезой H 0 его отсутствия. где l0  92 Рассмотрим частные случаи: 1. Пусть плата за пропуск сигнала и ложную тревогу одинаковы П01  П10 . Такая ситуация может возникнуть в цифровых система передачи данных, когда вместо нуля принимается единица и наоборот. В случаях одинаковых плат за ошибки первого и второго рода выражение (6.8) принимает вид: H1 f (u / H1 )  1  p . f (u / H 0 )  p (6.9) H0 Такой критерий обнаружения сигналов называется критерием идеального наблюдателя. Порог обнаружения по критерию идеального наблюдателя имеет вид: 1 p , p где p – априорная вероятность наличия сигнала на входе обнаружителя сигнала. 2. Пусть априорная вероятность появления сигнала на входе обнаружителя неизвестна, либо она одинакова для наличия и отсутствия сигнала на входе приемника, т.е. равна p  0 ,5 . Тогда отношение правдоподобия подлежит сравнению с порогом обнаружения равным единице. Выражение (6.8) в этом случае принимает следующий вид: l0  H1 f (u / H1 )  1, f (u / H 0 )  (6.10) H0 где порог обнаружения l0  1. Соответствующий критерий обнаружения называется критерием максимального правдоподобия. 3. В радиолокационных системах обнаружения наибольшее распространение получил критерий Неймана-Пирсона. В соответствии с этим критерием выбирается минимальная вероятность ложной тревоги F0  106  108 . Соответствующий порог обнаружения l0 рассчитывается исходя из заданного значения F0 . Отношение правдоподобия в соответствии с критерием Неймана-Пирсона сравнивается с рассчитанным поро гом l0 в обнаружителе сигнала H1 f (u / H 1 )   l0 . f (u / H 0 )  (6.11) H0 93 Из представленного анализа следует, что независимо от используемого критерия обнаружения оптимальный обнаружитель детерминированного сигнала вычисляет отношение правдоподобия (6.7) и сравнивает его с порогом обнаружения l0 , рассчитанным в соответствии с применяемым критерием. В случае превышения порога, принимается решение о присутствии сигнала в принимаемой смеси, в противном случае принимается решение о его отсутствии. На рис. 6.2 представлена структурная схема обнаружителя сигнала. (u1, u2 ,.....,un ) H1 l (u ) ПУ l0 H0 Рис. 6.2. Структурная схема обнаружителя сигнала Приведенный анализ позволяет сделать вывод, что оптимальный алгоритм обнаружения детерминированного сигнала на фоне шума не зависит от порога обнаружения l0 . Величина порога влияет на выбор критерия обнаружения и вероятность ложной тревоги F . С порогом обнаружения можно сравнивать как отношение правдоподобия (6.7), так и любую монотонную функцию, например, логарифмическую ln l ( u ) . Как будет показано далее, это упрощает структуру обнаружителя при приеме сигнала на фоне гауссовского шума. 6.3. Алгоритм оптимального обнаружения детерминированного сигнала. Структура оптимального обнаружителя Во многих системах связи и радиолокации возникает задача приема детерминированных (полностью известных) сигналов s(t , λ ) , где  λ  (λ1, λ 2 ,..., λ n ) - вектор известных параметров сигнала на фоне шума n(t ) . При этом возникает задача установления того, присутствует сигнал на входе приемника или отсутствует. Поскольку это обнаружение производится на фоне случайного шума n(t ) , то задача обнаружения является статистической. Принимаемое колебание на входе приемного устройства на интервале наблюдения t  0, T  можно представить в виде суммы:  u(t )  θ  s(t , λ )  n(t ) , 94 где θ – параметр обнаружения сигналов, равный 1 при наличии сигнала и 0 при его отсутствии. По принятой реализации входного колебания u(t) на интервале наблюдения необходимо выяснить, есть сигнал в принимаемой смеси или нет, т.е. произвести оценку параметра: 1, сигнал присутствует на входе приемного устройства, гипотеза H1, θ̂    0, сигнал отсутствует на входе приемного устройства, гипотеза H 0 . В качестве критерия оптимальности будем использовать критерий минимума среднего риска (критерий Байеса), который заключается в минимизации вероятности суммарной ошибки:  R  П 01 p ( s0 , H 1 )  П10 p ( s1 , H 0 )min , где p ( s0 , H1 )  p ( s0 ) p H1 s0  – совместная вероятность отсутствия сигнала, когда при этом принимается гипотеза о его наличии H1 (ошибка первого рода); p ( s1 , H 0 )  p ( s1 ) p H1 s0  – совместная вероятность присутствия сигнала, когда решающее устройство принимает решение об его отсутствии (ошибка второго рода); П 01 и П10 – платы за ошибки первого и второго рода; p ( s1 )  p – априорная вероятность присутствия сигнала на входе приемного устройства; p( s0 )  (1  p ) – априорная вероятность отсутствия сигнала на входе приемного устройства. Условная вероятность D  1  p H 0 s1  – называется вероятностью правильного обнаружения, а F  p H 1 s0  – вероятностью ложной тревоги. Ранее было показано, что оптимальный алгоритм обнаружения сигналов заключается в вычислении отношения правдоподобия l (u ) и сравнении (1  p ) П 01 его с порогом l0  с целью принятия решения о наличии или отpП10  сутствии сигнала s(t , λ ) в принимаемом колебании u(t). Алгоритм работы обнаружителя соответствует правилу   f (u / H1 )  l0 , наличие сигнала,  f (u / H 0 )   l(u )    (6.12) f (u / H1 )    l , отсутствие сигнала,  f (u / H 0 ) 0  где f u H1  условная плотность вероятности распределения выборочных значений (u1, u2 ,.....,un ) на интервале наблюдения, взятых с интервалом  квантования t  ti  ti 1 , при наличии полезного сигнала s(t , λ ) ; 95  f u H 0  условная плотность вероятности распределения выборочных значений принимаемой реализации при отсутствии в ней сигнала  s(t , λ ) . Входной шум n(t) полагаем белым гауссовским со спектральной плотностью мощности равной G(f) = N0 при 0 ≤ f < . Функционал плотности вероятности распределения отрезка гауссовского белого шума n(t) на временном интервале t  [0 ,T ] имеет вид:  1 T 2  W nt   k exp n ( t ) dt (6.13) ,  N 0 0   где k – нормирующий множитель. Подставим выражение (6.13) в отношение правдоподобия (6.12) и получим алгоритм работы оптимального обнаружителя сигналов:  1 T 2  k exp  u t   s t , λ  dt   N0 0  l u (t )    1 T 2      k exp u t dt   N 0 0    2 T  1 T 2  exp  u t  s(t , λ)dt   s (t , λ )dt   N0 0  N0 0     E   exp Z  , N  0 2 T где Z   u t s (t , λ )dt – значение функции взаимной корреляции между N0 0 принимаемым колебанием и ожидаемым детерминированным сигналом (корреляционный интеграл); T E   s 2 (t , λ) dt – энергия сигнала. Учтем, что exp(Z) – функция монотонная, поэтому с порогом в (6.12) удобно сравнивать натуральный логарифм отношения правдоподобия. Найдем логарифм отношения правдоподобия и получим следующее выражение для алгоритма оптимального обнаружения детерминированного сигнала: H1 T  2 E u ( t ) s ( t , λ ) dt , (6.14)   ln l0  N0 0 N0 H0 96 (1  p ) П 01 E , а Z 0  ln l0  – порог обнаружения сигнала. pП10 N0 Из этого алгоритма следует, что оптимальный обнаружитель детерминированного сигнала должен вычислять значение функции взаимной корреляции Z и сравнивать его с порогом Z0. Следовательно, структурная  схема оптимального обнаружителя детерминированного сигнала s(t , λ ) состоит из последовательного соединения взаимно корреляционного (ВКУ) и порогового устройства (ПУ). Взаимно корреляционное устройство состоит из умножителя (УМН), на входы которого поступают соответственно при нимаемое колебание u(t) и обнаруживаемый сигнал s(t , λ ) и интегратора (ИНТ) на время наблюдения t  0, T . В пороговом устройстве осуществляется сравнение выходного значения интегратора Z с порогом Z0 (рис. 6.3). где l0  Рис. 6.3. Структурная схема оптимального обнаружителя полностью известного сигнала Таким образом, алгоритм работы оптимального обнаружителя детерминированного сигнала на фоне белого гауссовского шума заключается в  умножении входной смеси u(t) на обнаруживаемый сигнал s(t , λ ) , интегрировании этого сигнала на интервале наблюдения и подачи результата на вход порогового устройства. На выходе порогового устройства вырабатывается решение (гипотеза H1) о наличии сигнала s(t) при Z ≥ Z0 , или о его отсутствии (гипотеза H0) при Z < Z0 в принимаемой смеси u(t). 6.4. Характеристики обнаружения детерминированного сигнала Определим показатели качества работы оптимального обнаружителя детерминированного сигнала, поступающего на вход приемного устройства в аддитивной смеси с белым гауссовским шумом. Найдем характеристики обнаружения сигнала и определим основные показатели качества его работы. Под характеристикой обнаружения будем понимать зависимость вероятности правильного обнаружения D(q) при фиксированной вероятности ложной тревоги F в зависимости от отношения сигнал/шум q  2E N0 . Для отыскания характеристик обнаружения найдем условные 97 плотности вероятности распределения f Z H1  и f Z H 0  и соответствующие значения вероятностей D(q) и F для случайной величины Z на входе порогового устройства обнаружителя. В соответствии со схемой обработки (рис. 6.3) до порогового устройства входное колебание u(t) подвергается линейному преобразованию. Поскольку выборочные значения входного сигнала распределены по гауссовскому закону распределения, то и на входе порогового устройства выборочные значения Z также будут иметь гауссовское распределение. Найдем математическое ожидание и дисперсию случайной величины Z, имеющей гауссовскую условную плотность вероятности распределения f Z H1  и f Z H 0  . Для случая отсутствия сигнала в принимаемой смеси имеем m0  0, σ 02  Z2  1 2E exp 2  .  , и f (Z / H 0 )  2 N0 2σ0  2σ0  Для случая присутствия сигнала во входной смеси можно найти 2E 2E , и f (Z / H1 )  m1  q  , σ12  σ 02  N0 N0 2  (Z  q 2 )2  exp . 2 2 2 σ 2σ0   1 Найдем вероятность ложной тревоги:  Z 2  F (Z0 )  dZ 1   Z н ,  exp 2 2   2 σ 2σ 0 Z 0  0  1  (6.15)  t2  1 Zн где  Z н    exp  2 dt – интеграл вероятности. В табл. 6.1 пред2     ставлены значения нормированных порогов обнаружения Z н  Z 0  0 для заданных значений F вероятностей ложной тревоги, рассчитанных с использованием выражения (6.15) и таблиц интеграла вероятности. Таблица 6.1 Значения нормированного порога обнаружения при заданных значениях вероятностей ложной тревоги F F 10-1 10-2 10-3 10-4 10-5 10-6 10-7 10-8 10-9 ZН 1,282 2,321 3,090 3,719 4,265 4,753 5,199 5,612 5,998 Аналогично можно найти вероятность правильного обнаружения: 98    Z  q 2 2  D(q)  dZ 1   Zн  q , (6.16)  exp 2 2   2 σ 2σ0 Z 0   где q  2 E N 0 – отношение сигнал/шум на входе приемного устройства. По формуле (6.16) можно рассчитать вероятность правильного обнаружения D детерминированного сигнала в зависимости от отношения сигнал/шум q на входе приемного устройства при фиксированных значениях вероятности ложной тревоги F  const (табл. 6.1). На рис. 6.4 приведено семейство характеристик обнаружения. 1  Рис. 6.4. Характеристики обнаружения полностью известного сигнала На рис. 6.4 представлены характеристики обнаружения, рассчитанные по формуле (6.16). Из них следует, что для повышения вероятности правильного обнаружения D сигнала необходимо увеличивать отношение сигнал/шум q на входе порогового устройства по сравнению с относительным порогом ZН. Значение порога, в соответствии с критерием обнаружения Неймана-Пирсона, выбирается в соответствии с (6.15) для требуемой величины вероятности ложной тревоги F. Тогда повысить вероятность правильного обнаружения D можно только путем увеличения энергии сигнала E. Пороговым отношением сигнал/шум называется минимальное отношение qпор , при котором сигнал еще обнаруживается с заданной вероятностью D* на фоне шума при фиксированной вероятности F*. Его значение может быть найдено из характеристик обнаружения на рис. 6.4. 99 Сигналы, имеющие q  qпор для заданного значения F*, будут иметь D  D . 6.5. Алгоритм оптимального обнаружения сигнала со случайной начальной фазой. Структура оптимального обнаружителя Пусть на входе приемного устройства, на временном интервале t  0, T  наблюдается колебание вида: u(t )  θ  s(t )  n(t )  θ  S cos(ω0t  )  n(t ) , где θ – параметр обнаружения сигналов, который принимает значение θ=1 при наличии сигнала и θ=0 при его отсутствии; S и ω0 – детерминированные параметры амплитуды и частоты сигнала;  – случайная начальная фаза, равномерно распределенная на интервале   0,2π, с плотностью вероятности распределения W ()  1 2 . По принятой реализации входного колебания u(t) на интервале наблюдения t  0, T  необходимо выяснить, есть ли сигнал в принимаемой смеси или нет. Совместно с сигналом действует белый гауссовский шум n(t ) спектральной плотности мощности N0. В результате решения задачи необходимо получить алгоритм работы оптимального обнаружителя сигнала со случайной начальной фазой. Известно, что в результате оптимальной обработки необходимо вычислить отношение правдоподобия и сравнить его с порогом обнаружения:  f (u / H1, )  f (u / H )  l0 , наличие сигнала, l(u , )   (6.17) f (u / H1, )   l0 , отсутствие сигнала.  f (u / H 0 ) Отношение правдоподобия (6.17) является условным, поскольку зависит от случайного параметра . Для получения безусловного отношения правдоподобия произведем его усреднение по случайному параметру: 2π f (u / H1, ) d. l (u )   (6.18) f ( u / H ) После подстановки в (6.18) выражения (6.13) и проведения интегрирования, получим 2π  E  f (u / H1, ) S T 2π l (u )   d  exp    u(t ) cos(ω0t  )dtd. (6.19) 0 f (u / H 0 )  N0 πN0 0 0  Безусловное отношение правдоподобия, после усреднения по случайному параметру  и интегрирования по времени, принимает вид: 100  E   2Z   I 0   , l (u )  exp   N0   N0  (6.20) где Z  Z12  Z 22 – корреляционный интеграл; T Z1  S  u (t ) cos ω0tdt – синфазная составляющая корреляционного ин0 теграла; T Z 2  S  u (t ) sin ω0tdt – квадратурная составляющая корреляционного интеграла; Z1 Z  cos , а 2  sin  – нормированные синфазная и квадратурные Z Z составляющие корреляционного интеграла;  2Z  1 2 π  2Z  I 0     exp cos(  φ)d – модифицированная функция  N 0  2π 0  N0  Бесселя нулевого порядка; T S2 2 E   s t  dt  τc – энергия сигнала; 2 τc – длительность радиоимпульса. Алгоритм работы оптимального обнаружителя сигнала со случайной начальной фазой заключается в сравнении отношения правдоподобия (6.20) с порогом, согласно выражению (6.17). Учитывая, что модифицированная функция Бесселя является монотонно возрастающей функцией своего аргумента, с порогом обнаружения можно сравнивать корреляционный интеграл: H1 Z  Z12  Z 22  Z0 ,  (6.21) H0 где Z0 – порог обнаружения. Алгоритм работы обнаружителя (6.21) сводится к вычислению двух квадратурных составляющих, их суммированию и вычислению квадратного корня. На рис. 6.5 показана структурная схема оптимального обнаружителя сигналов со случайной начальной фазой. Она представляет собой схему с двумя квадратурными каналами, в каждом из которых осуществляются операции умножения, интегрирования и возведения в квадрат. Опорные напряжения в каналах сдвинуты по фазе друг относительно друга на π/2. 101 Наличие двух квадратурных каналов позволяет получить результат обработки Z, не зависящий от начальной фазы входного колебания. Рис. 6.5. Структурная схема оптимального обнаружителя сигнала со случайной начальной фазой 6.6. Характеристики обнаружения сигнала со случайной начальной фазой Определим показатели качества обнаружения сигнала со случайной начальной фазой. Для этого необходимо вычислить плотности вероятности распределения огибающей сигналов Z при наличии и отсутствии во входной смеси случайного сигнала. Известно, что огибающая гауссовского шума будет распределена по закону Релея, а смесь сигнала и шума – по закону Релея-Райса:  Z2  Z f Z H 0   2 exp  2  , σ  2σ  (6.22)  Z 2  E 2   ZE  Z I0  f Z H1   2 exp  2   σ 2  , σ 2 σ   где σ 2  EN0 2 – дисперсия шума на входе порогового устройства. Для нормированного значения корреляционного интеграла Z н  Z 0  можно найти вероятности ложной тревоги и правильного обнаружения сигнала:   Z2   Z н2   dZ  exp   F   Z exp    2 , 2 Zн     (6.23) 2 2   Z q   I 0 Zq  dZ , D   Z exp   2 Zн   где q  2 E N 0 – отношение сигнал/шум. В табл. 6.2 представлены значения нормированных порогов обнаружения Z н  Z 0  для заданных значений F вероятностей ложной тревоги, рассчитанные с использованием выражения (6.23). 102 Таблица 6.2 Значения нормированного порога обнаружения при заданных значениях вероятностей ложной тревоги F F ZН 10-1 2,146 10-2 3,0349 10-3 3,7169 10-4 10-5 4,2919 4,7945 10-6 5,2565 10-7 5,6777 10-8 6,0697 10-9 6,4379 Характеристики обнаружения сигнала со случайной начальной фазой имеют тот же вид, что и при известной начальной фазе, но лежат несколько правее. Это свидетельствует о том, что при заданной вероятности ложной тревоги и правильного обнаружения в обнаружителе сигнала со случайной начальной фазой имеется проигрыш в 1,1-1,34 раза в отношении сигнал/шум по мощности по сравнению с обнаружителем детерминированного сигнала. 6.7. Алгоритм оптимального обнаружения сигнала со случайными амплитудой и начальной фазой. Структура оптимального обнаружителя Пусть на входе приемного устройства, на временном интервале t  0, T  наблюдается колебание вида: u(t )  θs(t, a, )  n(t )  θas(t ) cos(ω0t  )  n(t ) , где θ – параметр обнаружения сигналов, равный 1 при наличии сигнала и 0 при его отсутствии; s (t ) – огибающая сигнала; n(t ) – белый гауссовский шум; a,  – случайные амплитуда и начальная фаза. Пусть случайная амплитуда сигнала распределена по закону Релея:  a2  a f ( a )  2 exp  2  , a  0. а  2 а  Случайная начальная фаза , как и ранее, имеет равномерный закон распределения на интервале   0,2π, с плотностью вероятности f ()  1 2 . Для рассматриваемого случая безусловное отношение правдоподобия можно получить путем усреднения исходного отношения по случайным параметрам a и  [8]:  2 l (u )    l (u / a, ) f ( a ) f ()dad , (6.24) 0 0 где условное отношение правдоподобия для гауссовской статистики белого шума имеет вид 103  2 T  1 T 2 l (u / a, )  exp  u(t ) s(t , a, )dt  s (t , a, )dt .  N0 0  N0 0  (6.25) Подставляя f ( ) , f (a ) , выражение (6.25) в (6.24) и производя операции интегрирования, получим  2 2а Z12  N0 l (u )  exp  (6.26) , N0  E N ( N  E )   где E  2 E12а – средняя энергия сигнала; 1T 2 E1   s (t , a, )dt – энергия сигнала при a  1 ; 20 N0 – спектральная плотность мощности белого гауссовского шума; 2 2 T  T  Z 2 2 Z1   z1  z2    u(t ) s(t ) cos 0tdt     u (t ) s (t ) sin 0tdt  – a 0  0  корреляционный интеграл. Отношение правдоподобия (6.26) является монотонной функцией корреляционного интеграла, поэтому его можно сравнивать с порогом обнаружения в соответствии с алгоритмом работы оптимального обнаружителя: T 2 T 2 H1    Z0 .   u (t )s(t ) cos 0tdt     u(t )s(t ) sin 0tdt   0  0  (6.27) H0 Выражение (6.27) дает алгоритм работы оптимального обнаружения сигнала со случайной амплитудой и начальной фазой на фоне аддитивного белого гауссовского шума. На рис. 6.6 представлена структурная схема оптимального обнаружителя. Устройство обнаружения, как и в случае обнаружителя сигнала со случайной начальной фазой, представляет собой квадратурный приемник. В приемном устройстве осуществляется умножение входного сигнала на квадратурные гармонические сигналы на несущей частоте, их интегрирование, возведение в квадрат, извлечение квадратного корня и сравнение с порогом Z 0 . Произведем оценку качества работы обнаружителя сигнала со случайной амплитудой и начальной фазой. 104 Рис. 6.6. Структурная схема оптимального обнаружителя сигнала со случайными начальной амплитудой и фазой 6.8. Характеристики обнаружения сигнала со случайными амплитудой и начальной фазой Произведем оценку качества работы оптимального обнаружителя сигналов со случайными амплитудой и начальной фазой на фоне белого гауссовского шума. В случае отсутствия сигнала в принимаемом сигнале на интервале наблюдения на входе порогового устройства шум распределен по закону Релея:  Z12  Z1 f Z1 H 0   2 exp  2  , (6.28) 1 2   1  EN где обозначено 12  1 0 – дисперсия шума на входе порогового 2 устройства. Выражение (6.28) позволяет найти вероятность ложной тревоги для заданного значения порога Z0 :   Z  F   f Z1 H 0  dZ1  exp  02  . Z0  21  (6.29) В случае присутствия сигнала в принимаемом колебании на входе оптимального обнаружителя условная плотность вероятности распределения сигнала перед пороговым устройством распределена по закону Релея-Райса:  Z12  a 2 E12   Z1aE1  Z1 I0  , f Z1 H1, a   2 exp  (6.30) 2 2    1 2   1    1  где I 0 ( x) – модифицированная функция Бесселя нулевого порядка. Выражение (6.30) усредним по случайными амплитуде входного сигнала, имеющее релеевское распределение: 105   2 Z1 Z12  . (6.31) f Z1 H1   exp  2 2 2 2  N 0 E1  2 a E1  N 0 E1  2 a E1  Интегрируя выражение (6.31), получим вероятность правильного обнаружения сигнала со случайными амплитудой и начальной фазой при наличие порога обнаружения Z0 : 2   Z . (6.32) D   f Z1 H1  dZ1  exp  2 2  Z0  N 0 E1 1  2 a E1 N 0  Выражения (6.29) и (6.32) позволяют рассчитать характеристики обнаружения сигнала со случайными амплитудой и начальной фазой. При a  1 и 2a  0,5 эти выражения связывает между собой простое соотношение:   1  1 2 (6.33) D  F 1 E1 N 0  F 1 q 2 , где q  2 E N 0 – отношение сигнал/шум. Последнее выражение (6.33) позволяет провести расчет и построение характеристик обнаружения сигналов со случайными амплитудой и начальной фазой, показанных на рис. 6.7. Рис. 6.7. Характеритстики обнаружения сигнала со случайными амплитудой и начальной фазой 106 Из рис. 6.7 видно, что, в отличие от характеристик обнаружения сигнала со случайной начальной фазой для заданного значения ложной тревоги F , наблюдается проигрыш в отношении сигнал/шум для больших вероятностей правильного обнаружения. На рис. 6.8 приведены характеристики обнаружения для сигнала со случайной начальной фазой и со случайной амплитудой и начальной фазой при вероятности ложной тревоги F  10  6 . Из графика видно, что потери в отношении сигнал/шум для D  0,5 увеличиваются примерно в два раза 6/3≈2, т.е. ~6 дБ. Значит для компенсации этих потерь необходимо увеличить мощность передатчика РЛС в два раза. Рис. 6.8. Сравнение характеристик обнаружения для сигнала со случайной начальной фазой и со случайными амплитудой и начальной фазой 6.9. Согласованный фильтр Корреляционный приемник не является единственным видом реализации алгоритма оптимальной обнаружения сигнала на фоне белого гауссова шума (БГШ). В радиолокационных и других системах типичной ситуацией является отсутствие информации о моменте появления сигнала на входе приемного устройства. При неизвестном моменте прихода сигнала для его обнаружения корреляционный приемник должен быть многоканальным по времени запаздывания сигнала t3 . В этом случае аппаратные затраты увеличиваются пропорционально количеству каналов приемного устройства. Поэтому на практике вместо многоканального корреляционного устройства часто применяют согласованный фильтр (СФ). 107 Пусть на вход обнаружителя на временном интервале наблюдения t  [ 0, T ] действует аддитивная смесь детерминированного сигнала s (t ) и белый гауссовский шум со спектральной плотностью мощности N0 : u (t )  s(t )  n (t ) . Ранее было показано, что оптимальным обнаружителем такого сигнала является корреляционный приемник, выполняющий вычисление корреляционного интеграла вида: 2 T Z (6.34)  u(t ) s(t )dt N0 0 и сравнение его с порогом обнаружения. Фильтр, выполняющий операцию вычисления корреляционного интеграла (6.34) независимо от временного запаздывания сигнала, называется согласованным с сигналом s (t ) . Покажем, что фильтр, имеющий импульсную характеристику g (t )  k0s(t0  t ) , (6.35) где k0 ,t0 – постоянные, выполняет инвариантно во времени операцию вычисления корреляционного интеграла (6.34). Пусть на вход фильтра, показанного на рис. 6.9, который далее будем называть согласованным, с импульсной характеристикой (6.35) поступает сигнал uвх (t ) . Рис. 6.9. Согласованный фильтр Найдем выходной сигнал u вых ( t ) , как свертку входного сигнала и импульсной характеристики (6.35) через интеграл Дюамеля: t uвых (t )   uвх (t ) g (t  t )dt  . (6.36)  Подставляя в (6.36) импульсную характеристику (6.35) и учитывая, что g (t  t )  k0 s(t   t  t0 ) , получим на выходе СФ: t t uвых (t )   uвх (t ) g (t  t )dt   k0  uвх (t ) s(t   t  t0 )dt .  (6.37)  В соответствии с выражением (6.37) на выходе СФ с точностью до постоянного множителя k0 вычисляется взаимно корреляционная функция входного процесса uвх (t ) и сдвинутого во времени сигнала s (t ) . В момент времени t  t0 , для k 0  2 N 0 выходное значение напряжения равно: 108 2 t0 uвых (t0 )  (6.38)  uвх (t )s(t )dt  Z . N0 0 Проведенный анализ показывает, что на выходе СФ выполняется операция вычисления корреляционного интеграла независимо от временного положения входного сигнала. По определению согласованным фильтром сигнала s (t ) называется фильтр, импульсная характеристика которого с точностью до постоянного коэффициента k0 является зеркальным отображением (относительно оси ординат) сигнала s (t ) , сдвинутого по временной оси вправо на величину t0 . Найдем ограничения на временное запаздывание t0 . Пусть сигнал s (t ) имеет вид, показанный на рис. 6.10 сплошной линией на временном интервале t  [tн , tк ] . Для построения импульсной характеристики СФ построим зеркальное отображение этого сигнала s (  t ) относительно оси ординат, показанное на рисунке тонким пунктиром. Рис. 6.10. Временные диаграммы сигнала и его зеркального отображения Построим импульсную характеристику СФ для частного случая k 0  1 . Для этого сдвинем зеркально отображенный сигнал s (  t ) по оси времени вправо на величину t0 . По определению импульсная характеристика фильтра является откликом выходного сигнала на входное воздействие в виде uвх (t )  (t ) в момент времени t  0 . Исходя из условия физической реализуемости, отклик не может начаться ранее входного воздействия. Поэтому временной сдвиг t0  tк не может начаться ранее окончания входного сигнала s (t ) . 109 Проведенный анализ показывает, что для обнаружения сигнала с неизвестным временным запаздыванием в аддитивной смеси с шумом вместо корреляционного приемника может быть использован СФ (рис. 6.11). Рис. 6.11. Структурная схема оптимального обнаружителя на базе согласованного фильтра На выходе СФ в момент времени t0  tк происходит вычисление корреляционного интеграла Z , который поступает на устройство сравнения с порогом обнаружения Z0 . 6.10. Частотная характеристика согласованного фильтра Пусть обнаруживаемый плотность вида: сигнал s (t ) имеет спектральную  S ( j)   s (t ) exp( jt )dt  S () exp[ j()] , (6.39)  где S () – амплитудный спектр сигнала;  () – фазовый спектр сигнала. Найдем комплексный коэффициент передачи СФ как Фурье-преобразование от его импульсной характеристики:  K ( j)   g (t ) exp(  jt )dt  K () exp[ j()] . (6.40)  Подставим в (6.40) выражение для импульсной характеристики СФ (6.35), получим  K ( j)  k0  s (t0  t ) exp(  jt )dt .  Перейдем к новой переменной t   t0  t в выражении под интегралом  K ( j)  k0 exp(  jt0 )  s (t ) exp( jt )dt   k0 exp(  jt0 ) S  ( j) , (6.41)  где S  ( j)  S () exp[ j()] сигнала s (t ) . 110 – комплексно-сопряженный спектр Подставляя в выражение (6.41) выражение (6.39) и приравнивая действительные и мнимые части полученных выражений, получим:  K ()  k0 S (), (6.42)   (  )   [  (  )   t ] .  Из (6.42) видно, что передаточная функция СФ с точностью до постоянного множителя k0 совпадает с амплитудным спектром сигнала, а фазочастотная характеристика (ФЧХ) СФ с обратным знаком совпадает с фазовым спектром сигнала и имеет временное запаздывание на время t0 на выходе СФ. Физический смысл первого равенства выражения (6.42) – передача на выход СФ наиболее интенсивных частотных компонент сигнала. Последнее утверждение можно интерпретировать как «поддерживаем сильных». Второе равенство выражения (6.42) t0  [()  ()] свидетельствует о том, что в момент времени t0 вычисления корреляционного интеграла Z в СФ происходит компенсация временных задержек спектральных компонент сигнала и их синфазное суммирование. В результате этого на выходе СФ появляется сигнал, амплитуда которого пропорциональна сумме спектральных составляющих входного колебания s (t ) . 6.11. Свойства согласованного фильтра 1. Найдем отношение сигнал/шум на выходе СФ в момент максимума сигнала на его выходе t  t 0 . Из выражения (6.38) имеем: t0 t0  t0 2   (6.43) uвых (t 0 )  k 0  [ s (t )  n(t )]s (t ) dt  k 0   [ s (t ) dt   n(t ) s (t ) dt  .   Первый интеграл пропорционален энергии входного сигнала uвых (t0 )  k0 Ec . Второй интеграл соответствует флуктуационной (шумовой) компоненте БГШ. Мощность (дисперсию) флуктуационной компоненты найдем в виде:  2 t0 t0  N 2   M k0   n(t )n(t ) s (t ) s (t ) dtdt   k02 0 Ec , 2  00  t 0  N с учетом того, что M   n(t ) n(t  ) dt   0 ( ) – АКФ БГШ. Отношение 0  2 сигнал/шум на выходе СФ для произвольного сигнала равно: q u вых (t 0 )   2Ec . N0 (6.44) 111 Отношение сигнал/шум на выходе СФ не зависит от формы сигнала, а определяется его энергией и спектральной плотностью мощности шума. 2. Покажем, что отношение сигнал/шум на выходе согласованного фильтра максимально и равно q  2 Ec N 0 по сравнению с любым другим фильтром с передаточной функцией K ( j ) . Пусть на вход фильтра с произвольным коэффициентом передачи K ( j ) поступает сигнал со спектральной плотностью S ( j) и БГШ со СПМ N0 . Найдем отношение сигнал/шум на выходе такого фильтра: u (t ) q  вых 0 .  Для максимума сигнала на выходе фильтра имеем: 1  uвых (t0 )   S ( j) K ( j) exp( jt )d . 2   (6.45) Мощность шума на выходе фильтра равна: N0 1  2   K ( j) d .  2 2   2 Применим к выражению (6.45) неравенство Шварца-Буняковского:     2 2  F ( x )  ( x ) dx  F ( x ) dx  ( x ) dx  .         Тогда для отношения сигнал/шум на выходе фильтра получим:   2  S ( j) d q  q0   N0 2  2 Ec . N0 Таким образом, любой другой фильтр, отличающийся от СФ, дает на выходе отношение сигнал/шум меньшее, чем согласованный. 3. Форма сигнала на выходе СФ без шума с точностью до постоянного множителя k0 совпадает с его АКФ сдвинутой на время длительности сигнала tc  t0 . Для проверки нашего утверждения найдем сигнал на выходе СФ, как свертку входного сигнала с ИХ согласованного фильтра. Из выражения (6.37) получим: t t uвых (t )   uвх (t ) g (t  t )dt  k0  s(t ) s(t   t  t0 )dt  k0 R(t  t0 ) ,  112  t где R( )   s(t ) s(t   )dt  – АКФ сигнала s (t ) .  Таким образом, видно, что сигнал без шума (с малым уровнем шума) на выходе СФ с точностью до постоянного множителя совпадает с его АКФ, сдвинутой вправо по оси абсцисс на длительность сигнала. 6.12. Обнаружение пачки импульсных сигналов. Когерентный обнаружитель пачки импульсов Сигнал, отраженный от точечной цели обзорной РЛС кругового режима работы, представляет собой пачку радиоимпульсов, модулированных диаграммой направленности антенны F 2 () (за счет двукратного распространения до цели и обратно) в азимутальной плоскости. Пусть антенна РЛС имеет ширину диаграммы направленности   и вращается равномерно со скоростью  об/мин. Примем, что время облучения главным лепестком диаграммы направленности антенны равно T0    , а период следования зондирующих импульсов T1 . Тогда на входе приемного устройства РЛС принимается пачка из N  T0 T1   T1 импульсов. В зависимости от назначения РЛС пачка из N импульсов может обладать свойством когерентности. Импульсы когерентны, если начальные фазы отдельных импульсов несущего колебания одинаковы, или изменяются по детерминированному закону. В противном случае начальные фазы импульсов являются случайной величиной, а сама пачка является некогерентной. В приемном устройстве РЛС возникает задача обнаружения пачки импульсов. Пусть на вход обнаружителя поступает аддитивная смесь когерентной пачки из N импульсов с весами ki и шум. Согласованный фильтр для такого сигнала имеет ИХ, зеркально отображенную относительно оси ординат и сдвинутую вправо на длительность пачки. Весовые коэффициенты СФ ki будут располагаться в обратном порядке. На рис. 6.12 представлена структура оптимального обнаружитель пачки радиоимпульсов. Рис. 6.12. Оптимальный обнаружитель пачки радиоимпульсов 113 Она состоит из последовательного соединения СФ для одиночного радиоимпульса СФ0 и согласованного фильтра на пачку импульсов СФN, суммируемых с учетом их весовых коэффициентов ki с точностью до начальных фаз гармонического заполнения отдельных импульсов. Согласованный фильтр СФ0 с прямоугольной огибающей может быть реализован из последовательного соединения высокодобротного резонансного усилителя (ВРУ), радиочастотной линии задержки ЛЗ0 на длительность импульса и вычитающего устройства с точностью до начальной фазы частоты заполнения импульса. При подаче на вход такого устройства дельта-импульса на выходе формируется парциальный импульсный сигнал. Согласованный фильтр для пачки импульсов (СФN) представляет собой трансверсальный (весовой) фильтр. Структурная схема фильтра СФN показана на рис. 6.13. Рис. 6.13. Структурная схема для пачки импульсов Он состоит из линии задержки ЛЗ0 с отводами на время запаздывания периода повторения зондирующих импульсов, весовых коэффициентов ki и сумматора. Техническая реализация такого устройства представляет собой достаточно сложную задачу, поскольку суммирование парциальных импульсов осуществляется на радиочастоте с точностью до фазы гармонического сигнала. На практике, как правило, начальная фаза входного сигнала неизвестна, поэтому когерентную обработку пачки импульсов выполняют на видеочастоте, например, в квадратурном приемнике (см. рис. 6.14). Накопитель в приемнике (НАК) представляет собой последовательное соединение СФ0 и СФN на видеочастоте, что существенно упрощает процесс обработки сигнала. Когерентное накопление пачки из N импульсов c прямоугольной огибающей увеличивает отношение сигнал/шум. Так, если отношение сигнал/шум по одному импульсу q0 , то при накоплении пачки оно равно q N  q0 N . Последнее можно объяснить тем, что импульсы пачки суммируются по амплитуде, а шум по мощности. Платой за такое увеличение сигнальной компоненты выражается в существенном усложнении устройства обработки. 114 Рис. 6.14. Оптимальный обнаружитель когерентной последовательности радиоимпульсов 6.13. Некогерентный обнаружитель пачки импульсов Пусть на вход приемного устройства РЛС поступает некогерентная пачка из N импульсов. Начальные фазы импульсов неизвестны и случайны. Обработка таких импульсов возможна после выделения их огибающей путем последетекторного накопления. Поскольку детектор является нелинейным элементом, то такая обработка сигналов приводит к потерям в отношении сигнал/шум по сравнению с когерентной. Для некогерентной пачки радиоимпульсов со случайной начальной фазой отношение правдоподобия можно представить в виде произведения отдельных отношений правдоподобия для каждого импульса, поскольку они статистически независимы. Тогда отношение правдоподобия пачки имеет вид: N l (u )   li (u ) , (6.46) i 1 где li (u ) – безусловное отношение правдоподобия для одиночного импульса со случайной начальной фазой. Для случая гауссовской статистики помехи имеем  E   2Z  li (u )  exp  i  I 0  i  ,  N0   N0  (6.47) где Ei – энергия парциального импульса; 2 ti   Zi   u (t )si (t )dt – корреляционный интеграл в момент максимальN 0 ti ного значения на выходе СФ i-го импульса. В соответствии с оптимальным алгоритмом работы обнаружителя пачки радиоимпульсов отношение правдоподобия (6.46) сравнивается с порогом обнаружения. После подстановки в (6.46) выражения (6.47) и его логарифмирования имеем: 115 H1  2Z i    Z 0 , N  0 N  ln I 0  i 1 (6.48) H0 где Z0 – порог обнаружения. Учитывая монотонность логарифмической функции и функции I 0 () , с порогом обнаружения можно сравнивать суммы корреляционных интегралов импульсов: H1 N  Zi i 1  Z0 .  (6.49) H0 Структурная схема обработки имеет вид, показанный на рис. 6.15. Рис. 6.15. Оптимальный обнаружитель некогерентной пачки из N импульсов В соответствии с алгоритмом (6.49) осуществляется согласованная фильтрация одиночных импульсов, выделение их огибающей, суммирование максимумов выходных значений и сравнение суммы с порогом. Оптимальная характеристика детектора огибающей импульсов выбирается из аппроксимации нелинейного преобразования функции:  x 2 4 , для x  1, ln I 0 ( x)   (6.50) x , для x  1 .  Из выражения (6.50) видно, что для сигналов с малым отношением сигнал/шум детектор должен быть квадратичным, а для сигналов с большим отношением – линейным. Можно показать, что накопление импульсных сигналов пачки из N импульсов неэффективно при отношении сигнал/шум по одиночному импульсу q0  1. Потери в накоплении таких сигналов   N . 6.14. Накопитель пачки импульсов с логикой «k из N» Пусть на входе обнаружителя наблюдается аддитивная смесь пачки из N некогерентных радиоимпульсов с прямоугольной огибающей и БГШ. Найдем вероятности правильного обнаружения и ложной тревоги при работе обнаружителя некогерентных радиоимпульсов с логикой «k из N». Структурная схема такого обнаружителя показана на рис. 6.16. 116 Рис. 6.16. Структурная схема обнаружителя некогерентных радиоимпульсов с логикой «k из N» Обнаружитель состоит из согласованного фильтра на одиночный импульс пачки (СФ0), детектора (Дет), бинарного квантователя (БК) с порогом квантования Z 0 по одиночному импульсу. На выходе БК появляется сигнал «логическая единица», если входной сигнал превышает порог Z 0 и «логический ноль» в противном случае. Логический обнаружитель принимает решение о наличие пачки, если порог обнаружения превышает не менее k входных импульсов, в противном случае принимается решение о её отсутствии. Поскольку вместо последетекторного накопителя в устройстве применен более простой логический обнаружитель, в нем появляются дополнительные по сравнению с некогерентным накопителем потери в отношении сигнал/шум. Пусть вероятность ложной тревоги на входе БК равна F0 . Тогда вероятность того, что k входных импульсов пачки одновременно превысят порог БК, равна: F  CNk F0k (1  F0 ) N  k , (6.51) N! – биномиальный коэффициент равный числу сочетаk!( N  k )! ний из N импульсов пачки по произвольным k импульсам. Решение о ложной тревоге пачки импульсов принимается, так же, если превышение произошло для n  k импульсам: где C Nk  N F   C Nk F0k (1  F0 ) N  k . (6.52) k n Выражение (6.52) дает суммарную вероятность ложной тревоги логического обнаружителя. В соответствии с критерием обнаружения НейманаПирсона, по заданной вероятности ложной тревоги F обнаружителя выбирается порог бинарного квантователя, равный Z0 . Найдем вероятность правильного обнаружения пачки некогерентных импульсов логического обнаружителя. Пусть вероятность правильного обнаружения одиночного импульса пачки равна D0 . Тогда вероятность того, что k импульсов пачки одновременно превысят порог БК, равна: 117 D  CNk D0k (1  D0 ) N k . (6.53) Решение об обнаружении пачки импульсов принимается, если порог БК превышает n  k входных импульсов: N D   C Nk D0k (1  D0 ) N  k . (6.54) k n Выражения (6.52) и (6.54) позволяют найти вероятности ложной тревоги и правильного обнаружения логического устройства и построить характеристики обнаружения. Анализ полученных формул показывает, что для заданного значения импульсов пачки N существует оптимальное значение числа обнаруживаемых импульсов k , для которых потери в отношении сигнал/шум по сравнению с оптимальным некогерентным накопителем будут минимальными. Найденное значение равно k  1,5 N . Возникающие при этом потери малы и не превышают величины 1дБ. 6.15. Обнаружитель сигналов на фоне небелого шума Пусть на вход радиолокационного обнаружителя сигналов поступает аддитивная смесь сигнала и гауссовского шума (6.55) u (t )  s(t )  n (t ) , где s (t ) – детерминированный сигнал; n (t ) – гауссовский шум с известной АКФ R() . Параметр  может принимать два дискретных значения:  1, сигнал есть,  0, сигнала нет. Входной процесс на интервале наблюдения t  [0, T ] представлен своими выборочными значениями в моменты времени, выбранные в соответствии с теоремой Котельникова. На этом интервале входной процесс (6.55) представим в виде: U  S  N , (6.56) где U  (u1 , u 2 ,..., u m ); S  (s1 , s 2 ,..., s m ); N  (n1 , n2 ,..., nm ) – векторы отсчетов принятой реализации, полезного сигнала и шума, причем ui = ui(ti), si = si(ti), ni = ni(ti), i  [1, m ] . Шум не является белым, поэтому шумовые отсчеты будут коррелированы. Обозначим через R корреляционную матрицу шумовых отсчетов размер m x m. 118 В соответствии с ранее рассмотренным правилом, оптимальный обнаружитель детерминированного сигнала на фоне гауссовского шума должен вычислить отношение правдоподобия и сравнить его с порогом обнаружения H1 l (U)  f ( U / H1 )  l0 . f (U / H 0 )  (6.57) H0 Условные плотности вероятности выборочных значений входного процесса для гауссовской статистики при отсутствии и наличии сигнала, соответственно имеют вид: 1  1 T 1  f (U / H 0 )  exp (6.58)   U R U , m 2 12 2   (2) R  1  T 1 exp  ( U  S ) R ( U  S )  , m 2 12 2   (2) R R – детерминант корреляционной матрицы; f (U / H1 )  где 1 (6.59) R 1 – матрица обратная матрице R; (U  S)T – транспонированный вектор-столбец (вектор-строка) разности отсчетов входной смеси и сигнала. Подставим выражения (6.58) и (6.59) в отношение правдоподобия (6.57) и получим  1  exp  (U  S) T R 1 (U  S)  H1  2  l . l (U)  (6.60)  1 T 1   exp  U R U  H0  2  Если взять логарифм от левой и правой частей выражения (6.60) и преобразовать обе части выражения, получим: H1  1 T 1 S R U  U T R 1S  S T R 1S ln l0 . 2    (6.61) H0 Учтем, что матрицы R и R-1 являются симметричными, поэтому обладают свойством RR-1 = Im, где Im – единичная диагональная матрица размера ( m  m ) . Тогда выражение (6.61) с учетом того, что ST R 1U  UTR 1S , можно представить в виде: 119 H1 S T R  1S    U R S ln l0   Z0 ,   2   H0  T 1 (6.62) где Z0 – порог обнаружения, поскольку ST R 1S является скалярной величиной и не зависит от входного процесса u (t ) . Из выражения (6.62) следует алгоритм работы оптимального обнаружения детерминированного сигнала на фоне коррелированного гауссовского шума. На рис. 6.17 показана структурная схема обнаружителя. Алгоритм работы обнаружителя заключается в вычислении корреляционного интеграла Z  UTR 1S и сравнения его с порогом обнаружения Z0 . В случае превышении порога обнаружения порогового устройства (ПУ) принимается решение о наличии сигнала в принимаемой смеси (гипотеза H1 ). В противном случае принимается решение об отсутствии сигнала на входе обнаружителя (гипотеза H 0 ). Рис. 6.17. Оптимальный обнаружитель детерминированного сигнала на фоне коррелированного гауссовского шума Алгоритм работы обнаружителя может быть реализован с помощью так называемого «обеляющего» фильтра. Известно, что если корреляционная матрица R-1 является симметричной, то её можно представить в виде произведения двух нижних треугольных матриц V T и V той же размерности: R 1  VTV . (6.63) Алгоритм обнаружения (6.62) с учетом (6.63) примет вид 120 H1 (U T V T )(VS)  U TV S V   Z0 , (6.64) H0 где UTV  UTVT и SV  VS – два матричных фильтра, осуществляющих предварительную обработку входной смеси и сигнала перед сравнением их произведения с порогом обнаружения. Структурная схема обработки показана на рис. 6.18. Рис. 6.18. Оптимальный обнаружитель детерминированного сигнала на фоне шума с использованием «обеляющего» фильтра Выясним смысл предварительного преобразования входной смеси и сигнала. Если на входе обнаружителя присутствует только один шум, то это приводит к его так называемому «обелению» (декорреляции входных отсчетов) перед матричным умножением. Корреляционная матрица шума на выходе матричного умножителя: K V  M N V NTV  VM NNT V T  VRVT  V(V T V) 1 V T  I m ,  - операция статистического усреднения отсчетов; I – единичная где M  диагональная мтарица. Если на входе обнаружителя присутствует смесь полезного исгнала и шума, то в результате матричного умножения на V T и V выполняется декорреляция входных отсчетов шума и преобразование входного сигнала. Матричный умножитель производит операцию умножения и суммирования входных отсчетов, эквивалентную операции вычисления корреляционного интеграла в оптимальном обнаружителе. Другими словами, обработка сигнала на фоне коррелированного шума заключается в преобразовании входной реализации и вычислении взаимно-корреляционного интеграла входного процесса и преобразованного сигнала. Рассмотрим процесс оптимальной обработки сигнала на фоне коррелированного шума в частотной области. Пусть на вход обнаружителя по-     121 ступает аддитивная смесь, детерминированного сигнала S ( j) и коррелированного шума, с неравномерной по частоте спектральной плотности мощности Gn () . Предположим, что энергетический спектр шума не обращается в ноль в интересующем нас диапазоне частот. Найдем амплитудночастотную характеристику «обеляющего» фильтра в виде 2 Gn ( ) KV ( j)  const , откуда 2 K V ( j)  Найдем C , С  const. Gn () после «обеляющего» спектр сигнала фильтра SV ( j)  S ( j) KV ( j) . Амплитудно-частотная характеристика (АЧХ) фильтра для оптимальной обработки сигнала SV ( j) на фоне белого шума (согласованного фильтра) без учета фазового множителя имеет вид: K0 ( j)  k0 S  ( j) KV ( j) . Тогда амплитудно-частотная характеристика фильтра для оптимальной обработки сигнала S ( j) на фоне коррелированного (небелого) шума находится как произведение АЧХ «обеляющего» и согласованного фильтров S  ( j)   K ( j)  KV ( j) K 0 ( j)  k 0 S ( j) KV ( j) KV ( j)  k  , (6.65) Gn () где k   k0C . Из выражения (6.65) видно, что в схеме обнаружителя сигнала на фоне коррелированного (небелого) шума выполняется две основные операции – декорреляция отсчетов входной помехи (функция знаменателя) и оптимальное накопление составляющих спектра входного сигнала на фоне белого шума (функция числителя). 6.16. Различение двоичных детерминированных сигналов Передача информации часто осуществляется поочередно детерминированными (т.е. точно известными) сигналами si(t), где i = 1, 2, …, N, которые принимаются на фоне шума. При этом возникает задача различения этих сигналов, т.е. задача установления того, какой именно сигнал принимается. Поскольку это различение производится на фоне случайного шума n(t), то задача различения является статистической. Если используются лишь два сигнала s1(t) и s2(t), т.е. сигналы являются двоичными, то принимаемое колебание можно представить в виде суммы u(t) = θs1(t) + (1 – θ)s2(t) + n(t), 122 где  – параметр различения сигналов, равный 1 при наличии первого сигнала и 0 при наличии второго сигнала. По принятой реализации входного колебания u(t) необходимо выяснить, какой из двух возможных сигналов присутствует в указанной реализации, т.е. определить величину ̂ . В качестве критерия оптимальности будем использовать критерий «идеального наблюдателя», который заключается в минимизации вероятности суммарной ошибки: Pош = {P(s1)P(s2/s1) + P(s2)P(s1/s2)}min, где P(s1) и P(s2) – априорные вероятности присутствия каждого из сигналов в принимаемом колебании (они считаются известными, а их сумма равна единице), а P(s2/s1) и P(s1/s2) – условные вероятности ошибочных решений о наличии каждого из сигналов (они также называются вероятностями перепутывания сигналов); Р(s2/s1) – вероятность принятия решения о наличии во входной реализации сигнала s2, если был передан s1, Р(s1/s2) – вероятность принятия решения о наличии во входной реализации сигнала s1, если был передан s2. Можно показать, что оптимальный алгоритм различения сигналов заключается в вычислении отношения правдоподобия L(u) и сравнении его с порогом L0 = P(s2)/P(s1) с целью принятия решения о наличии сигнала s1(t) или s2(t) в принимаемом колебании u(t) по правилу f u s1  L (u )   L0 – присутствует сигнал s1(t), f u s 2  (6.66) f u s1  L (u )   L0 – присутствует сигнал s2(t), f u s 2  где f u s1  условная плотность вероятности распределения принимаемой реализации u(t) сигнала и шума при наличии в ней сигнала s1(t); f u s2  условная плотность вероятности распределения принимаемой реализации u(t) сигнала и шума при наличии в ней сигнала s2(t). Входной шум n(t) полагаем белым гауссовским со спектральной плотностью мощности (энергетическим спектром), равной G(f) = N0 при f  0 . Функционал плотности вероятности распределения отрезка гауссовского белого шума n(t) на временном интервале [0, T] имеет вид:  1 T 2  f n(t )   k exp n ( t ) dt (6.67) ,  N 0 0   где k – нормирующий множитель. Подставим выражение (6.67) в отношение правдоподобия (6.66): 123  1 T 2  k exp   u (t )  s1 (t ) dt  N0 0  2 T E1  E2      L(u )   exp  u ( t ) s ( t )  s ( t ) dt  .  1 2 N N  1 T   00  u (t )  s2 (t ) 2 dt  k exp    N0 0  Преобразуем полученный оптимальный алгоритм различения двух детерминированных сигналов (6.66) к виду: s1  E  E2    exp   Z  1   L0 , N    s  2 где L0  Ps2  Ps1  – порог различения сигналов; 2 T Z   u t  s1 t   s 2 t  dt – значение функции взаимной корреляN0 0 ции между принимаемым колебанием и разностью ожидаемых сигналов (корреляционный интеграл); T Ei   si2 t dt – энергия i-го сигнала (i =1 или i =2). Учтем, что экспоненциальная функция монотонно возрастает относительно своего аргумента, поэтому с порогом можно сравнивать её аргумент. Найдем логарифм отношения правдоподобия и получим следующее выражение для алгоритма оптимального различения сигналов: s1 Z  Z0 ,  (6.68) s2 где Z 0  ln [ P( s1 ) P( s 2 )]  ( E1  E2 ) / N 0 – порог различения сигналов. Из этого алгоритма следует, что оптимальный различитель сигналов должен вычислять значение функции взаимной корреляции Z и сравнивать его с порогом различения l0. Следовательно, структурная схема оптимального различителя двух детерминированных сигналов состоит из взаимно корреляционного (ВКУ) и порогового устройств. На входы ВКУ поступают соответственно принимаемое колебание и разность ожидаемых сигналов. В пороговом устройстве происходит сравнение выходного сигнала ВКУ с уровнем порога Z0 (рис. 6.19, а). На выходе ПУ вырабатывается окончательное решение о приеме первого сигнала s1(t) при Z > Z0 или о приеме второго сигнала s2(t) при обратном соотношении Z < Z0. 124 ВКУ1 u(t) ВКУ u1 s1(t)-s2(t) ПУ u(t) u2 s1(t) u1 – ВКУ2 Z0 u2 ПУ Z0 s2(t) а) б) Рис. 6.19. Структурная схема оптимального различителя двух детерминированных сигналов Очевидно, что ВКУ, управляемый разностью ожидаемых сигналов (рис. 6.19, а), эквивалентен параллельному соединению двух ВКУ, управляемых соответственно первым и вторым сигналами, и вычитающему устройству их выходных напряжений (рис. 6.19, б). Верхний и нижний корреляторы могут быть заменены согласованными фильтрами с импульсными характеристиками, согласованными с первым и вторым сигналами соответственно.Если априорные вероятности ожидаемых сигналов одинаковы Р(s1) = Р(s2) = 0,5, как и их энергии, Е1 = Е2 = Е, то такая система передачи сигналов называется бинарной симметричной. У нее уровень порога Z0 = 0 и алгоритм оптимального различения упрощается: s1 Z  0.  (6.69) s2 Далее для простоты будем рассматривать симметричные бинарные системы передачи информации. 6.17. Характеристики оптимального различения сигналов Найдем суммарную ошибку различения двух бинарных симметричных сигналов. Как следует из предыдущего изложения, вероятность суммарной ошибки равна Pош  0,5P(s2 s1 )  P(s1 s2 ), где Р(s2/s1) и Р(s1/s2) – вероятности перепутывания сигналов. Очевидно, перепутывание сигналов s1 и s2 происходит, когда при приеме первого сигнала выносится ошибочное решение о приеме второго сигнала, т.е., если напряжение u1 на выходе ВКУ (рис. 6.19, а) при действии на его вход суммы первого сигнала и шума будет меньше нулевого порогового уровня, u1 < 0. 125 Поэтому P s2 / s1   P u1  0    f (u1 / s1 ) du1 ,  где f(u1/s1) – условная плотность вероятности напряжения u1 при наличии в принимаемой смеси сигнала s1. Входной гауссовский процесс подвергается линейному преобразованию, поэтому выходное напряжение u1 как сумма выходного шума и выходного сигнала распределено также по гауссовскому закону. Найдем статистические характеристики выходного процесса. На выходе ВКУ получим: 2 T u1   nt   s1 t s1 t   s2 t  dt  n1  m1 , N0 0 2 T 2E где m1  1  r  – регулярная компонента выs1 t  s1 t   s 2 t  dt   N0 0 N0 ходного случайного процесса (выходной сигнал); 1T r   s1 t  s2 t  dt – коэффициент взаимной корреляции между перE0 вым и вторым сигналами; T n1   nt  s1 t   s 2 t  dt – флуктуационная компонента выходного случайного процесса (выходной шум), распределенная по гауссовскому закону с нулевым математическим ожиданием M (n1) = 0 и дисперсией 4E σ12  (1  r ) . N0 Найдем вероятности перепутывания сигналов:  (u1  m1 )2   E  1  , Ps2 / s1   exp  du  1   ( 1  r )    1 2   2 21  2   N0    t2  1 x где  x    exp 2  dt – интеграл вероятности. 2π     Аналогично найдем вероятность  Ps1 / s2   Pu1  0   f (u1 / s2 )du1 , где f(u1/s2) – условная плотность вероятности напряжения u1 при наличии в принимаемой смеси сигнала s2. 126 Математическое ожидание выходного сигнала равно 2 T 2E r  1 ; m2  s2 t  s1 t   s2 t  dt    N0 0 N0 дисперсия выходного процесса u1, как и в предыдущем случае, равна 4E σ 22  (1  r ) . N0 На рис. 6.20 представлены условные плотности вероятности распределений f(u1/s1) и f(u1/s2) и вероятности перепутывания сигналов. Выходное напряжение u1 при наличии на входе сигнала s2 распределено по гауссовскому закону с математическим ожиданием m2 и дисперсией 22 (рис. 6.20), вследствие чего  u1  m2 2   E (1  r )  1   . Ps1 / s2   exp  du  1      1 2   N 2 πσ 2 0  2σ 2    f(u1) f(u1/s1) f(u1/s2) Р(s1/s2) Р(s2/s1) u1 Рис. 6.20. Условные плотности вероятности распределения входной реализации f(u1/s1) и f(u1/s2) и вероятности перепутывания сигналов Тогда вероятность суммарной ошибки  E (1  r )  . (6.70) Pош  0,5P s2 / s1   P s1 / s2   1     N   Таким образом, вероятность суммарной ошибки, характеризующая потенциальную помехоустойчивость при различении равновероятных сигналов с одинаковыми энергиями, зависит только от отношения сигнал/шум E N0 и коэффициента взаимной корреляции между двоичными сигналами r. Чем меньше величина коэффициента взаимной корреляции, тем меньше вероятность ошибки и выше потенциальная помехоустойчивость. Наивысшая потенциальная помехоустойчивость достигается при коэффициенте взаимной корреляции rmin = – 1, когда сигналы противоположны: s1(t) = –s2(t). Такие сигналы в радиотехнике различаются значениями 127 начальных фаз на  и поэтому называются фазоманипулированными (ФМн сигналами):  s1 (t )  s  cos ω 0 t ,  s 2 (t )  s  cos(ω 0 t  π)  s  cos ω 0 t , при t  (0, Т). Для них  2E  . Pош. фм  1     N0  Если сигналы манипулированы по частоте (ЧМн сигналы): s1 (t )  s  cos ω1t ,  s2 (t )  s  cos ω2t , (6.71) для t  (0, Т), то при 1   2 T  1 , коэффициент взаимной корреляции приближенно равен нулю r  0 (ортогональные сигналы), и для них имеем  E  . Pош. чм  1    (6.72)  N 0   На рис. 6.21 представлена зависимость вероятности ошибки различения от отношения сигнал/шум для бинарных сигналов с ФМн и ЧМн. Рис. 6.21. Вероятность ошибок различения бинарных сигналов с ФМн и ЧМн Третьим видом манипуляции сигналов является амплитудная (Амн):  s1 (t )  s  cos ω 0t ,  s2 (t )  0, при t  (0, Т). 128 Это так называемая передача сообщений с пассивной паузой. Она не принадлежит к симметричной системе передачи. Как и при других видах манипуляции, вероятность суммарной ошибки при АМ Pош ам  0,5P s 2 / s1   P s1 / s 2 , где Р(s1/s2) – вероятность ложного решения о приеме сигнала s1(t), а Р(s2/s1) – вероятность пропуска ненулевого сигнала s1(t): Z0 P s2 / s1   P u1  Z 0    f (u1 / s1 ) du1 ,  где u1 – напряжение на выходе ВКУ (рис. 2.19, а) при действии на его вход суммы ненулевого сигнала и шума: 2 T 2 T nt   s1 t s1 t   s2 t  dt   nt   s1 t  s1 t  dt  n1  2 E , u1   N0 0 N0 0 N0 T где флуктуационная составляющая равна n1   nt  s1 t dt . Поскольку входной шум n(t) является белым гауссовским с нулевым математическим ожиданием, то выходной шум n1 распределен тоже по 2E гауссовскому закону с нулевым математическим ожиданием m  и дисN0 2E персией  2  . Поэтому напряжение u1 имеет также гауссовский закон N0 распределения выходных значений. Вероятность ошибки при наличии сигнала s1(t) равна 2   2E     u1     E  N 0   1 Z0     P s2 / s1   exp  du  1     1  2  2N  , 2 2 σ 0  2σ          E где Z 0  – порог различения сигналов. N0 Вероятность ошибки при отсутствии сигнала s1(t) равна  Ps1 / s2   Pu1  Z 0    f (u1 / s2 )du1 , Z0 где u1 – напряжение на выходе ВКУ. Напряжение на выходе ВКУ u1 представляет собой напряжение гауссовского шума. Вследствие этого   n12   E  1 . Ps1 / s2   exp 2 dn1  1     2 2 N 0  2σ Z 0   2σ  129 Тогда вероятность суммарной ошибки  E  . Pош ам  1      2 N0  На рис. 6.22 представлена зависимость вероятности ошибок различения от отношения сигнал/шум для бинарных сигналов с АМн, ЧМн и ФМн. Сравнение вероятностей ошибок при ФМн, ЧМн и АМн, отображаемых кривыми потенциальной помехоустойчивости (рис. 6.22), показывает, что наибольшую потенциальную помехоустойчивость обеспечивает ФМ, а наименьшую – АМ (с пассивной паузой). Для получения одинаковой потенциальной помехозащищенности энергия принимаемого сигнала при ЧМ может быть взята в два раза меньше, а в случае ФМ – в четыре раза меньше, чем при АМ. Следует, однако, иметь в виду, что в отличие от ФМ и ЧМ при АМ передаётся только один сигнал. Поэтому если исходить из равных средних энергетических затрат, то системы различения с ЧМ и АМ сигналами будут обладать одинаковой помехоустойчивостью Рис. 6.22. Вероятность ошибок различения бинарных сигналов с ФМн, ЧМн, Амн 6.18. Примеры заданий Задача 6.1 Сигнал на входе обнаружителя полностью известного сигнала является колоколообразным импульсом 130   t 2  u (t )  U exp        и     u и 2  с амплитудой U и длительность τи/2 по уровню  exp  4   0,46 . U Импульс может поступать на вход обнаружителя в виде аддитивной суммы сигнала и помехи в виде белого шума со спектральной плотностью мощности N0 = 10– 17 Вт/Гц. Определить, какое пороговое значение Z0 нужно установить на входе порогового устройства, чтобы получить вероятность правильного обнаружения D =0,95. Данные для решения задачи: U =1 мкВ, τи = 2 мкс. Решение Вероятность ложной тревоги F и правильного обнаружения D для полностью известного сигнала имеют вид: F  1   (Zн ) , D  1   ( Z н  q) ,  t2  1 x где  ( x)   exp 2 dt – интеграл вероятности; 2     Zн  Z0 q – нормированный пороговый уровень; q  2E N0 – отношение сигнал/шум; N0 – спектральная плотность мощности шума; 2   t   U 2 и  – энергия импульса. E   U exp  2    dt     2   и    Найдем отношение сигнал/шум на выходе обнаружителя детерминированного сигнала:  2 2E 2и U  5,32 . N0 N0 Представим выражение для вероятности правильного обнаружения в следующем виде: 1   ( Z н  q)   ( q  Z н )  0,95 . Используя таблицу интеграла вероятности (см. приложение), находим аргумент интеграла вероятности q  Z н  1,65 и определяем значение нормированного порога обнаружения Z н  q  1,65  3,67 . q 131 Задача 6.2 Определить требуемое значение амплитуды U прямоугольного видеоимпульса длительности τи = 0,1 мкс, обнаруживаемого на фоне белого гауссовского шума со спектральной плотностью мощности –18 N0 = 10 Вт/Гц на входе приёмника с вероятностью пропуска сигнала Pпр  1  D  0,1 при вероятности ложной тревоги F  105 . Решение Для обнаружителя детерминированного сигнала для заданного D=0,9 найдем по формуле D  (q  Zн ) и таблицам интеграла вероятности q  Zн  1,29 и требуемое значение отношения сигнал/шум q  Zн  1,29. Найдем значение нормированного порога Zн  4,75 для заданных вероятностей ложной тревоги F  105 с использованием выражения F  1  (Z н ) . Найдем необходимое значение отношения сигнал/шум по полученным данным q  Z н  1,29  6 . Определим значение амплитуды прямоугольного импульса U для заданного τи и отношения сигнал/шум q: q  2E N0 – отношение сигнал/шум на выходе СФ; E  U 2 и – энергия прямоугольного видеоимпульса. Из приведенных выражений можно получить N0 U  q  1,34 мкВ. 2и Задача 6.3 Определить вероятность ошибки F «идеального наблюдателя» в когерентном приемнике, который обнаруживает радиоимпульс с колоколообразной огибающей вида   t 2  u ( t )  U exp      ,   и     имеющий амплитуду U и длительность τи/2 по уровню u и 2   exp  4   0,46 , на фоне теплового шума приёмника, имеющего U шумовую температуру T, K. Данные для решения задачи: U = 1 мкВ, τи = 0,1 мкс, T =300 К 132 При решении задачи принять, что спектральная плотность мощности шума равна N 0  kT , где k = 1,38 10-23 Вт/Гц – постоянная Больцмана, а T – шумовая температура приемника (К). Решение Вероятность ошибки различения детерминированного сигнала, обнаруживаемого на фоне гауссовского шума в приемнике «идеального наблюдателя», равна: F  1   E 2N0 . Найдем энергию импульса с гауссовской огибающей 2      t U 2 и 2   . E   U exp  2  dt     2   и   Определим спектральную плотность мощности шума N 0  kT . Подставим найденные значения в выражение для вероятности ложной тревоги и получим: U 2и  F  1    0,0018 . 2  kT     Задача 6.4 На вход обнаружителя сигналов поступает аддитивная смесь прямоугольного видеоимпульса амплитуды U = 5мкВ, длительности τи = 2 мкс и белого гауссовского шума со спектральной плотностью мощности N0=10– 18 Вт/Гц. Найти и построить:  импульсную характеристику и структуру согласованного фильтра;  сигнал на выходе СФ без шума;  АКФ шума на выходе СФ и его мощность;  отношение сигнал/шум на выходе СФ. Решение Для импульсной характеристики СФ имеем g (t )  k 0 S (t0  t ) , где k 0 и t0 постоянные величины, а t0   и . Структурная схема СФ и АКФ сигнала показаны на рисунке. 133 Сигнал на выходе СФ без шума совпадает по форме с АКФ входного сигнала, сдвинутой на время длительности сигнала τи вправо. Для выходного сигнала имеем:   t  и Sвых (t )   S вх (t )g (t  t )dt   k0U 2 и 1  и     t  и   k0 E1  и     ,  где 0  t  2 и – длительность выходного сигнала; U max  k0 E – амплитуда максимума выходного сигнала. АКФ шума на выходе СФ может быть найдена как свертка АКФ входN ного шума R ( )  0 ( ) и АКФ импульсной характеристики СФ: 2     Rg ()   g (t ) g (t  )dt  k02U 2 и 1   , для  и    и .   и  Для АКФ шума на выходе СФ имеем:   Rш ()   ш2 1   ,  и  где  и    и ; 2 ш k 02 EN 0 – дисперсия (мощность) шума на выходе СФ;  2 и E   S 2 (t ) dt  U 2  и – энергия сигнала; k0 – коэффициент передачи интегратора. Отношение сигнал/шум на выходе СФ по мощности равно q 134 U max 2 и U  10. ш N0 Задача 6.5 На вход интегрирующей RC -цепочки с постоянной времени 0 поступает аддитивная смесь прямоугольного видеоимпульса амплитуды U, длительности τи и белого гауссовского шума со спектральной плотностью мощности N0= 10– 18 Вт/Гц. Найти и построить:  импульсную характеристику цепи;  АКФ шума и его мощность на выходе цепи;  отношение сигнал/шум в момент максимума сигнала на выходе цепи;  рассчитать и построить зависимость коэффициента потерь в отношении сигнал/шум по сравнению с СФ в зависимости от x  и 0 . Решение Представим прямоугольный импульс на выходе интегрирующей цепочки в виде: U (t )  k0 h(t )  h(t  и ), где k0 – постоянный коэффициент передачи цепи; h(t )  1  exp t t0  – переходная характеристика цепи. Максимум амплитуды сигнала на выходе цепи наблюдается в момент времени t   И . Из выражения для выходного сигнала цепи имеем     U (  и )  k 0U 1  exp  и   .  0    Для импульсной характеристики RC - цепи найдем  t  dh(t ) k 0  exp   . dt 0  0  АКФ шума на выходе цепи найдем, как свертку АКФ входного гаусN совского белого шума R ( )  0 ( ) и АКФ ИХ RC -цепи: 2    k 02 Rg ()   g (t ) g (t  )dt  exp   . 2   0  Для АКФ шума на выходе цепи имеем: g (t )    N 0 k02 Rш ()  R()  Rg ()  exp   . 2 2 0  0  Мощность выходного шума равна: 135 N 0 k 02 .  Rш (0)  4 0 Отношение сигнал/шум на выходе RC-цепи при воздействии на её вход прямоугольного импульса найдем как отношение максимума выходного сигнала U (и ) к СКО выходного шума: 2 ш q( x)  1  exp( x)  4E , N0 x где x   и  0 отношение длительности входного сигнала к постоянной времени цепи; q  2E N0 – отношение сигнал/шум на выходе СФ; E  U 2 и – энергия сигнала. Откуда коэффициент потерь в отношении сигнал/шум равен: ( x )  1  exp(  x )  2 x . На рисунке показан график зависимости потерь в отношении сигнал/шум ( x ) при подаче на вход интегрирующей цепи прямоугольного импульса длительности  И . Сравнение производится с отношением сигнал/шум на выходе СФ, равного q  2E N0 . Расчеты показывают, что минимум потерь в отношения сигнал/шум на выходе цепи достигается при x  1,256, что соответствует и  1,2560 . 136 Задача 6.6 Определить вероятность ложной тревоги F в когерентном приемнике («идеальный наблюдатель»), на который поступает радиоимпульс с коло2 колообразной огибающей вида u (t )  U exp  t и  , имеющей амплии =0,1 мкс U = 1 мкВ туду и длительность по уровню u (  и 2)  exp   4   0,46 , на фоне теплового шума приёмника, имеющего U шумовую температуру T =3000K. При решении задачи принять, что спектральная плотность мощности шума равна N 0  kT , где k = 1,38 10-23 Вт/Гц – постоянная Больцмана. Решение Вероятность ошибки различения детерминированного сигнала, обнаруживаемого на фоне гауссовского шума в приемнике «идеального наблюдателя», равна F  1   E 2 N 0 . Спектральную плотность мощности шума можно найти по формуле N 0  kT . Энергию импульса с гауссовской огибающей можно рассчитать по формуле:  U 2и 2 2 . E   U exp  2 t  и  dt  2  Подставив найденные выражения в формулу для ошибки различения, получим  и   . F  1   U 2 2 kT   Используя найденное выражение и данные задания, получим искомое значение вероятности: F = 0,0018.       137 7. РАЗРЕШЕНИЕ СИГНАЛОВ 7.1. Понятие о разрешающей способности сигналов Разрешение сигналов осуществляется после их обнаружения по ряду измеряемых полезных параметров. К разрешаемым параметрам сигнала s(t ,  ) можно отнести его временное положение  з , доплеровскую частоту Fд , направление прихода с , поляризацию и некоторые другие. Разрешающей способностью называют способность устройства обработки различать близко расположенные по указанным параметрам сигналы. За количественную меру разрешающей способности на выходе оптимального приемника принято считать величину минимального отклонения измеряемого параметра i , при которой нормированные огибающие двух сигналов пересекаются по уровню половины их максимальных значений. Разрешающую способность сигналов s(t ,  ) обычно определяют для двух важных параметров – временной задержки и доплеровской частоты. 7.2. Функция рассогласования сигнала Под функцией рассогласования сигнала будем понимать время-частотную функцию рассогласования, нормированную к единице:    S (t ) S (t  ) exp( j 2Ft )dt (, F )    , 2 (7.1)  S (t ) dt  где S (t ) – комплексная огибающая сигнала; , F – рассогласование сигнала по времени и частоте на выходе СФ. Выражение (7.1) можно представить в спектральной форме. Найдем спектр комплексной огибающей сигнала  S (2f )   S (t ) exp( j 2ft )dt ,  как Фурье преобразование от S (t ) . Тогда выражение (7.1) можно представить в виде    S (2f ) S (2( f  F )) exp( j 2f)df ( , F )    2 . (7.2)  S ( f ) df  2 Функцию рассогласования ( , F ) , а также  (, F ) , также называют телом неопределенности. 138 Время-частотная функция рассогласования имеет: 1) свойство центральной симметрии ( , F )  (  , F ) ; 2) свойство единичного объема тела неопределенности   V     2 (, F ) ddF  1 ;   3) сечение плоскостью   0 , которое совпадает с нормированным ам2 плитудно-частотным спектром квадрата модуля огибающей S (t ) сигнала. Из формулы (7.1) при τ = 0 получаем  2  S (t ) exp( j 2Ft )dt (0, F )    . 2 (7.3)  S (t ) dt  Выражение (7.3) характеризует значения нормированной огибающей напряжения на выходе СФ при   0 и различных значениях F – частотного рассогласования. Функция (0, F ) характеризует разрешающую способность сигнала по частоте; 4) сечение плоскостью F  0 , которое совпадает с модулем коэффициента корреляции комплексной огибающей сигнала:    S (t ) S (t  )dt (,0)    2 . (7.4)  S (t ) dt  Выражение (7.4) характеризует форму модуля нормированной огибающей на выходе СФ – модуля нормированной АКФ комплексной огибающей сигнала. Функция (,0) характеризует разрешающую способность сигнала по временной задержке (дальности). 7.3. Функции рассогласования импульсных сигналов Найдем функции рассогласования ( , F ) некоторых импульсных сигналов. 1. Прямоугольный видеоимпульс Пусть необходимо найти функцию рассогласования прямоугольного импульса вида: 1, t   0 2 , S 0 (t )   (7.5) , t   2 .  Подставляя (7.5) в выражение (7.1), получим 139  sin F 0 1    0    0 (, F )   ,   0 , (7.6) F 0 0, для    0 .  На рис. 7.1 показана функция рассогласования комплексной огибающей прямоугольного импульса. Рис. 7.1. Функция рассогласования комплексной огибающей прямоугольного импульса Сечение функции рассогласования плоскостью F  0 дает АКФ прямоугольного импульса (,0) . На рис. 7.2 показана АКФ прямоугольного импульса. Рис. 7.2. Функция рассогласования комплексной огибающей прямоугольного импульса: сечение плоскостью F = 0 140 Из выражения (7.6) и рис. 7.2 видно, что разрешающая способность по времени равна t  0 . Сечение функции рассогласования плоскостью   0 дает модульное значение спектра импульса (0, F ) (амплитудный спектр), показанное на рис. 7.3. Рис.7.3. Функция рассогласования комплексной огибающей прямоугольного импульса: сечение плоскостью τ = 0 Из представленного на рис. 7.3 графика видно, что разрешающая спо1 собность по частоте равна f  . 0 2. Последовательность N прямоугольных импульсов Найдем комплексную огибающую функции рассогласования последовательности из N импульсов, заданных выражением: N 2 S N (t )   S0 (t  iT0 ) , (7.7) i N 2 где T0 – период следования прямоугольных импульсов. Подставляя (7.7) в выражение (7.1) и производя вычисления, получим: ( , F )  1 N N 1  i   ( N 1) sin ( N  i ) FT0  sin FT0  0 (   iT0 , F ) exp(  jiFT0 ) , (7.8) где 0 (, F ) – функция рассогласования прямоугольного импульса (7.6). На рис. 7.4 показана функция рассогласования комплексной огибающей пачки из N  6 импульсов со скважностью Q = 2. 141 Рис. 7.4. Функция рассогласования комплексной огибающей пачки из N = 6 прямоугольных импульсов 3. Прямоугольный радиоимпульс с линейной частотной модуляцией (ЛЧМ сигнал) Мгновенная частота такого сигнала линейно нарастает в пределах импульса f T T (7.9) f (t )  f 0  t , при   t  , T 2 2 где f 0 – средняя частота импульса; f – девиация частоты; T – длительность сигнала. С учетом (7.9) ЛЧМ сигнал с прямоугольной огибающей имеет вид T  2 cos( 2  f t   t ), t  ,  2 (7.10) s (t )   T  0, t  ,  2 f D где    2 – величина, пропорциональная скорости изменения чаT T стоты сигнала; D  fT – база ЛЧМ сигнала. Рис. 7.5. Временная диаграмма ЛЧМ сигнала с прямоугольной огибающей 142 На рис. 7.5 показан ЛЧМ сигнал с нарастающим во времени законом изменения частоты и прямоугольной огибающей. Комплексная огибающая прямоугольного радиоимпульса с линейной частотной модуляцией: T  2 exp( j  t ), t  ,  2  S (t )   (7.11) T  0, t  .  2 Для импульса с колоколообразной огибающей комплексная амплитуда ЛЧМ сигнала имеет вид 2 S (t )  exp  t  exp( jt 2 ) . (7.12) T   Частотные спектры комплексных амплитуд ЛЧМ сигналов являются Фурье-преобразованием от соответствующих комплексных амплитуд    S ( f )   S (t ) exp(2ft )dt  S ( f ) exp j( f ) , (7.13)  где S ( f ) – амплитудно-частотный спектр, а ( f ) – фазочастотный спектр. Амплитудно-частотный спектр комплексной огибающей колокольного ЛЧМ импульса имеет вид T (7.14) S ( f )  exp  f 2 f 2 . 1  D2 При D  fT  1 ЛЧМ импульс имеет близкую к девиации частоты f ширину спектра по уровню 0,46 от максимального значения   1 D2 f и   f . (7.15) T Фазочастотный спектр сигнала описывается уравнением убывающей параболы: 2  f  (7.16) ( f )   D    arctgD .  f   Амплитудно-частотный спектр комплексной огибающей прямоугольного импульса выражается через интегралы Френеля. При больших базах D  fT  1 амплитудный спектр можно представить в следующем виде  T f , f  ,  4  f 2  (7.17) S( f )    f  0, f  .  2 143 Фазочастотный спектр ЛЧМ импульса имеет квадратичную зависимость от частоты, в пределах действия сигнала и может быть приближенно представлен выражением (7.16). Нормированная функция рассогласования прямоугольного ЛЧМ импульса может быть представлена в виде    T (, F )  2 1 T   exp[ j 2(   F x  t 2 ) dx] . (7.18)   t 2 После интегрирования выражения (7.18) получим    D     FT 1    sin   T     T  (, F )   ,  T .  D    FT     T   0,   T. (7.19) Сечение функции неопределенности плоскостью F  0 определяет модульное значение огибающей ЛЧМ сигнала на выходе СФ. Можно показать, что разрешающая способность по времени (дальности) ЛЧМ сигнала T равна tр  , что обусловлено эффектом сжатия ЛЧМ сигнала на выходе D СФ в D раз. Сечение функции неопределенности плоскостью   0 определяет амплитудный спектр ЛЧМ сигнала. Можно показать, что при D  fT  1 спектр ЛЧМ сигнала становится близким к прямоугольному с шириной, определяемой девиацией частоты ЛЧМ импульса f . 144 8. ИЗМЕРЕНИЕ ПАРАМЕТРОВ СИГНАЛА 8.1. Основы теории измерения параметров сигналов Измерение параметров радиолокационных сигналов – важнейшая составная часть получения информации в РТС. В радиолокационных системах измерению подлежат компоненты  i вектора   (1 ,...,  n ) . В качестве измеряемых параметров часто выступают: время задержки отраженного сигнала  з , доплеровское смещение частоты зондирующего сигнала Fд , пространственные координаты (азимут и угол места цели). Измерение параметров может осуществляться как после достоверного обнаружения сигнала, так и совместно с её обнаружением в устройстве, называемом обнаружитель-измеритель. В результате измерения на выходе устройства получается так называемая точечная оценка измеряемого параметра ̂ i , отличающаяся от истинного значения  i в результате действия помех: u( t )  s ( t , ˆ )  n( t ) . В качестве оценки точности измерения параметра может быть указан доверительный интервал, в пределах которого измеряемый параметр лежит с заданной доверительной вероятностью. Измеряемый параметр  i может представлять собой, как детерминированную, так и случайную величину. Для его оценки в последнем случае необходимо знать его априорное распределение f (i ) . При наличии данных предыдущих измерений (циклов обзора) измеряемые параметры можно считать случайными величинами и уточнять их значения в процессе измерения. Если измеряемый параметр медленно меняется во времени, то задача оценки параметра переходит в задачу фильтрации параметра и синтеза оптимального устройства слежения за измеряемой величиной. Пусть ошибка измеряемого параметра не имеет систематической составляющей (математического ожидания), а имеет флуктуационную компоненту    i  ˆ i с известным законом распределения f () . В качестве характеристик оценки измеряемого параметра  i могут служить: математическое ожидание, дисперсия, среднеквадратическое отклонение, медианное значение, доверительный интервал. Обобщенным показателем качества оценивания может является усреднённое по всем значениям параметров ̂ i и возможным результатам наблюдения u(t ) средний риск R (с учетом функции потерь): 145 R    П(  , ˆ (u )) f (  , u ) d  du, (8.1) U где f (  , u) – совместная плотность вероятности оцениваемых параметров    и наблюдаемой реализации u  U ; П(  , ˆ ( u)) – функция потерь. На практике широкое распространение получили функции потерь П  П ( ) , зависящие только от ошибки оценивания    i  ˆ i . Для скалярного параметра  практическое распространение получили квадратичная, линейная и релейная функции потерь. Оптимальная система измерения параметров должна обеспечивать для заданной функции потерь R min минимум среднего риска в выражении (8.1). 8.2. Оптимальный алгоритм измерения параметров сигналов Пусть на входе приемного устройства, на интервале t  [0, T ] наблюдается аддитивная смесь сигнала и шума u( t )  s ( t ,  )  n( t ) , (8.2) где   (1 ,...,  n ) вектор детерминированных и случайных параметров принимаемого сигнала. В результате обработки принимаемого колебания необходимо синтезировать устройство получения максимально точных оценок измеряемых параметров сигнала ̂ i в пространстве оцениваемых параметров сигнала    и в пространстве вектора наблюдаемой реализации u  U . Наличие шума n(t ) и случайных параметров  ( 1 ,...,  n ) приводит к тому, что задача имеет статистический характер. Решение задачи сводится в отыскании оптимального алгоритма работы измерителя параметров сигнала путем минимизации среднего риска выражения (6.2) при заданной функции потерь. Для квадратичной функции потерь и скалярного параметра λ выражение для среднего риска имеет вид Rкв    ( - ˆ (u)) 2 f (, u)ddu . (8.3) U Совместную плотность вероятности f ( , u ) можно представить в следующем виде: (8.4) f (  , u )  f (u ) f (  / u ) , где f (u) – априорная плотность распределения выборочных значений наблюдаемого входного процесса; f ( / u) – апостериорная плотность вероятности распределения случайного параметра в принятой реализации. Плотность вероятности f ( / u) несет всю послеопытную информацию об измеряемом параметре λ. 146 Подставив выражение (8.4) в (8.3), получим Rкв    ( - ˆ (u)) 2 f ( / u) f (u)ddu . (8.5) U В выражении (8.5) интегрируемые функции являются положительно определенными, поэтому минимум выражения определяется производной от квадратичного множителя подынтегрального выражения. Тогда оцениваемый параметр (8.6) ˆ кв   f ( / u)d .  Из выражения (8.6) следует, что оптимальное значение измеряемого параметра при квадратичной функции потерь является среднее значение апостериорной плотности вероятности оцениваемого параметра. Можно показать, что для линейной функции потерь минимальная ошибка измерения оцениваемого параметра равна ˆ лин  ˆ м , где  м – медианное значение параметра функции распределения f ( / u) . Для релейной функции потерь минимизация среднего риска в выражении (8.1) дает значение ̂ р из условия отыскания максимального значения функции правдоподобия  f ( / u)max  . Для ряда практических задач при гладкой апостериорной функции распределения максимальное значение удобно найти как производную от логарифма этой функции d ln f ( / u)  0. (8.7) d ˆ   В соответствии с формулой Байеса f (u /  ) f ( ) . (8.8) f ( / u )  f (u) Подставляя (8.8) в (8.7) и выполняя преобразования, получим d ln f ( / u) d ln f (u /  ) d ln f ()    0 , (8.9) d d  d  ˆ ˆ ˆ       где f ( ) – априорная плотность вероятности распределения измеряемого параметра  ; f (u /  ) – функция правдоподобия. Из (8.9) видно, что оптимальное значение оцениваемого параметра находится как максимальное значение функции правдоподобия с учетом максимума априорного распределения случайного параметра  . В случае отсутствия априорных данных о распределении измеряемого параметра (равномерное распределение параметра в пределах заданных значений) выражение для оптимального алгоритма оценки параметра имеет вид 147 d ln f ( / u) d ln f (u / )   0. (8.10) d d  ˆ ˆ     Из (8.10) следует, что оптимальное значение параметра будет определяться максимумом функции правдоподобия. Выражение (8.9) называется уравнением максимальной апостериорной вероятности. Метод получения максимального значения оцениваемого параметра определяет алгоритм работы оптимального измерителя параметров сигналов. 8.3. Измерение параметров радиолокационных сигналов Проведенный ранее анализ показывает, что процедура измерения параметров радиолокационных сигналов заключается в том, что по принятой реализации необходимо сформировать функцию, пропорциональную апостериорной плотности вероятности (8.8), или монотонную функцию от неё в заданном диапазоне измерения параметров. Из (8.8) следует, что f (u /  ) f ( )  l ( ) f (  ) , f (u) где l ( ) – отношение правдоподобия. Возьмем монотонную функцию логарифма от последнего выражения и получим (8.11) ln f ( / u )  ln l ( )  ln f ( ) . Из (8.11) следует, что оптимальный измеритель радиолокационных сигналов по принятой реализации должен формировать функцию, пропорциональную логарифму отношения правдоподобия. Эту операцию выполняет оптимальный обнаружитель радиолокационного сигнала. Можно показать, что для сигнала со случайной начальной фазой логарифм отношения правдоподобия имеет вид ln l()  Z ()  q 2 2 , (8.12) а для сигнала со случайной амплитудой и начальной фазой Z 2 ( ) q2 (8.13) ln l ( )   ln(1  ) . 2 4(1  q 2 2) В выражениях (8.12) и (8.13) Z () – модульное значение комплексного корреляционного интеграла 1 T Z ( )  u (t ) s (t , )dt , (8.14)  N0 0 где N 0 – спектральная плотность мощности белого гауссовского шума; f ( / u)  q2  2E N0 – параметр обнаружения. 148 Анализ показывает, что оптимальный измеритель радиолокационного сигнала на фоне белого гауссовского шума должен вычислять корреляционный интеграл (либо его квадрат) в заданном диапазоне ожидаемых значений измеряемого параметра. Вместо корреляционного приемника эту операцию может выполнять согласованный фильтр и устройство отбора максимального значения. Исходя из алгоритма работы оптимального устройства измерения параметров сигнала, измерители можно разделить на следящие и неследящие. Неследящие измерители формируют сигнал, пропорциональный апостериорной плотности вероятности распределения во всём диапазоне возможных значений изменения параметров. В рассматриваемом случае отсутствует априорная плотность распределения измеряемого параметра. В следящих измерителях присутствуют априорные сведения о параметре и эти данные уточняются по мере накопления данных. 8.3.1. Измерение дальности Пусть необходимо измерить дальность до цели rц и получить её оптимальную оценку r̂ц . Оценку дальности будем получать путем измерения времени запаздывания отраженного сигнала (эхо-сигнала) относительно зондирующего cˆ rˆц  з . 2 При наличии помех значение r̂ц будет отличаться от истинного значения rц вследствие того, что оценка временной задержки ̂з будет отличаться от истинного значения з на величину ошибки измерения    з  ̂ з . Для измерения дальности необходимо сформировать статистику Z () или Z 2 () для всей области изменения параметра min  ˆ з  max. За оптимальную оценку измеряемого параметра ̂з , согласно алгоритму оптимального измерения параметра, необходимо принять момент времени, когда достигается максимальное значение корреляционного интеграла Z () . Вычисление корреляционного интеграла возможно провести корреляционным, фильтровым и корреляционно-фильтровым методами. Рассмотрим способ оценки временного запаздывания эхо-сигнала корреляционным методом. Вследствие того, что взаимно-корреляционное устройство (ВКУ) не обладает инвариантностью по отношению ко времени прихода сигнала, при неизвестной временной задержке сигнала структурная схема корреляционной обработки должна быть многоканальной (рис. 8.1). 149 Z1(τ) ВКУ1 Z2(τ) ВКУ2 u(t) РУ ̂ з ZN(τ) ВКУN Рис. 8.1. Структурная схема корреляционногоизмерителя дальности Она состоит из многоканальной системы корреляционных приёмников, настроенных на соответствующие временные задержки эхо-сигналов в пределах ожидаемых интервалов запаздывания сигналов  з1  ˆ з   зN , и решающего устройства. В решающем устройстве производится отбор максимального выходного сигнала i-го корреляционного приемника с временным запаздыванием ̂ зi . Устройство оценки временного запаздывания сигнала фильтровым методом изображено на рис. 8.2. u(t) СФ ДЕТ Z(τ) РУ ̂ з Рис. 8.2. Структурная схема фильтровой измерителя дальности Устройство состоит из согласованного фильтра (СФ), детектора огибающей (ДЕТ) и решающего устройства (РУ). В решающем устройстве в момент достижения выходной функцией Z () максимума производится измерение времени запаздывания сигнала относительно момента его излучения. 8.3.2. Измерение скорости Радиальную составляющую скорости цели V R измеряют по результатам оценивания доплеровского смещения частоты Fд отраженного от цели сигнала Fд  2VR  0 , где λ0 – длина волны несущего колебания. Схема измерения скорости представляет собой многоканальное устройство обработки, изображенное на рис. 8.3. Каждый канал содержит оптимальный фильтр и амплитудный детектор, где каждый СФ настроен на зондирующий сигнал с определенным доплеровским сдвигом из диапазона 150 Fд1  Fˆд  FдN . В решающем устройстве выбираются сигнал с максимальным выходным амплитудным значением и соответствующий ему доплеровский сдвиг по частоте. Для получения оценки частоты F̂д в оптимальном измерителе скорости вычисляется модуль комплексного корреляционного интеграла Z ( Fдi ) для соответствующего i-го канала и находится максимум по всем каналам. Заметим, что данное устройство при наличии достаточного количества каналов обработки воспроизводит (при отсутствии или незначительном уровне шумов) функцию неопределенности зондирующего сигнала. Такая схема обработки, следовательно, позволяет проводить совместное измерение дальности и скорости цели. ОФ1 ДЕТ1 Z ( Fд1 ) Z ( Fд2 ) ОФ2 ДЕТ2 u(t) РУ ОФN ДЕТN F̂д Z (FдN ) Рис. 8.3. Структурная схема измерителя скорости 8.4. Следящие измерители параметров цели В процессе работы РЛС производится последовательное выполнение операций обнаружения, измерения параметров цели (дальности и скорости) и слежение за измеряемыми параметрами во времени. Слежение за измеряемыми параметрами цели является задачей вторичной обработки радиолокационных данных. В качестве устройств измерения параметров цели могут применяться следящие измерители дальности и скорости. Обобщенная схема следящего измерителя приведена на рис. 8.4. На вход устройства слежения, и, следовательно, на первый вход дискриминатора (ДИС) поступает измеряемый параметр (t ) , выделенный из принимаемого эхо-сигнала. На второй вход дискриминатора поступает оценка параметра слежения, полученная ранее. При этом используется либо временной дискриминатор для слежения за изменением дальности цели, либо частотный дискриминатор для слежения за доплеровским сдвигом частоты. 151 На выходе дискриминатора вырабатывается сигнал рассогласования     ˆ между текущим  (t ) и опорным ̂ значениями измеряемого па- раметра. Сигнал рассогласования подвергается низкочастотной фильтрации (ФНЧ). На выходе фильтра формируется разностное напряжение uр (t ) , которое является управляющим напряжением для регулятора (РЕГ), который формирует значение оцениваемого параметра ̂ в зависимости от знака и величины сигнала рассогласования Δλ.     ˆ (t ) ДИС ФНЧ ̂ РЕГ u р (t ) Рис. 8.4. Структурная схема следящего измерителя Ранее было показано, что логарифм отношения правдоподобия с точностью до постоянной величины совпадает с модулем корреляционного интеграла Z ( t ,  ) либо с его квадратом (выражение (8.12)) и (8.13)). Для нахождения алгоритма работы устройства слежения разложим Z ( t ,  ) в ряд Тейлора по параметру измерения ̂ : (  ˆ ) 2 ˆ ˆ ˆ ˆ Z ( )  Z ( )  Z ( )(   )  Z ( )  ... (8.15) 2 Оптимальная оценка измеряемого параметра находится в точке максимума корреляционного интеграла, где первая производная обращается в нуль. Продифференцируем (8.15) по параметру  и получим Z (  )  Z ( ˆ )  Z ( ˆ )(   ˆ )  0 . Из последнего выражения следует, что малое отклонение измеряемого параметра     ˆ от истинного значения может быть получено в виде Z ( ˆ ) .    (8.16) Z (ˆ ) Выражение (8.16) задает алгоритм работы дискриминатора системы слежения за параметром цели. 152 8.5. Точность измерения радиолокационных параметров Найдем потенциальную (максимально возможную) точность измерения информационных параметров радиолокационного сигнала. Считаем, что измерение выполняется при высоком отношении сигнал/шум (порядка 8-10), т.е. является регулярным. Предполагаем, так же, что функция правдоподобия f (u /  ) гладкая, унимодальная и дважды дифференцируемая. Допустим, что ошибка измерения параметра     ˆ ( u ) имеет гауссовское распределение с нулевым математическим ожиданием. Тогда разброс (точность) измерения одиночного информационного параметра будет определяться дисперсией ошибки, либо СКО: 2 (  ˆ (u))  M (  ˆ (u))2 .   При совместной оценке нескольких параметров, разброс будет зависеть от корреляционной (ковариационной) матрицы ошибок с элементами Rij   i  j . Нижняя (минимальная) граница матрицы ошибок подчиняется неравенству Крамера-Рао:     1   2 ˆ  (λ  λ (u))   M  2 (8.17) . d ln f ( u / λ )   2   dλ Для оценки нижней границы разброса параметров строится обратная величина в многомерном случае матрица точности (матрица Фишера) с элементами   2 ln f (u / λ )  Cij   M  (8.18) ,   i  j  где i, j  [1, m] , а m – размерность вектора параметров  (1 ,...,  m ) ;  c11 ... c1m    C   ... ... ...  – матрица точности (матрица Фишера). c   m1 ... cm m  Матрица точности связана с корреляционной матрицей соотношением R  C 1 . При определении границ ошибок измерения случайных параметров матрица точности учитывает информацию об априорном распределении параметра 153 C  C A  C , где C A – матрица точности априорных ошибок измерения случайных параметров;   2 ln f (λ )  A Cij   M   – элементы матрицы точности априорных оши  i  j  бок измерения. Нижняя граница ошибок измерения случайных параметров 1 связана с матрицей точности соотношением R  C . Диагональные элементы матрицы R определяют дисперсию нижней границы оценки разброса соответствующих случайных параметров  i . 8.5.1. Точность измерения временного запаздывания В соответствии с выражениями (8.12) и (8.13) оценивание временного запаздывания tз производится на выходе СФ по максимуму абсолютного значения корреляционного интеграла Z ( , F ) . Выражение можно представить через функцию рассогласования ( , F ) в виде Z (, F )  q 2(, F ) , (8.19) где q  2E N0 – отношение сигнал/шум. Из выражения (8.18) с учетом того, что частота и отношение сигнал/шум являются параметрами, имеем 1 , (8.20)    (0,0) q   2 (0, ) где  (0,0)  .  2   0  (0,0) имеет размерность частоты и характеризует эфВеличина  фективную ширину спектра зондирующего импульса:  2 2  S ( F ) F dF f эф  2   , 2  S ( F ) dF   где S ( F )   s (t ) exp( j 2Ft )dt – спектральная плотность комплексной ам плитуды сигнала. Подставляя эффективную ширину спектра сигнала в выражение (8.20), окончательно получим 154 1 . (8.21) qf эф Из (8.21) видно, что ошибка измерения временного запаздывания сигнала уменьшается с ростом ширины спектра импульса и отношения сигнал/шум.   8.5.2. Точность измерения частоты Используем ранее полученное выражение для СКО измеряемого параметра  в зависимости от отношения сигнал/шум и функции рассогласования. Если в выражении (8.20) заменим вторую производную по времени на производную по частоте, то получим 1 , (8.22) F   ( 0,0) q FF  2 (0, F )  (0,0)  где FF – характеризует ширину пика функции рассоF 2 F  0 гласования по частоте, имеет размерность квадрата времени. Величину  (0,0) можно интерпретировать, как эффективную длительность зонFF дирующего импульса  2 2  t S (t ) dt  эф  2   . (8.23) 2  S (t ) dt  С учетом полученного выражения (8.23), для СКО измерения частотного сдвига зондирующего импульса можно получить 1 F  . (8.24) q эф Из выражения (8.24) следует, что точность измерения частоты растет с ростом эффективной длительности зондирующего импульса и отношения сигнал/шум. 8.5.3. Точность измерения угловой координаты Пусть имеется антенна с размером апертуры величины LА , с распределением напряженности электрического поля возбуждения вдоль антенны E (x ) и длиной волны  0 . Для такой антенны можно найти нормированную 155 функцию рассогласования на угол  от направления на максимум диаграммы направленности max как Фурье-преобразование от распределения амплитуды поля возбуждения вдоль антенны вида  L  sin  A (sin max  sin   0 . (, max )  LA (sin max  sin ) 0 Функция рассогласования по пространственной координате (,  max ) определяет точность пространственного положения цели. Используя ранее полученные выражения (8.20) и (8.22), аналогично для среднеквадратической ошибки измерения углового положения цели получим 1   ,  ( max , ) q     max  ( max , )   где  max  2 ( max , )   2  – величина, совпадающая с квадmax ратом эффективной ширины диаграммы направленности антенны  эф   0 2Lэф . Величина эффективной длины апертуры антенны может быть найдена через E (x ) – функцию распределения напряженности электрического поля вдоль апертуры антенны  2 2  x E ( x) dx Lэф    . 2  E ( x) dx  Подставляя найденные выражения в формулу для СКО измерения угловой координаты, имеем    0  эф . 2qLэф q Из полученного выражения видно, что с ростом длины апертуры антенны и отношения сигнал/шум растет и точность определения угловой координаты. 156 8.5.4. Точность совместного измерения параметров При совместном измерении времени запаздывания с ошибкой   з  ̂з и частоты с ошибкой  F  FД  F̂Д вектор-столбец ошибок пред-    ставим в виде   . Предполагаем, что компоненты вектора имеют нор F  мальное распределение с нулевым математическим ожиданием. Матрица точности (матрица Фишера) совместного измерения времени запаздывания и частоты (8.18) имеет вид   2   2    M   ln l ( , F )   M   ln l (, F )     2    F   , C   2 ln l ( , F )    2 ln l (, F )    M   M   2  F  F     где ln l ( , F ) – логарифм отношения правдоподобия (8.29), (8.19). Обратная ей корреляционная матрица ошибок измерения R  C 1 имеет вид  R   2 r где    1 2 r2  ,  F  – СКО ошибки измерения дальности цели;  (0,0) (1  r ) q  1 F  – СКО ошибки измерения частоты цели; 2  (0,0) (1  r ) q FF 2 F (0,0) r  – квадрат коэффициента взаимной корреляции  (0,0)  (0,0) FF связи между измерениями по временному запаздыванию и частотному сдвигу. При r  0 точность измерений временного запаздывания и частотного сдвига снижается. Если r  0 – точность измерений максимальная и функция рассогласования сигнала симметрична в плоскостях сечения   0 и F  0. Можно показать, что для простых сигналов, ФКМ сигналов и когерентных пачек импульсных сигналов коэффициент r  0 . Например, для простого импульсного сигнала с гауссовской огибающей   t 2  s(t )  exp       и   нормированная функция рассогласования имеет вид 2 157      2   ( , F )  exp     (  и F ) 2      2   и  и отражает отсутствие корреляционной связи между  и F , поскольку  (0,0)  0 . Корреляционная матрица ошибок измерения имеет вид F 0    , R      F  2 где   и и  F  – СКО определения дальности и частотного q  q и  сдвига. Для сигналов с частотной модуляцией коэффициент взаимной корреляции rij  0 , что приводит к снижению точности измерения временного запаздывания и частотного сдвига. Для примера проведем расчет корреляционной матрицы ошибок измерения по  и F для ЛЧМ сигнала с гауссовской огибающей   2 s(t )  exp  t  jt 2  , T   – длительность гауссовского ЛЧМ сигнала по уровню где T u и 2   exp  4   0,46 от максимального амплитудного значения, а U D   2 – скорость изменения частоты ЛЧМ сигнала, D  fT – база ЛЧМ T 1 D 2 сигнала, а f  – девиация частоты ЛЧМ сигнала по уровню 0,46 T от максимального значения амплитудного спектра ЛЧМ импульса  f 2  exp  2  . 2 1 D  f  Нормированная функция рассогласования такого сигнала имеет вид   1  D2 2  2 2  ( , F )  exp      2 D  F  T F 2  . 2 T    Ковариационная матрица ошибок измерения имеет вид   r 2  , D   2  F  r S ( f )  158 T где    T 1 и F  – СКО определения дальности и частотного qD  qT  сдвига. 4D 2 Величина r   4 отлична от нуля, что свидетельствует 1 D2 о жёсткой зависимости сдвига по частоте F и временного положения сжатого импульса τ. Можно показать, что частотный сдвиг на величину F приводит к возникновению пропорционального ему измерению временного T положения импульса на время    F относительно максимального поf ложения функции рассогласования. 2 8.6. Примеры заданий Задача 8.1 На вход радиолокационного приемного устройства поступает когерентная последовательность из M прямоугольных радиоимпульсов длительностью и , частотой повторения T и частотой заполнения f0 = 300 МГц. Найти и построить сечения функции рассогласования сигнала ρ(τ, F). Определить: 1) потенциальную разрешающую способность РЛС по дальности и скорости; 2) максимальные значения однозначного определения дальности и скорости. Данные для расчета: M =10, τи = 1мкс, T = 3мс. Решение Функция рассогласования последовательности из M прямоугольных импульсов имеет вид: M 1 sin( ( M  m ) FT (, F )   0 (  mT , F ) exp( jmFT ) ,  M sin(  FT ) m   ( M 1) где 0  sin(Fи (1  (  и )) – функция рассогласования одиночного пряFи моугольного видеоимпульса для   и . Для получения разрешающей способности по времени (дальности) необходимо найти и построить сечение функции рассогласования по частоте, которая совпадает с модулем коэффициента корреляции комплексной огибающей сигнала. Функция рассогласования для пачки импульсов при F = 0: M 1    mT   , (,0)   1   m   ( M 1)   и где  и  mT    и  mT , m – целое число,  ( M  1)  m  ( M  1) . 159 На рисунке показана АКФ огибающей для пачки из M=5 импульсов. Из рисунка видно, что разрешающая способность по времени для такого сигнала равна τи, а временной интервал однозначного определения задержки равен T. Связывая время задержки и дальность через скорость распространения электромагнитной волны c  3  10 8 м/с, найдем разрешающую способность по дальности и однозначно определяемую дальность. c Разрешающая способность по дальности r  и , 2 cT а максимальная дальность однозначного определения: Dmax  . 2 Для получения разрешающей способности по частоте (скорости) необходимо найти и построить сечение функции рассогласования по времени, которая совпадает с нормированным амплитудно-частотным спек2 тром квадрата модуля огибающей S (t ) сигнала. Функция рассогласования при  =0 M 1 (0, F )   sin( ( M  m ) FT  sin( F и ) exp(  jmFT ) .  M sin( FT )  F  и m   ( M 1)   На рисунке приведен график зависимости сечения функции рассогласования от частоты. Из графика зависимости можно найти разрешающую способность по частоте, равную f  1 MT и максимальный однозначно определяемый сдвиг по частоте равный F  1 T . Частотный сдвиг (частота Доплера) зондирующего импульса обусловлен наличием радиальной составляющей скорости цели, т.е. составляющей скорости в направлении на РЛС. Найдем разрешающую способность по скорости C C f  2 f0 2 f 0 MT и максимальную величину однозначно определяемой скорости  Vр  160 C C . F  2 f0 2 f 0T Подставляя данные для расчетов в приведенные ранее выражения, можно получить следующие данные: r = 150м, Dmax = 450км, Vр = 1,7 м/с, Vmax = 16,6 м/с. Vmax  Задача 8.2 Зондирующий радиоимпульс имеет гауссовскую форму огибающей:   t 2  u (t )  U exp     j 2 f 0 t  ,   и     где τи – длительность импульса; f0 – центральная частота. Определить потенциальные точности измерения дальности  r до этой цели и её радиальной скорости V , если f0 = 1 ГГц, τи = 10 мкс, вероятности правильного обнаружения и ложной тревоги равны соответственно D = 0,9, F =10-4. Для простого импульсного сигнала с гауссовской комплексной огиба  t 2  ющей вида U (t )  U exp     функция рассогласования имеет вид:   и     161      2   ( , F )  exp     (  и F ) 2   .    2   и  Потенциальная точность определения временной задержки сигнала равна 1 ,    (0,0) q  где q – отношение сигнал/шум; G(F ) – спектр комплексной огибающей;  2 2  F G ( F ) dF f эф   (0,0)  2    – эффективная ширина спектра. 2  G ( F ) dF  Для импульса гауссовской формы потенциальная точность определения временной задержки имеет вид:    и . q  Аналогично потенциальная точность определения частотного сдвига равна: 1 , F   ( 0,0) q FF  2 2  t U (t ) dt где  эф   (0,0)  2 FF   – эффективная длительность 2  G (t ) dt  гауссовского импульса U (t ) . Для гауссовского импульса F  2 q и  . Разрешающая способность по дальности равна r  r  162 С Си .   2 2q  С и , откуда 2 Аналогично, связывая сдвиг по частоте с доплеровским смещением сигнала при наличии радиальной составляющей скорости цели, можно C найти разрешающую способность по скорости Vр  f , откуда 2 f0 С C . V  F  2 f0 q и f 0  По характеристикам обнаружения для заданных вероятностей правильного обнаружения D = 0,9 и ложной тревоги F = 10-4 найдем пороговое отношение сигнал/шум: qпор = 5. Используя полученные выражения и исходные данные, можно получить искомые точности определения дальности  r =173м и скорости V =3,4 км/с. 163 БИБЛИОГРАФИЧЕСКИЙ СПИСОК 1. Гмурман, В.Е. Теория вероятностей и математическая статистика: учебник; 12-е изд. / В.Е.Гмурман. – М.: Юрайт, 2016. – 479 с. 2. Вентцель, Е.С. Теория вероятностей: учеб. для вузов / Е.С.Вентцель. – М.: Высш. шк., 1999. – 576 c. 3. Математическая статистика: учебник / В.Т. Горяинов, И.В. Павлов, Г.М. Цветкова, И.О. Тескин. – М.: Изд-во МГТУ, 2001. – 424 с. 4. Тихонов, В.И. Статистическая радиотехника / В.И. Тихонов. – М.: Радио и связь, 1982. – 624 с. 5. Левин, Б.Р. Теоретические основы статистической радиотехники / Б.Р. Левин. – М.: Радио и связь, 1989. – 656 с. 6. Лезин, Ю.С. Введение в теорию и технику радиотехнических систем / Ю.С. Лезин. – М.: Радио и связь, 1986. – 280 с. 7. Горяинов, В.Т. Статистическая радиотехника: примеры и задачи / В.Т. Горяинов, А.Г. Журавлев, В.В. Тихонов; под общ. ред. В.И. Тихонова. – 2-е изд., перераб. и доп. – М.: Сов. радио, 1980. – 544 с. 8. Информационные технологии в радиотехнических системах: учеб. пособие / В.А. Васин [и др.]; под ред. И.Б. Федорова. – М.: Изд-во МГТУ им. Н.Э. Баумана, 2003. – 672 с. 9. Перов, А.И. Статистическая теория радиотехнических систем: учеб. пособие / А.И. Перов. – М.: Радиотехника, 2003. – 400 с. 10. Худяков, Г.И. Статистическая теория радиотехнических систем: учеб. пособие / Г.И. Худяков. – М.: Издательский центр «Академия», 2009. – 400 с. 11. Денисенко, А.Н. Сигналы. Теоретическая радиотехника: справочное пособие / А.Н. Денисенко. – М.: Горячая линия-Телеком, 2005. – 704 с. 12. Радиотехнические системы: учеб. пособие для вузов по специальности «Радиотехника» / Ю.П. Гришин, В.П. Ипатов, Ю.М. Казаринов [и др.]; под ред. Ю.М. Казаринова. – М.: Высш. шк., 1990. – 490 с. 164 ПРИЛОЖЕНИЕ  t2  1 x Интеграл вероятности:  ( x)   exp 2 dt , 2π     0,00 ≤ x ≤ 3,49, Ψ(–x) = 1– Ψ(x). Таблица П1 Значения интеграла вероятности 1 2 3 4 5 6 7 8 9 10 11 t .00 .01 .02 .03 .04 .05 .06 .07 .08 .09 .5000 .5040 .5080 .5120 .5160 .5199 .5239 .5279 .5319 .5359 0.1 .5398 .5438 .5478 .5517 .5557 .5596 .5636 .5675 .5714 .5753 0.2 .5793 .5832 .5871 .5910 .5948 .5987 .6026 .6064 .6103 .6141 0.3 .6179 .6217 .6255 .6293 .6331 .6368 .6406 .6443 .6480 .6517 0.4 .6554 .6591 .6628 .6664 .6700 .6736 .6772 .6808 .6844 .6879 0.5 .6915 .6950 .6985 .7019 .7054 .7088 .7123 .7157 .7190 .7224 0.6 .7257 .7291 .7324 .7357 .7389 .7422 .7454 .7486 .7517 .7549 0.7 .7580 .7611 .7642 .7673 .7704 .7734 .7764 .7794 .7823 .7852 0.8 .7881 .7910 .7939 .7967 .7995 .8023 .8051 .8078 .8106 .8133 0.9 .8159 .8186 .8212 .8238 .8264 .8289 .8315 .8340 .8365 .8389 1.0 .8413 .8438 .8461 .8485 .8508 .8531 .8554 .8577 .8599 .8621 1.1 .8643 .8665 .8686 .8708 .8729 .8749 .8770 .8790 .8810 .8830 1.2 .8849 .8869 .8888 .8907 .8925 .8944 .8962 .8980 .8997 .9015 1.3 .9032 .9049 .9066 .9082 .9099 .9115 .9131 .9147 .9162 .9177 1.4 .9192 .9207 .9222 .9236 .9251 .9265 .9279 .9292 .9306 .9319 164 Окончание табл. П1 1 2 3 4 5 6 7 8 9 10 11 t .00 .01 .02 .03 .04 .05 .06 .07 .08 .09 1.5 .9332 .9345 .9357 .9370 .9382 .9394 .9406 .9418 .9429 .9441 1.6 .9452 .9463 .9474 .9484 .9495 .9505 .9515 .9525 .9535 .9545 1.7 .9554 .9564 .9573 .9582 .9591 .9599 .9608 .9616 .9625 .9633 1.8 .9641 .9649 .9656 .9664 .9671 .9678 .9686 .9693 .9699 .9706 1.9 .9713 .9719 .9726 .9732 .9738 .9744 .9750 .9756 .9761 .9767 2.0 .9772 .9778 .9783 .9788 .9793 .9798 .9803 .9808 .9812 .9817 2.1 .9821 .9826 .9830 .9834 .9838 .9842 .9846 .9850 .9854 .9857 2.2 .9861 .9864 .9868 .9871 .9875 .9878 .9881 .9884 .9887 .9890 2.3 .9893 .9896 .9898 .9901 .9904 .9906 .9909 .9911 .9913 .9916 2.4 .9918 .9920 .9922 .9925 .9927 .9929 .9931 .9932 .9934 .9936 2.5 .9938 .9940 .9941 .9943 .9945 .9946 .9948 .9949 .9951 .9952 2.6 .9953 .9955 .9956 .9957 .9959 .9960 .9961 .9962 .9963 .9964 2.7 .9965 .9966 .9967 .9968 .9969 .9970 .9971 .9972 .9973 .9974 2.8 .9974 .9975 .9976 .9977 .9977 .9978 .9979 .9979 .9980 .9981 2.9 .9981 .9982 .9982 .9983 .9984 .9984 .9985 .9985 .9986 .9986 3.0 .9987 .9987 .9987 .9988 .9988 .9989 .9989 .9989 .9990 .9990 3.1 .9990 .9991 .9991 .9991 .9992 .9992 .9992 .9992 .9993 .9993 3.2 .9993 .9993 .9994 .9994 .9994 .9994 .9994 .9995 .9995 .9995 3.3 .9995 .9995 .9995 .9996 .9996 .9996 .9996 .9996 .9996 .9997 3.4 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9998 165 Сьянов Владимир Александрович Рындык Александр Георгиевич Балашова Дарья Михайловна Буров Владимир Николаевич СТАТИСТИЧЕСКАЯ ТЕОРИЯ РАДИОТЕХНИЧЕСКИХ СИСТЕМ Редактор Е.В. Комарова Технический редактор Т.П. Новикова Компьютерная верстка Д.М. Балашова Подписано в печать 26.12.2018. Формат 60 х 84 1/16. Бумага офсетная. Печать офсетная. Усл. печ. л. 10,5. Тираж 100 экз. Заказ Нижегородский государственный технический университет им. Р.Е. Алексеева. Типография НГТУ. Адрес университета и полиграфического предприятия: 603950, Нижний Новгород, ул. Минина, 24.
«Статистическая теория радиотехнических систем» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Найди решение своей задачи среди 1 000 000 ответов
Найти

Тебе могут подойти лекции

Смотреть все 938 лекций
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot