Справочник от Автор24
Поделись лекцией за скидку на Автор24

Основы теории вероятностей.Статистическая теория обнаружения сигналов и оценки их параметров.Оптимальные стационарные линейные фильтры

  • 👀 355 просмотров
  • 📌 317 загрузок
Выбери формат для чтения
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «Основы теории вероятностей.Статистическая теория обнаружения сигналов и оценки их параметров.Оптимальные стационарные линейные фильтры» pdf
МОСКОВСКИЙ АВИАЦИОННЫЙ ИНСТИТУТ (НАЦИОНАЛЬНЫЙ ИССЛЕДОВАТЕЛЬСКИЙ УНИВЕРСИТЕТ) «МАИ» СВЕРДЛОВ БОРИС ГРИГОРЬЕВИЧ СТАТИСТИЧЕСКАЯ ТЕОРИЯ РАДИОСИСТЕМ КУРС ЛЕКЦИЙ Часть 2 МОСКВА 2015 Г. Содержание 1 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 2 2.1 2.2 2.3 2.4 2.5 2.6 2.7 3 3.1 3.1.1 3.1.2 3.1.3 3.1.4 3.2 3.2.1 3.2.2 Введение Основы теории вероятностей Вероятностные модели конечной совокупности случайных событий. Теоремы полной вероятности и Байеса. Вероятностные модели случайных процессов и случайных величин. Совокупность случайных величин Числовые характеристики случайных величин. Начальные, центральные и смешенные моменты. Условные функции распределения и плотности вероятностей Функциональные преобразования случайных величин. Характеристические функции. Предельные теоремы и закон больших чисел. Основы теории случайных процессов Основные понятия. Стационарные и эргодические случайные процессы. Энергетические характеристики стационарных случайных процессов. Гауссовский случайный процесс 4 13 13 Узкополосный случайный процесс. Квазидетерминированный случайный процесс. Преобразование случайных процессов в линейных системах Статистическая теория обнаружения сигналов и оценки их параметров Постановка задачи оптимального обнаружения и оценки параметров радиосигналов. Параметрические модели принимаемого сигнала в радиолокации. Теория проверки статистических гипотез. Оптимизация обнаружения и отношение правдоподобия. Оптимизация измерения. Оценки максимума послеопытной плотности вероятности и максимального правдоподобия. Особенности структуры оптимальных обнаружителей для различных моделей сигналов. Отношение правдоподобия для дискретизированного сигналов с известными параметрами Оптимальный обнаружитель для сигнала с полностью известными параметрами. 77 80 83 14 18 22 24 28 33 56 61 61 62 66 73 93 93 93 94 98 102 106 106 111 3.2.3 Оптимальный обнаружитель для сигнала со случайными параметрами:  со случайной начальной фазой;  со случайной амплитудой и начальной фазой. 3.2.3 Оптимальный обнаружитель для некогерентных сигналов. 3.3 Показатели качества оптимального обнаружения и изменения параметров когерентных сигналов. 3.3.1 Показатели качества оптимального обнаружения сигналов с полностью известными параметрами. 3.3.2 Показатели качества оптимального обнаружения сигналов со случайной начальной фазой. 3.3.3 Показатели качества оптимального обнаружения сигналов со случайными амплитудой и начальной фазой. 3.3.4 Показатели качества измерения информативных параметров. Свойства оценок: состоятельность, несмещенность, эффективность. Точностные характеристики точечных оценок, неравенство Рао-Крамера. 4 Оптимальные стационарные линейные фильтры 4.1 Теория линейной фильтрации Колмогорова – Винера 112 114 116 118 120 120 125 127 130 138 138 4.1.1 Принцип ортогонального проектирования 139 4.1.2 Уравнение Винера-Хопфа 140 ПРАКТИЧЕСКИЕ ЗАНЯТИЯ 143 Литература 152 Темы курсовых проектов по курсу «Статистическая 153 теория радиосистем» 3. Статистическая теория обнаружения сигналов и оценки их параметров 3.1 Постановка задачи оптимального обнаружения и оценки параметров радиосигналов 3.1.1 Параметрические модели принимаемого сигнала в радиолокации. Реализации принимаемых колебаний можно представить в виде следующей модели 𝑦⃗(𝑡 ) = 𝐴 ∙ 𝑥⃗(𝑡, 𝛼⃗, 𝛽⃗ ) + 𝑛⃗⃗(𝑡, 𝜗⃗) (1) Например M –мерная приемная антенная решетка (многоканальный приемник) 𝑦⃗(𝑡 ) = ‖𝑦1 (𝑡) y1(t) ⋯ 𝑦2 (𝑡) 𝑦𝑀 (𝑡)‖𝑇 – вектор- столбец принимаемого колебания. y2(t) Тогда в выражении (1): . . . 𝑥⃗(𝑡, 𝛼⃗, 𝛽⃗ ) - вектор-столбец реализации полезного сигнала; yM(t) 𝑛⃗⃗(𝑡, 𝜗⃗) - вектор-столбец реализации помехи; 𝐴 - дискретный параметр, принимающий значение или 1, учитывающий отсутствие или наличие полезного сигнала в разрешающим (наблюдаемом) элементе пространства; 𝛼⃗ = ‖𝜏з , 𝑓𝑑 , 𝜃ц и т. д.‖𝑇 - вектор-столбец информативных параметров сигнала; 𝛽⃗ = ‖амплитула 𝑏𝑖 , фаза 𝜑𝑖 , поляризация, и т. д.‖𝑇 - вектор- столбец неинформативных параметров сигнала; 𝜗⃗ = ‖интенсивность, 𝜃ц , поляризация, и т. д.‖𝑇 - вектор-столбец случайных параметров помехи. Для случая дискретизированного сигнала 𝑦⃗(𝑡 ) = 𝑦⃗ = ‖𝑦1 𝑦2 ⋯ 𝑦𝑁 ‖𝑇 , (2) 93 где 𝑁 =𝑀∙𝐿 Причем время наблюдения сигнала 𝑇 = ∆𝜏𝑑 ∙ 𝐿, где ∆𝜏𝑑 - шаг дискретизации. Тогда параметрическая модель принимаемого сигнала имеет вид: 𝑦⃗ = 𝐴 ∙ 𝑥⃗(𝛼⃗, 𝛽⃗) + 𝑛⃗⃗(𝜗⃗) (3) Задачей теории оптимального обнаружения и измерения является отыскание решающего правила оценки соответственно параметров 𝐴 и 𝛼⃗. Эти оценки зависят от принимаемой реализации 𝑦⃗, то есть 𝐴̂ = 𝐴̂(𝑦⃗) и 𝛼̂⃗ = 𝛼̂⃗ (𝑦⃗), причем 𝐴̂ = 0 отсутствие цели 𝐴̂ = { 0 . 𝐴̂1 = 1наличие цели Например: а) время запаздывания сигнала 𝛼̂1 = 𝑡̂з = 2∙𝑟̂ 𝐶 ,где 𝑟̂ – координата дальности цели; б) доплеровское смещение 𝛼̂2 = 𝑓̂𝑑 = 2 ∙ 𝑣̂𝑟 𝜆 𝑣̂𝑟 - радиальная скорость цели. Помехи и флуктуации отраженного сигнала приводят к случайному характеру оценок 𝐴̂ и 𝛼̂. По принятой реализации должна быть выдана оценка параметров 𝐴̂ и 𝛼̂, оптимизированная с точки зрения принятого показателя качества. 3.1.2 Теория проверки статистических гипотез. Правило выбора решения Качество оценки параметров 𝐴̂ и 𝛼̂ можно характеризовать в средне статистическом смысле, то есть как средний риск ошибки. Рассмотрим пример оценивания непрерывного параметра 𝛼⃗. 94 Имеется 𝛼̂⃗ - оценка параметра и 𝛼⃗ - возможное значение параметра, далее для этой пары ставится в соответствие плата за ошибку Π(𝛼̂⃗ , 𝛼⃗), которая также является случайной величиной. Поэтому характеристикой качества оценивания может выступать средняя плата или средний риск ошибочного решения ∞ 𝑅(𝛼̂⃗ ) = 𝑚1 {Π(𝛼̂⃗ , 𝛼⃗)} = ∬ Π(𝛼̂⃗ , 𝛼⃗) ∙ 𝑝(𝛼̂⃗ , 𝛼⃗) 𝑑𝛼̂⃗ 𝑑𝛼⃗ −∞ Здесь 𝑝(𝛼̂⃗ , 𝛼⃗) – совместная ФПВ возможного значения параметра и его оценки. Процедура оптимизации сводится к минимизации среднего риска – это называется байесовский подход min 𝑅(𝛼̂⃗ ) ⃗̂⃗⃗ 𝛼 Байесовская теория оценивания 1) 𝛼⃗ – случайная величина с известной доопытной (априорной) ФПВ 𝑝(𝛼⃗). 2) После принятия колебания послеопытная (апостериорная) 𝑦⃗ (реализации) ФПВ 𝑝(𝛼⃗⁄ ), 𝑦⃗ формируется которая содержит всю информацию о параметре 𝛼⃗. 3) Процесс минимизации 𝑅(𝛼̂⃗ ) упрощается, если перейти к условному ̂ среднему риску 𝑅 (𝛼⃗⁄ ). 𝑦⃗ Поскольку можно считать, что оценка 𝛼̂⃗ находится в детерминированной зависимости от принятой реализации 𝑦⃗, то есть 𝛼̂⃗ = 𝛼̂⃗ (𝑦⃗), можно заменить 𝑝(𝛼̂⃗ (𝑦⃗), 𝛼⃗)𝑑𝛼̂⃗ 𝑑𝛼⃗ = 𝑝(𝑦⃗, 𝛼⃗ )𝑑𝑦⃗𝑑𝛼⃗. Совместная ФПВ в соответствие с формулой Байеса 95 𝑦⃗ 𝑝(𝑦⃗, 𝛼⃗) = 𝑝(𝑦⃗) ∙ 𝑝 (𝛼⃗⁄ ) = 𝑝(𝛼⃗) ∙ 𝑝 ( ⁄ ). 𝑦⃗ 𝛼⃗ 𝑦⃗ Совместная ФПВ 𝑝 ( ⁄ ) называется функцией правдоподобия, которая 𝛼⃗ показывает для конкретного значения 𝑦⃗ = ‖𝑦1 𝑦2 ⋯ 𝑦𝑁 ‖𝑇 насколько значения одного вектора параметров 𝛼⃗ «более правдоподобно», чем другое. Тогда средний риск можно представить в виде ∞ ∞ 𝑅(𝛼̂⃗ ) = 𝑚1 {Π(𝛼̂⃗ , 𝛼⃗)} = ∫−∞[∫−∞ Π(𝛼̂⃗ , 𝛼⃗) ∙ 𝑝(𝛼⃗⁄ ) 𝑑𝛼⃗] 𝑝(𝑦⃗)𝑑𝑦⃗ = 𝑦⃗ ∞ ∞ 1 𝑦⃗ ∫−∞ ∫−∞ Π(𝛼̂⃗ , 𝛼⃗) ∙ 𝑝( ⁄𝛼⃗) 𝑝(𝛼⃗)𝑑𝛼⃗ 𝑝(𝑦⃗⃗) 𝑑𝑦⃗. Введем условный средний риск ̂ ∞ ∞ 𝑦⃗ 𝑅 (𝛼⃗⁄ ) = ∫−∞ Π(𝛼̂⃗ , 𝛼⃗) ∙ 𝑝 (𝛼⃗⁄ ) 𝑑𝛼⃗ = 𝑘0 ∙ ∫−∞ Π(𝛼̂⃗ , 𝛼⃗) ∙ 𝑝( ⁄ ) 𝑝(𝛼⃗ )𝑑𝛼⃗, 𝑦⃗ 𝑦⃗ 𝛼⃗ ∞ 1 𝑦⃗ где 𝑘0 = 𝑝(𝑦⃗⃗) = 1⁄∫−∞ 𝑝( ⁄ ) 𝑝(𝛼⃗)𝑑𝛼⃗ – не зависящий от 𝛼⃗ коэффициент. 𝛼⃗ ̂ Тогда min𝛼⃗̂⃗⃗ 𝑅(𝛼̂⃗ ) ⇒ min𝛼⃗̂⃗⃗ 𝑅 (𝛼⃗⁄ ). 𝑦⃗ Например: Получим величину условного риска при оценке 𝛼 = 𝐴ϵ (0,1) для решения задачи обнаружения цели. 𝛼 = 𝐴0 = 0 𝛼⃗ = { 0 𝛼1 = 𝐴1 = 1 ∞ ̂ 𝑦⃗ ̂, α) ∙ 𝑝 ( ⁄𝛼 ) ∙ 𝑝(𝛼)𝑑𝛼 𝑅 (𝛼⃗⁄ ) = 𝑘0 ∙ ∫ Π(α 𝑦⃗ −∞ 𝐴̂0 = 𝛼̂0 ̂𝑖 ‖ { Оценки 𝛼̂ = ‖A = . ̅̅̅̅ 𝑖=0,1 𝐴̂1 = 𝛼̂1 Тогда ̂ ∞ A ̂ 𝑘 , α) ∙ 𝑝 (𝑦⃗⁄𝛼) ∙ 𝑝(𝛼)𝑑𝛼 𝑅 ( 𝑘⁄ ) = 𝑘0 ∙ ∫−∞ Π(A ⃗ 𝑦 (4) 96 Априорная ФПВ 𝑝(𝛼) = ∑1𝑖=0 P(𝛼𝑖 ) ∙ 𝛿 (𝛼 − 𝛼𝑖 ) = P(𝛼0 ) ∙ 𝛿 (𝛼) + P(𝛼1 ) ∙ 𝛿 (𝛼 − 1). Подставив полученное выражение в (4) и получим 1 ̂ A ̂ 𝑘 , 𝐴𝑖 ) ∙ P(𝐴𝑖 ) ∙ 𝑝 (𝑦⃗⁄ ) 𝑅 ( 𝑘⁄ ) = 𝑘0 ∙ ∑ Π(A 𝐴𝑖 𝑦⃗ 𝑖=0 Критерии качества принятия решения по Байесу 1) Минимум среднего риска Постановка задачи: Дано: Π(𝛼̂⃗ , 𝛼⃗), 𝑝 (𝛼⃗⁄ ) и 𝑝(𝑦⃗) . 𝑦⃗ Найти: min𝛼̂ 𝑅 (𝛼̂). 2) Максимум апостериорной вероятности Не заданы: Π(𝛼̂⃗ , 𝛼⃗) и 𝑝(𝑦⃗) 𝑝 (𝛼⃗⁄ ) 𝑦⃗ 𝛼̂⃗ 𝛼⃗ Ищется max𝛼⃗⃗⃗ 𝑝 (𝛼⃗⁄ ). 𝑦⃗ 3) Минимаксный критерий 𝑝(𝛼⃗) - неизвестна. ∞ 𝑦⃗ ⃗̂⃗, α ⃗⃗) ∙ 𝑝 ( ⁄ ) 𝑑𝛼⃗}. min {maxα⃗̂⃗⃗ ∫−∞ Π(α 𝛼⃗ 97 Ищется правило принятия решения (оценки), при которой минимизируется максимальное значение условного риска. 3.1.3 Оптимизация обнаружения и отношение правдоподобия Выражение для условного риска при решении задачи обнаружения имеет вид: ̂ A ̂ 𝑘 , 𝐴𝑖 ) ∙ P(𝐴𝑖 ) ∙ 𝑝 (𝑦⃗⁄ ). 𝑅 ( 𝑘⁄ ) = ∑1𝑖=0 Π(A 𝐴𝑖 𝑦⃗ Зададим плату за ошибки, то есть платную матрицу 𝑑 Π(𝛼̂⃗ , 𝛼⃗) = ‖ 11 𝑑10 𝑑01 ‖. 𝑑00 ̂ 𝑘 и условия Ai Ситуации совмещения случайного решения (оценки) A (i=0,1): ̂1 , 𝐴1 ) – правильное обнаружение; (A ̂ 0 , 𝐴1 ) – пропуск цели; (A ̂1 , 𝐴0 ) – ложная тревога; (A ̂ 0 , 𝐴0 ) – правильное необнаружение. (A Каждая из этих ситуаций имеет вероятности совмещения событий: ̂ 𝑖 , 𝐴𝑘 ). 𝑃(A 1) При наличии в принятой реализации цели (𝐴1 = 1) вводятся: а) условная вероятность правильного обнаружения ̂ A 𝐷 = 𝑃 { 1⁄𝐴 }. 1 б) условная вероятность пропуска цели ̂ ̃ = 𝑃 {A0⁄ } = 1 − 𝐷 (ошибка II –го рода). 𝐷 𝐴 1 98 2) При отсутствии в принятой реализации цели (𝐴0 = 0) вводятся: а) условная вероятность ложной тревоги ̂ A 𝐹 = 𝑃 { 1⁄𝐴 } (ошибка I –го рода). б) условная вероятность правильного необнаружения ̂ A 𝐹̃ = 𝑃 { 0⁄𝐴 } = 1 − 𝐹. С учетом заданной платной матрицы выражение для условного среднего риска запишется следующим образом: ̂ A 𝑦⃗ 𝑅 ( 𝑘⁄ ) = ∑1𝑖=0 𝑑𝑘𝑖 ∙ P(𝐴𝑖 ) ∙ 𝑝 ( ⁄𝐴 ). 𝑦⃗ 𝑖 Если 𝑑11 = 𝑑00 = 0, то ̂ 𝑦⃗ A 𝑅 ( 1⁄ ) = 𝑑10 ∙ P(𝐴0 ) ∙ 𝑝 ( ⁄𝐴 ) 𝑦⃗ и ̂ A 𝑦⃗ 𝑅 ( 0⁄ ) = 𝑑01 ∙ P(𝐴1 ) ∙ 𝑝 ( ⁄𝐴 ). 𝑦⃗ 1 ̂ ̂ A A Если 𝑅 ( 1⁄ ) < 𝑅 ( 0⁄ ), 𝑦⃗ 𝑦⃗ (5) ̂1 = 1. выбирается решение A ̂ ̂ A A Если 𝑅 ( 1⁄ ) ≥ 𝑅 ( 0⁄ ), 𝑦⃗ 𝑦⃗ (6) ̂1 = 0. выбирается решение A 99 Неравенство (5) можно, поэтому записать 𝑦⃗ 𝑦⃗ 𝑑10 ∙ P(𝐴0 ) ∙ 𝑝 ( ⁄𝐴 ) ≤ 𝑑01 ∙ P(𝐴1 ) ∙ 𝑝 ( ⁄𝐴 ). 1 Обозначим ⃗⃗ 𝑦 𝑝( ⁄𝐴 ) 1 а) 𝑙(𝑦⃗) = - отношение правдоподобия; ⃗⃗ 𝑦 𝑝( ⁄𝐴 ) 𝑑 ∙P(𝐴 ) б) 𝑙0 = 𝑑10 ∙P(𝐴0 ) – пороговый уровень (порог). 01 1 Тогда условия оптимизации обнаружения (алгоритм) можно записать 1, 𝑙(𝑦⃗) ≥ 𝑙0 𝐴̂ = 𝐴̂(𝑦⃗) = { . 0, 𝑙(𝑦⃗) < 𝑙0 (7) Выражение (7) называют также оптимальным алгоритмом обнаружения. 𝑦⃗ 𝑦⃗ Значения ФПВ 𝑝 ( ⁄𝐴 ) и 𝑝 ( ⁄𝐴 ) для одной и той же реализации 𝑦⃗, 1 принимаемых колебаний при двух условиях: наличие сигнала и помехи, либо наличие только помехи обозначим, соответственно: 𝑦⃗ 𝑦⃗ 𝑝СП (𝑦⃗) = 𝑝 ( ⁄𝐴 ) и 𝑝П (𝑦⃗) = 𝑝 ( ⁄𝐴 ).от 1 Отсюда отношение правдоподобия можно записать 𝑙(𝑦⃗) = ⃗⃗) 𝑝СП (𝑦 . 𝑝П (𝑦⃗⃗) Для непрерывной реализации выражение (7) принимает вид: 1, 𝑙[𝑦⃗(𝑡)] ≥ 𝑙0 𝐴̂[𝑦⃗(𝑡)] = { . 0, 𝑙[𝑦⃗(𝑡)] < 𝑙0 Широко используется также монотонная функция от отношения правдоподобия, чаше всего ln[𝑙[𝑦⃗(𝑡)]] (см. рис.__) 100 ln(ℓ) ℓ Рис.___ Оптимизация обнаружения при этом не нарушается, поскольку в ln[𝑙[𝑦⃗(𝑡)]] заключается вся информация, достаточная для принятия оптимального решения. Такие монотонные функции получили поэтому название достаточных статистик. Структурная схема оптимального обнаружителя Структурная схема однопорогового обнаружителя с двухальтернативным решением представлено на рис.___. y(t) Вычислительное устройство 1, 𝑙𝑛{𝑙 [𝑦⃗(𝑡)]} ≥ 𝑙𝑛(𝑙0 ) 𝐴̂[𝑦⃗(𝑡)] = { 0, 𝑙𝑛{𝑙 [𝑦⃗(𝑡)]} < 𝑙𝑛(𝑙0 ) ln(l) 𝑆0 = 𝑙𝑛(𝑙0 ) Рис.___ Выбор порога 𝑺𝟎 = 𝒍𝒏(𝒍𝟎 ) Структура обнаружителя не зависит от величины порога 𝑆0 . От выбора порога 𝑆0 зависит только уровень ложной тревоги F. 101 3.1.4 Оптимизация измерений. Оценки максимума послеопытной плотности вероятности и максимального правдоподобия. Напомним, что условный средний риск представляется выражением ̂ ∞ 𝑅 (𝛼⃗⁄ ) = ∫−∞ Π(𝛼̂⃗ , 𝛼⃗) ∙ 𝑝 (𝛼⃗⁄ ) 𝑑𝛼⃗. 𝑦⃗ 𝑦⃗ Для решения задачи минимизации условного среднего риска необходимо конкретизировать функцию стоимости ошибок. Наиболее характерными функциями стоимости ошибки измерения являются: а) простая функция стоимости Π(𝛼̂⃗ , 𝛼⃗) = −𝛿(𝛼̂⃗ − 𝛼⃗) + 𝑐𝑜𝑛𝑠𝑡 (см. рис.___б); б) квадратичная функция стоимости Т Π(𝛼̂⃗ , 𝛼⃗) = (𝛼̂⃗ − 𝛼⃗) ∙ B ∙ (𝛼̂⃗ − 𝛼⃗) = ∑𝑖,𝑗 𝑏𝑖,𝑗 ∙ (𝛼̂⃗ 𝑖 − 𝛼⃗𝑖 )(𝛼̂⃗𝑗 − 𝛼⃗𝑗 ). Для скалярного параметра i=j=1, b1,1=0 будет Π(𝛼̂, 𝛼) = (𝛼̂ − 𝛼)2 (см. рис.___б). ^ Π(α,α) 𝑐𝑜𝑛𝑠𝑡 ^ α α а) ^ Π(α,α) α ^ α б) 102 Рис.___ Условный средний риск для этих функций равен: ̂ ̂ а) 𝑅 (𝛼⃗⁄ ) = −𝑝 (𝛼⃗⁄ ) + 𝑐𝑜𝑛𝑠𝑡 𝑦⃗ 𝑦⃗ ̂ ̂ поэтому min𝛼⃗̂⃗⃗ 𝑅 (𝛼⃗⁄ ) ~ max 𝛼⃗̂⃗⃗ 𝑝 (𝛼⃗⁄ ) 𝑦⃗ 𝑦⃗ Т ̂ ∞ б) 𝑅 (𝛼⃗⁄ ) = ∫−∞(𝛼̂⃗ − 𝛼⃗) ∙ B ∙ (𝛼̂⃗ − 𝛼⃗) 𝑑𝛼⃗ 𝑦⃗ или для скалярного случая ∞ 𝑅 (𝛼̂⁄ ) = ∫ (𝛼̂ − 𝛼)2 ∙ 𝑝 (𝛼⁄ ) 𝑑𝛼 𝑦⃗ 𝑦⃗ −∞ Для скалярного случая min𝛼̂ 𝑅 (𝛼̂⁄ ) найдем следующим образом: 𝑦⃗ ∞ 𝑑 ∫ (𝛼̂ − 𝛼)2 ∙ 𝑝 (𝛼⁄ ) 𝑑𝛼 = 0 𝑦⃗ 𝑑𝛼̂ −∞ ∞ ∞ ∞ ∫ 2 ∙ (𝛼̂ − 𝛼) ∙ 𝑝 (𝛼⁄ ) 𝑑𝛼 = 2 ∙ 𝛼̂ ∙ ∫ 𝑝 (𝛼⁄ ) 𝑑𝛼 − 2 ∙ ∫ 𝛼 ∙ 𝑝 (𝛼⁄ ) 𝑑𝛼 = 0 𝑦⃗ 𝑦⃗ 𝑦⃗ −∞ −∞ −∞ =1 Тогда ∞ 𝛼̂ = ∫−∞ 𝛼 ∙ 𝑝 (𝛼⁄ ) 𝑑𝛼 = 𝑚1 {𝛼⁄ } – среднее значение ФПВ 𝑝 (𝛼⁄ ). 𝑦⃗ 𝑦⃗ 𝑦⃗ Напомним, что по формуле Байеса 𝑦⃗ 𝑝(𝑦⃗) ∙ 𝑝 (𝛼⁄ ) = 𝑝(𝛼) ∙ 𝑝 ( ⁄𝛼 ). 𝑦⃗ (8) Отсюда 𝑦⃗ 𝑝 (𝛼⁄ ) = с ∙ 𝑝(𝛼) ∙ 𝑝 ( ⁄𝛼 ), 𝑦⃗ (9) 103 ∞ 𝑦⃗ где с = 1⁄ ( ) = 1⁄∫−∞ 𝑝(𝛼) ∙ 𝑝 ( ⁄𝛼 ) 𝑑𝛼, 𝑝 𝑦⃗ (10) что следует из нормировки: ∞ ∞ 𝑦⃗ ∫−∞ 𝑝 (𝛼⁄𝑦⃗) 𝑑𝛼 = с ∙ ∫−∞ 𝑝(𝛼 ) ∙ 𝑝 ( ⁄𝛼 ) 𝑑𝛼 = 1. 𝑦⃗ Заметим, что площадь под кривой 𝑝 ( ⁄𝛼 ) функции правдоподобия не равна 1. Соотношение (9) для одномерного случая поясняется на рис. ___. Пологий характер 𝑝(𝛼) характеризует весьма ограниченную в данном случае доопытную информацию об оцениваемом параметре. Информация заметно 𝑦⃗ уточняется при более острой кривой функции правдоподобия 𝑝 ( ⁄𝛼 ). Кривая послеопытной плотности вероятности 𝑝 (𝛼⁄ ), как правило, ̍уже и 𝑦⃗ 𝑦⃗ кривой 𝑝(𝛼) и кривой 𝑝 ( ⁄𝛼 ) в функции 𝛼. При полном отсутствии доопытных данных 𝑝(𝛼 ) = 𝑐𝑜𝑛𝑠𝑡 кривая послеопытной плотности вероятности 𝑝 (𝛼⁄ ) совпадает по форме с кривой 𝑦⃗ 𝑦⃗ функции правдоподобия 𝑝 ( ⁄𝛼 ). Площадь под кривой 𝑝 (𝛼⁄ ) в отличие от 𝑦⃗ 𝑦⃗ площади под кривой 𝑝 ( ⁄𝛼 ) равна единице. В этом состоит условие нормировки (10). Наоборот, при наличии надежных, не устаревших ещё данных 𝑦⃗ предшествующих измерений кривая 𝑝(𝛼) может быть ̍уже кривой 𝑝 ( ⁄𝛼 ), преимущественно определяя послеопытную плотность вероятности. 104 p(α/y) p(y/α ) p(α) α Рис.__ Введем условное отношение правдоподобия в виде: 𝑦⃗⃗ 𝑝( ⁄𝛼 ) 𝑦⃗⁄ 𝑦⃗ 𝑦⃗ 𝑙 ( 𝛼 ) = 𝑝 (𝑦⃗⃗) . Отсюда 𝑝 ( ⁄𝛼) = 𝑝П (𝑦⃗) ∙ 𝑙 ( ⁄𝛼 ). П С учетом выражения (8) 𝑦⃗ 𝑝 (𝛼⁄ ) = 𝑐1 ∙ 𝑝(𝛼) ∙ 𝑙 ( ⁄𝛼 ), 𝑦⃗ где с1 = ∞ 𝑝П (𝑦⃗) 𝑦⃗ ⁄ ( ) = 1⁄∫−∞ 𝑝(𝛼) ∙ 𝑙 ( ⁄𝛼 ) 𝑑𝛼. 𝑝 𝑦⃗ Логарифмируем 𝑝 (𝛼⁄ ) 𝑦⃗ 𝑦⃗ 𝑙𝑛 [𝑝(𝛼⁄ )] = 𝑙𝑛[𝑝(𝛼)] + 𝑙𝑛 [𝑙 ( ⁄𝛼 )] + 𝑙𝑛(𝑐1 ), 𝑦⃗ причем 𝑙 𝑛(𝑐1 ) = 𝑐𝑜𝑛𝑠𝑡. Оптимальная обработка при измерении будет заключаться в вычислении 𝑦⃗ логарифма функции правдоподобия 𝑙𝑛 [𝑙 ( ⁄𝛼 )], то есть такой же, что и в оптимальном обнаружителе (см. рис.__). y(t) Вычислительное устройство ln[l(y/α )] Рис.__ 105 Особенности оптимального измерителя: 1) Измеритель без учета апостериорной (доопытной) информации о параметре, то есть 𝑝(𝛼) не учитывается. В этом случае 𝑝(𝛼 ) = 𝑐𝑜𝑛𝑠𝑡. 𝑦⃗ Тогда 𝑝 (𝛼⁄ ) = 𝑐1 ∙ 𝑙 ( ⁄𝛼 ). Это неследящий измеритель, то есть 𝑦⃗ полагается, что значение измеряемого параметра не меняется на интервале измерения. 2) Если значение 𝑝(𝛼) известно, тогда эти знания позволяют повысить точность оценивания. Как получить априорную информацию? Априорную информацию можно получить, например, при многократном измерении значения 𝛼 можно спрогнозировать из предыдущего измерения на текущее измерение. Такой измеритель будет следящим. 3.2. Особенности вычисления отношения правдоподобия для различных моделей сигналов. 3.2.1 Отношение правдоподобия для дискретизированного сигналов с известными параметрами Рассмотрим отношение правдоподобия 𝑙(𝑦⃗) = ⃗⃗) 𝑝СП (𝑦 𝑝П (𝑦⃗⃗) для параметрической модели сигнала 𝑦⃗ = 𝐴 ∙ 𝑥⃗(𝛼⃗, 𝛽⃗ ) + 𝑛⃗⃗(𝜗⃗) в случае когда 𝛽⃗ и 𝜗⃗ вектора с неслучайным (известные) элементами. Тогда 𝑚1 {𝑦⃗} = 𝑥⃗(𝛼⃗) и 𝑝СП (𝑦⃗) = 𝑝П (𝑦⃗ − 𝑥⃗(𝛼⃗)). Многомерный гауссовский случайный процесс а) В отсутствии сигнала от цели, то есть 𝑚1 {𝑦⃗} = 0. Вектор принимаемого сигнала 𝑦⃗ = ‖𝑦1 𝑦2 ⋯ 𝑦𝑁 ‖𝑇 или комплексном виде: 𝒀 = ‖𝑦̇ 1 𝑦̇ 2 ⋯ 𝑦̇ 𝑁 ‖𝑇 . Причем 𝒀 = 𝑿(𝛼⃗) + 𝒏, где 𝑿(𝛼⃗) = 𝑿 и 𝒏 целевая и помеховая составляющие принимаемого сигнала, соответственно. 106 Для многомерного гауссовского СП ФПВ можно записать в векторной форме: 𝑵 −𝟏⁄𝟐 𝒑𝚷 (𝒀) = (𝟐𝝅)− 𝟐 ∙ [𝒅𝒆𝒕𝚽𝐘 ] 𝒆𝒙𝒑 {− 𝒀𝑯 ∙𝚽𝐘 −𝟏 ∙𝒀 }, 𝟐 где: - знак «н» обозначает эрмитовое сопряжение (комплексное сопряжение и транспонирование) ̇ f1,2 ̇ ̇ f1,1 ⋯ f1,N ḟ2,1 ḟ2,2 ⋯ ḟ2,N ‖ – КМ помехи; - ΦY = ‖ ⋯ ‖ ‖ ⋮ ⋮ ⋮ ⋯ ḟN,1 fN,2 ḟN,N ̇ i ∙ ξ̇j ∗ ξ ⁄} - ḟi,j = m1 { 2 – элементы КМ и ḟi,i = 𝜎𝜉𝑖 2 . б) В присутствии сигнала от цели, то есть 𝑚1 {𝑦⃗} = 𝑿. 𝑁 𝑝СП (𝒀) = 𝑝П (𝒀 − 𝑿) = (2𝜋)− 2 ∙ [𝑑𝑒𝑡K Y ] −1⁄2 𝑒𝑥𝑝 {− (𝒀−𝑿)𝐻 ∙KY −1 ∙(𝒀−𝑿) 2 },. где K Y = ‖𝑘̇𝑖,𝑗 ‖𝑖,𝑗=1,N ̅̅̅̅̅ – ковариационная матрица, с элементами ∗ ̇ ̇ ̇𝑘𝑖,𝑗 = m1 {(ξi − 𝑥̇ i ) ∙ (ξj − 𝑥̇ j ) ⁄ }. 2 Следует отметить, что ковариационная матрица принимаемого сигнала K 𝐘 = Φ𝐧 . Здесь Φ𝐧 КМ помеховой составляющей принимаемого сигнала 𝒏 = 𝑛̇⃗⃗. в) Для некоррелированных случайных процессов с одинаковыми дисперсиями 𝜎П2 K Y = 𝜎П2 ∙ 𝐈, где 𝐈 – единичная матрица. 107 г) Для коррелированных случайных процессов с одинаковыми дисперсиями 𝜎П2 При N=2 𝜎П2 K Y = Φ𝐧 = ‖ 2 ∗ 𝜎П ∙ 𝜌̇ 𝜎П2 ∙ 𝜌̇ ‖, где 𝜌̇ – коэффициент корреляции. 𝜎П2 Детерминант КМ помехи det (Φ𝐧 ) = det (K Y ) = 𝜎П4 ∙ (1 − |𝜌̇ |2 ). Матрица, обратная КМ помехи можно записать в виде: Ψn = Φ𝐧 1 ‖ |2 ) 𝜎П2 ∙(1−|𝜌̇ −1 1 −𝜌̇ = KY −1 𝜎П2 ‖ = det(Φ𝐧 ) −𝜎П2 ∙ 𝜌̇ 1 −𝜎П2 ∙ 𝜌̇ ∗ ‖= 𝜎П2 −𝜌̇ ∗ ‖. 1 Здесь Ψn = ‖𝜓𝑖,𝑗 ‖ 𝑖,𝑗=1,𝑁 – матрица, обратная КМ помехи (Ψn ∙ Φ𝐧 = 𝐈). Составляем достаточную статистику ln[l(𝐘)] Достаточная статистика с учетом результатов подраздела 3.3.1 представляется в виде: (𝒀) 𝑝 ln[𝑙(𝒀)] = ln [ 𝑝СП(𝒀) ] = − (𝒀−𝑿)𝐻 ∙Ψn ∙(𝒀−𝑿) 2 П + 𝒀𝐻 ∙Ψn ∙𝒀 2 = 𝒀𝐻 ∙Ψn ∙𝑿 2 + 𝑿𝐻 ∙Ψn ∙𝒀 2 − 𝑿𝐻 ∙Ψn ∙𝑿 2 . Напомним некоторые свойства комплексных величин, векторов и матриц: 1. Поскольку КМ помехи Φ𝐧 является эрмитовой, то есть Φ𝐧 = Φ𝐧 Н . 𝑏̇+𝑏̇ 2. Если 𝑏̇ комплексная величина, то 2 = 𝑅𝑒{𝑏̇ }. ∗ Введем обозначение 𝑞 2 (𝛼⃗) = 𝑿𝐻 ∙ Ψn ∙ 𝑿. (11) Тогда ln[𝑙(𝒀)] = 𝑅𝑒 {𝑿𝐻 ∙ Ψn ∙ 𝒀} − ⃗⃗⃗) 𝑞 2 (𝛼 2 . (11а) 108 Обозначим комплексную весовую сумму ∗ 𝑁 ⃗). 𝑍̇(𝛼⃗) = 𝑿𝐻 ∙ Ψn ∙ 𝒀 = ∑𝑁 𝑖=1 ∑𝑗=1 𝑦̇ 𝑖 ∙ 𝜓𝑖,𝑗 ∙ 𝑥̇𝑗 (𝛼 (12) В выражении (12) величины 𝜓𝑖,𝑗 и 𝑥̇𝑗 (𝛼⃗) считаются известными. Параметр 𝑞 2 (𝛼⃗) (см. выражение (11)) является вещественной величиной, независящей от 𝒀 и пропорциональной энергии полезного сигнала 𝑿 на входе вычислительного устройства обработки. Таким образом 𝑞 ln[𝑙(𝒀)] = 𝑅𝑒{𝑍̇(𝛼⃗)} − 2 (𝛼 ⃗⃗⃗) . 2 (13) В соответствие с выражениями (12) и (13) обработка принятого сигнала 𝒀 будет заключаться в вычислении комплексной весовой суммы ∗ ∗ 𝑁 ⃗ ) = ∑𝑁 𝑍̇(𝛼⃗) = ∑𝑁 𝑖=1 ∑𝑗=1 𝑦̇ 𝑖 ∙ 𝜓𝑖,𝑗 ∙ 𝑥̇𝑗 (𝛼 𝑖=1 𝑦̇ 𝑖 ∙ 𝑤̇𝑖 . (14) 𝑤̇𝑖 ∗ Введем весовой вектор ⃗⃗⃗⃗̇ = ‖𝑤̇ ‖̅̅̅̅̅̅̅̅ = Ψ ∙ 𝑿(𝛼⃗). 𝑊 𝑖 𝑖=1,𝑁 n (15) Примеры: 1. Для помехи типа белый шум Φ𝐧 = 𝜎ш2 ∙ 𝐈 и Ψn = 𝜎ш−2 ∙ 𝐈. Тогда ⃗)|2 , 𝑞 2 (𝛼⃗) = 𝜎ш−2 ∙ 𝑿𝐻 ∙ 𝑿 = 𝜎ш−2 ∙ ∑𝑁 𝑖=1|𝑥̇ 𝑖 (𝛼 где 𝜎ш2 = 𝛷𝑛 (0) = 𝑁0 2 ∙ 𝛿(0). Для квазибелого шума выразим 𝜎ш2 = 𝑁0 ∙ ∆𝑓 = 𝑁0 ⁄2𝜏д , здесь 𝑁0 – СПМ шума; ∆𝑓 – полоса пропускания приемного устройства; 𝜏д = 1⁄2𝑓 𝑚𝑎𝑥 – шаг дискретизации, 𝑓𝑚𝑎𝑥 – максимальная частота в спектре принятого сигнала. Тогда 2 ⃗ )|2 ∙ 𝜏д = 𝑞 2 (𝛼⃗ ) = 𝑁 ∙ ∑𝑁 𝑖=1|𝑥̇ 𝑖 (𝛼 ⃗⃗⃗) 2∙∑𝑁 𝑖=1 Э𝑖 (𝛼 𝑁0 – энергетический параметр, характеризующий отношение энергии полезного сигнала к спектральной плотности шума. 2. Для N=2: 109 а) Вектор полезного сигнала 𝑿 = ⟦𝑥̇1 (𝛼⃗) 𝑥̇ 2 (𝛼⃗)⟧Т и вектор принимаемого сигнала 𝒀 = ‖𝑦1 𝑦2 ‖T . б) КМ помехи записывается в виде: 𝜎П2 Φ𝐧 = ‖ 2 ∗ 𝜎П ∙ 𝜌̇ 𝜎П2 ∙ 𝜌̇ ‖. 𝜎П2 в) Матрица, обратная КМ помех −𝜌̇ ∗ ‖. 1 1 Ψn = 𝜎 2 ∙(1−|𝜌̇ |2 ) ‖ −𝜌̇ П 1 г) Комплексная весовая сумма ∗ ∗ 𝐻 𝐻 𝐻 ⃗⃗⃗⃗̇ 𝑍̇(𝛼⃗) = ∑𝑁 𝑖=1 𝑦̇ 𝑖 ∙ 𝑤̇𝑖 = 𝑿 ∙ Ψn ∙ 𝒀 = 𝒀 ∙ Ψn ∙ 𝑿 = 𝒀 ∙ 𝑊 = ‖𝑦̇ 1 1 𝜎П ∙(1−|𝜌̇ |2 ) 1 ‖ −𝜌̇ 𝑦̇ 2 ∗ ‖ ∙ 𝑥̇1 (𝛼⃗)⁄ 𝜎П ∗ −𝜌̇ ‖∙‖ ‖. 1 𝑥̇ 2 (𝛼⃗)⁄ 𝜎П 𝑿нор Структурная схема оптимального обнаружителя представлена на рис. ___. y1 ∑ Х Х Х 1/σΠ y2 → Х Х ∑ 1/σΠ -ρ̇ ∑ Х x˙ 1(α)/σΠ -ρ̇ Х ПУ ^ A=(0,1) ˙ 2) 1/(1-|ρ| → x˙ 2(α)/σΠ нормирование компенсация корр. помех накопление полезного сигнала Рис. ___ 110 3.2.2 Отношение правдоподобия для непрерывного сигнала с полностью известными параметрами 1) Для комплексной весовой суммы (14) при переходе к непрерывному сигналу необходимо осуществить предельный переход 𝐿 → ∞ и 𝜏д → 0, тогда комплексные весовые коэффициенты переходят в комплексную весовую функцию 𝑤̇𝑖 (𝑡, 𝛼⃗) = lim𝜏д →0 (∑𝐿𝑗=1 𝑤̇𝑖,𝑗 ⁄𝜏д ) (𝑖 = ̅̅̅̅̅̅ 1, 𝑀 ), а 𝑦̇ 𝑖,𝑗 → 𝑦̇ 𝑖 (𝑡). Комплексная весовая сумма преобразуется следующим образом ∞ ∗ 𝐿 ⃗⃗⃗⃗̇ ∗ ⃗ )𝑑𝑡 = ̇𝑇 𝑍̇(𝛼⃗) = lim𝜏д →0 (∑𝑀 𝑖=1 ∑𝑗=1 𝑦̇ 𝑖,𝑗 ∙ 𝑤̇𝑖,𝑗 ∙ 𝜏д ) = ∫−∞ 𝒀 (𝑡 ) 𝑊 (𝑡, 𝛼 𝐿→∞ ∞ ̇ ⃗ ), ∙ 𝑊̇ (𝑡, 𝛼⃗)𝑑𝑡 = ∑𝑀 ∫−∞ 𝒀̇𝐻 (𝑡 ) ⃗⃗⃗⃗⃗⃗⃗ 𝑖=1 𝑍𝑖 (𝛼 (15а) ∞ где 𝑍̇𝑖 (𝛼⃗) = ∫−∞ 𝑦̇ 𝑖 (𝑡 ) ∙ 𝑤̇ ∗ 𝑖 (𝑡)𝑑𝑡. (15б) 2) Весовой вектор (15) имеет вид ⃗⃗⃗⃗̇ = ‖𝑤̇ ‖̅̅̅̅̅̅̅̅ = Ψ ∙ 𝑿(𝛼⃗). 𝑊 𝑖 𝑖=1,𝑁 n Отсюда имеем матричное уравнение ⃗⃗⃗⃗̇ = 𝑿(𝛼⃗). Φ𝐧 ∙ 𝑊 После предельного перехода 𝐿 → ∞ и 𝜏д → 0 получим интегральное уравнение вида: ∞ ⃗⃗⃗⃗̇ (𝑠, 𝛼⃗ )𝑑𝑠 = 𝑿(𝑡, 𝛼⃗), ∫−∞ Φ𝐧 (𝑡, 𝑠) ∙ 𝑊 (16) где Φ𝐧 (𝑡, 𝑠) = 𝑚1 { 𝒀̇(𝑡)∙𝒀̇𝐻 (𝑠) 𝟐 } – КМ комплексных амплитуд помехи, ⃗⃗⃗⃗̇ (𝑠, 𝛼⃗ ) – векторная весовая функция. 𝑊 3) Для помехи типа белый шум Φ𝐧 (𝑡, 𝑠) = Φ𝐧 (𝑡 − 𝑠) = 𝜎П2 ∙ 𝛿(𝑡 − 𝑠). В этом случае интегральное уравнение (16) имеет простое решение: ⃗⃗⃗⃗̇ (𝑡, 𝛼⃗) = 𝑿(𝑡, 𝛼⃗). 𝜎П2 ∙ 𝑊 111 Векторная весовая функция ⃗⃗⃗⃗̇ (𝑡, 𝛼⃗) = 𝜎 −2 ∙ 𝑿(𝑡, 𝛼⃗), 𝑊 П (15в) что соответствует многоканальному согласованному фильтру. 3.2.3 Отношение правдоподобия для сигнала со случайными неинформативными параметрами Методика формирования отношения правдоподобия Принятая модель полезного сигнала 𝑿(𝛼⃗, 𝛽⃗) содержит вектор 𝛽⃗ неинформативных параметров (случайные амплитуды 𝑏̇𝑖 и случайная фаза 𝜑𝑖 ). Для когерентного полезного сигнала модель характеризуется только одной случайной амплитудой и одной случайной фазой. Для некогерентного полезного сигнала модель характеризуется более, чем одной случайной амплитудой и более, чем одной случайной фазой. При известной ФПВ случайного параметра 𝑝(𝛽⃗ ) условную ФПВ присутствия в принятом сигнале 𝑦⃗ помехи и полезного сигнала при определенном (фиксированном) значении параметра 𝛽⃗ обозначим как 𝑦⃗ 𝑝СП ( ⁄ ). Тогда безусловная ФПВ 𝛽⃗ ∞ 𝑦⃗ 𝑝СП (𝑦⃗) = ∫−∞ 𝑝СП ( ⁄ ) ∙ 𝑝(𝛽⃗ ) 𝑑𝛽⃗ . 𝛽⃗ Поделив обе части верхнего уравнения на 𝑝П (𝑦⃗) получим: ∞ 𝑙(𝛼⃗) = ∫−∞ 𝑙 (𝛼⃗⁄ ) ∙ 𝑝(𝛽⃗ ) 𝑑𝛽⃗ , 𝛽⃗ где 112 𝑙 (𝛼⃗⁄ ) = 𝛽⃗ Поскольку 𝑦⃗ 𝑝СП ( ⁄ ) 𝛽⃗ ⁄ , - условное отношение правдоподобия. 𝑝П (𝑦⃗) для полностью известного сигнала отношение правдоподобия описывается выражением 𝑙(𝛼⃗) = 𝑒 𝑞 {𝑅𝑒[𝑍̇(𝛼 ⃗⃗⃗)]− 2 (𝛼 ⃗⃗⃗) 2 } , то при учете фиксированного параметра 𝛽⃗ 𝑙 (𝛼⃗⁄ ) = 𝑒𝑥𝑝 𝑅𝑒 [𝑍̇ (𝛼⃗⁄ )] − 𝛽⃗ 𝛽⃗ { где ⃗⃗⃗ ) 𝑞 2 (𝛼 ⁄⃗⃗⃗ 𝛽 𝑍̇ (𝛼⃗⁄ ) = 𝒀н ∙ Ψn ∙ 𝑿(𝛼⃗/𝛽⃗ ). 𝛽⃗ 2 , } Здесь 𝑿(𝛼⃗/𝛽⃗) = 𝑿(𝛼⃗, 𝛽⃗ ) при фиксированном параметре 𝛽⃗ . Параметр 𝑞 2 (𝛼⃗⁄ ) = 𝑿(𝛼⃗/𝛽⃗)𝐻 ∙ Ψn ∙ 𝑿(𝛼⃗/𝛽⃗ ). 𝛽⃗ Весовой вектор, тогда, можно записать в виде: ⃗⃗⃗⃗̇ (𝛼⃗ ) = Ψ ∙ 𝑿 (𝛼⃗⃗ ). 𝑊 ⁄⃗ n ⃗⃗⃗ 𝛽 𝛽 ⃗⃗⃗ ) 𝑞 2 (𝛼 ⁄⃗⃗⃗ 𝛽 ∞ Отсюда 𝑙 (𝛼⃗) = ∫−∞ 𝑒𝑥𝑝 𝑅𝑒 [𝑍̇ (𝛼⃗⁄ )] − 2 ∙ 𝑝(𝛽⃗) 𝑑𝛽⃗. 𝛽⃗ { } При осуществлении предельного перехода к непрерывному сигналу 𝜏д → 0 имеем следующие соотношения для непрерывного принятого сигнала 113 ∞ ∞ ⃗⃗⃗⃗̇ ∗ (𝑡, 𝛼⃗ ) 𝑑𝑡 = 𝑍̇ (𝛼⃗⁄ ) = ∫−∞ 𝒀н (𝑡) ∙ 𝛹𝑛 ∙ 𝑿(𝑡, 𝛼⃗/𝛽⃗) 𝑑𝑡 = ∫−∞ 𝒀T (𝑡) ∙ 𝑊 ⁄⃗ ⃗ 𝛽 𝛽 ̇ 𝛼⃗ ∑𝑀 𝑖=1 𝑍𝑖 ( ⁄ ⃗ ). 𝛽 - корреляционный интеграл. Здесь ∞ 𝑍̇𝑖 (𝛼⃗⁄ ) = ∫−∞ 𝑦̇ 𝑖 (𝑡) ∙ 𝑤̇ ∗ 𝑖 (𝑡, 𝛼⃗⁄ )𝑑𝑡. 𝛽⃗ 𝛽⃗ ∞ ⃗⃗⃗⃗̇ ∗ (𝑡, 𝛼⃗ ) 𝑑𝑡. Параметр 𝑞 2 (𝛼⃗⁄ ) = ∫−∞ 𝑿Т (𝑡, 𝛼⃗/𝛽⃗) ∙ 𝑊 ⁄⃗ ⃗ 𝛽 𝛽 Весовая функция определяется из интегрального уравнения ∞ ⃗⃗⃗⃗̇ (𝑠, 𝛼⃗/𝛽⃗ )𝑑𝑠 = 𝑿(𝑡, 𝛼⃗/𝛽⃗ ). ∫−∞ Φ𝐧 (𝑡, 𝑠) ∙ 𝑊 Отношение правдоподобия для сигналов со случайной начальной фазой В этом случае 𝛽⃗ = 𝛽 является скалярной величиной. Модель полезного сигнала имеет вид: 𝑥⃗̇(𝑡, 𝛼⃗/𝛽⃗) = 𝑥⃗̇(𝑡, 𝛼⃗) ∙ 𝑒 𝑗𝛽 . Обычно ФПВ начальной фазы полезного сигнала принимают равномерной в возможном диапазоне её значений 𝑝(𝛽) = 1⁄2𝜋 при 0 ≤ 𝛽 ≤ 2𝜋. Векторная весовая функция ⃗⃗⃗⃗̇ (𝑡, 𝛼⃗/𝛽) = 𝑊 ⃗⃗⃗⃗̇ (𝑡, 𝛼⃗) ∙ 𝑒 𝑗𝛽 . 𝑊 Выражение ∞ ⃗⃗⃗⃗̇ ∗ (𝑡, 𝛼⃗⁄𝛽 ) 𝑑𝑡} = 𝑅𝑒{𝑍̇(𝛼⃗) ∙ 𝑒 −𝑗𝛽 } = 𝑅𝑒{𝑍̇(𝛼⃗/𝛽)} = 𝑅𝑒 {∫−∞ 𝒀T (𝑡) ∙ 𝑊 |𝑍̇(𝛼⃗)| ∙ cos[𝛽 − 𝑎𝑟𝑔{𝑍̇ (𝛼⃗)}], 114 ̇ ⃗ )| – модуль корреляционного интеграла. где |𝑍̇(𝛼⃗)| = |∑𝑀 𝑖=1 𝑍𝑖 (𝛼 В этом случае параметр (параметр обнаружения) ∞ ⃗⃗⃗⃗̇ ∗ (𝑡, 𝛼⃗⁄ ) 𝑑𝑡 = ∫∞ 𝑥⃗̇ Т (𝑡, 𝛼⃗) ∙ 𝑒 𝑗𝛽 ∙ 𝑞 2 (𝛼⃗/𝛽) = ∫−∞ 𝑿Т (𝑡, 𝛼⃗/𝛽) ∙ 𝑊 −∞ 𝛽 ⃗⃗⃗⃗̇ ∗ (𝑡, 𝛼⃗) ∙ 𝑒 −𝑗𝛽 𝑑𝑡 = ∫∞ 𝑥⃗̇ Т (𝑡, 𝛼⃗) ∙ 𝑊 ⃗⃗⃗⃗̇ ∗ (𝑡, 𝛼⃗) ∙ 𝑑𝑡 = 𝑞 2 (𝛼⃗), то есть не зависит от 𝑊 −∞ 𝛽. Поэтому записать отношение правдоподобия в виде: 𝑙(𝛼⃗) = 𝑒𝑥𝑝 {− Интеграл 1 ⃗⃗⃗) 𝑞 2 (𝛼 2 }∙ 1 2𝜋 ̇ ̇ ∫ 𝑒 |𝑍(𝛼⃗⃗⃗)|∙cos[𝛽−𝑎𝑟𝑔{𝑍(𝛼⃗⃗⃗)}] 𝑑𝛽. 2𝜋 0 2𝜋 ̇ ̇ ∫ 𝑒 |𝑍(𝛼⃗⃗⃗)|∙cos[𝛽−𝑎𝑟𝑔{𝑍(𝛼⃗⃗⃗)}] 𝑑𝛽 = I0 (|𝑍̇(𝛼⃗)|). 2𝜋 0 Табулированная функция 1 2𝜋 I0 (𝑢) = 2𝜋 ∫0 𝑒 𝑢∙cos[𝛽−𝛽0 ] 𝑑𝛽 – модифицированная функция Бесселя первого рода нулевого порядка. Тогда отношение правдоподобия для сигнала со случайной фазой принимает вид: 𝑙(𝛼⃗) = 𝑒𝑥𝑝 {− ⃗⃗⃗) 𝑞 2 (𝛼 2 } ∙ I0 (|𝑍̇(𝛼⃗)|). Достаточная статистика в этом случае запишется 𝑙𝑛[𝑙(𝛼⃗)] = 𝑙𝑛[I0 (|𝑍̇ (𝛼⃗)|)] − 𝑞 2 (𝛼⃗) 2 или ̇ ⃗ )| − 𝑍0 . 𝑙𝑛[𝑙(𝛼⃗)] ≅ |𝑍̇(𝛼⃗)| − 𝑍0 = |∑𝑀 𝑖=1 𝑍𝑖 (𝛼 Поясняющие графики представлены на рис.___. 115 I0(u) ln(u) ln[I0(u)] Рис.___ В оптимальном обнаружителе здесь используется следующая процедура: 𝐴̂[𝒀(𝑡)] = { 1, если |𝑍̇ (𝛼⃗)| ≥ 𝑍0 , 0, если |𝑍̇ (𝛼⃗)| < 𝑍0 а структурная схема такого обнаружителя представлена на рис.___. Re Y(t) Х →* → W(t,α) ∑ ∫ √ReZ2+ImZ2 Im ∑ ПУ ˙→ lZ(α)l Z0 когерентное накопление Рис.___ Отношение правдоподобия для сигналов со случайной амплитудой и начальной фазой Модель сигнала в этом случае имеет вид: 𝑥⃗̇(𝑡, 𝛼⃗/𝛽⃗) = 𝑏 ∙ 𝑥⃗̇ (𝑡, 𝛼⃗) ∙ 𝑒 𝑗𝛽 . Здесь 𝑏, 𝛽 - неинформативные случайные параметры Векторная весовая функция 116 ⃗⃗⃗⃗̇ (𝑡, 𝛼⃗/𝛽) = 𝑏 ∙ 𝑊 ⃗⃗⃗⃗̇ (𝑡, 𝛼⃗) ∙ 𝑒 𝑗𝛽 . 𝑊 Условное отношение правдоподобия, используя отношение правдоподобия для сигнала со случайной фазой, можно записать: 𝑞 𝑙 (𝛼⃗⁄𝑏 ) = 𝑒𝑥𝑝 {− 2 (𝛼 ⃗⃗⃗⁄ 𝑏) 2 } ∙ I0 (|𝑍̇ (𝛼⃗⁄𝑏 )|), где 𝑍̇ (𝛼⃗⁄𝑏 ) = 𝑏 ∙ 𝑍̇ (𝛼⃗) и 𝑞 2 (𝛼⃗⁄𝑏 ) = 𝑏 2 ∙ 𝑞 2 (𝛼⃗). При известной ФПВ параметра 𝑏 p(𝑏) получим 𝑙(𝛼⃗) = ∞ ∫0 I0 (|𝑍̇ (𝛼⃗⁄𝑏 )|) ∙ 𝑒𝑥𝑝 {− ⃗⃗⁄ ) 𝑞 2 (⃗𝛼 𝑏 2 } ∙ 𝑝(𝑏) ∙ d𝑏. (17) Для общего случая (произвольного вида ФПВ) вычисления по выражению (17) является сложной задачей. Для частного случая весьма распространенного распределения Релея выражение (17) имеет сравнительно простое решение. Выражение для ФПВ для распределения Релея можно записать в виде: 2 𝑝(𝑏 ) = 2be−b , где 𝑏 > 0 𝑀1 {𝑏 2 } = 1. Тогда ∞ 𝑞 2 (𝛼⃗)⁄ 𝑙(𝛼⃗) = 2 ∙ ∫0 b ∙ I0 (𝑏 ∙ |𝑍̇(𝛼⃗)|) ∙ 𝑒𝑥𝑝 {−𝑏 2 ∙ [1 + 2]} d𝑏. Используя табличный интеграл при 𝜈 = 1 + 𝑙(𝛼⃗) = 𝑒 ∞ ∫0 𝑥 ∙ I 0 (𝜇 ∙ 𝑥 ) ∙ 𝑒 −𝜈∙𝑥 2 ( 𝑑𝑥 = 𝑒 𝜇2⁄ 4𝜈)⁄ 2𝜈 𝑞 2 (𝛼⃗)⁄ ̇ 2 и 𝜇 = |𝑍(𝛼⃗)|, получим | ̇ (⃗⃗⃗)|2 (𝑍 𝛼 ⁄ ) ⃗⃗⃗)⁄ 𝑞 2(𝛼 4[1+ ] 2 ⁄ . 𝑞 2 (𝛼⃗)⁄ [1 + 2] 117 Достаточная статистика в этом случае имеет вид: 2 |𝑍̇(𝛼⃗)| 𝑞 2 (𝛼⃗)⁄ [1 𝑙𝑛[𝑙(𝛼⃗)] = − 𝑙𝑛 + ⁄ 2], отсюда 𝑞 2 (𝛼⃗)⁄ 4 [1 + 2] решение о наличии цели принимается при выполнении неравенства 2 𝑞 2 (𝛼⃗)⁄ 𝑞 2 (𝛼⃗)⁄ |𝑍̇(𝛼⃗)| > 4 [1 + ] [1 2 ∙ 𝑙𝑛 + 2]. величина порога Z0. 2 ̇ ⃗ )| – соответствует характеристике квадратичного |𝑍̇(𝛼⃗)| = |∑𝑀 𝑖=1 𝑍𝑖 (𝛼 детектора, а схема обработки практически совпадает со схемой обнаружителя сигнала со случайной начальной фазой. 3.2.3 Отношение правдоподобия для некогерентного сигнала 1) Модель полезного сигнала в виде некогерентной пачки радиоимпульсов имеет вид: 𝑥⃗̇(𝑡, 𝛼⃗/𝛽⃗) = ∑M 𝑥𝑖̇ (𝑡, 𝛼⃗) ∙ 𝑒 𝑗𝛽𝑖 . i=1 𝑏𝒊 ∙ ⃗⃗⃗⃗ Некогерентный сигнал рассматривается как сумма когерентных сигналов со случайными амплитудным множителем и начальной фазой. Рассмотрим простой, но важный для практики случай независимых фазовых флуктуаций при 𝑏𝑖 = 1. 𝑥⃗̇(𝑡, 𝛼⃗/𝛽⃗) = ∑M 𝑥𝑖̇ (𝑡, 𝛼⃗) ∙ 𝑒 𝑗𝜑𝑖 . i=1 ⃗⃗⃗⃗ 2) Будем считать помеху некоррелированным белым шумом Φn (𝑡, 𝑠) = 𝜎П2 ∙ 𝛿(𝑡 − 𝑠). В интегральное уравнение ∞ ⃗⃗⃗⃗̇ (𝑠, 𝛼⃗/𝛽⃗)𝑑𝑠 = 𝑥⃗̇ (𝑡, 𝛼⃗/𝛽⃗ ) ∫−∞ Φn (𝑡, 𝑠) ∙ 𝑊 подставим принятые модели полезного сигнала и помехи. Решение интегрального уравнения принимает вид: ⃗⃗⃗⃗̇ (𝑡, 𝛼⃗/𝛽⃗ ) = 𝜎 −2 ∙ 𝑥⃗̇(𝑡, 𝛼⃗/𝛽⃗ ). 𝑊 П 118 3) Условное отношение правдоподобия тогда запишется в виде: 𝑙 (𝛼⃗⁄ ) = 𝑒𝑥𝑝 𝑅𝑒 [𝑍̇ (𝛼⃗⁄ )] − 𝛽⃗ 𝛽⃗ { ⃗⃗⃗ ) 𝑞 2 (𝛼 ⁄⃗⃗⃗ 𝛽 , 2 } ∞ ⃗⃗⃗⃗̇ (𝑡, 𝛼⃗⁄𝛽⃗)𝑑𝑡 = где корреляционный интеграл 𝑍̇ (𝛼⃗⁄ ) = ∫−∞ 𝒀𝐻 (𝑡 ) ∙ 𝑊 ⃗ 𝛽 ̇ ⃗)| ∙ cos[𝜑𝑖 − 𝑎𝑟𝑔{𝑍𝑖 (𝛼⃗)}]. ∑𝑀 𝑖=1|𝑍𝑖 (𝛼 ∞ Здесь 𝑍𝑖 (𝛼⃗) = ∫−∞ 𝑦̇ 𝑖∗ (𝑡) ∙ 𝜔̇ 𝑖 (𝑡, 𝛼⃗)𝑑𝑡. 4) Параметр обнаружения ∞ 𝑀 −𝑗(𝛽𝑖 −𝛽𝑗 ) 𝑞 2 (𝛼⃗/𝛽⃗ ) = ∑𝑀 ∙ 𝜎П−2 ∙ ∫−∞ 𝑥̇ 𝑖∗ (𝑡, 𝛼⃗) ∙ 𝑥̇𝑗 (𝑡, 𝛼⃗) 𝑑𝑡. 𝑖=1 ∑𝑗=1 𝑒 Если импульсы в пачке не перекрываются, то ∞ ∫−∞ 𝑥̇ 𝑖∗ (𝑡, 𝛼⃗) ∙ 𝑥̇𝑗 (𝑡, 𝛼⃗) 𝑑𝑡 = 0 при 𝑖 = 𝑗 и тогда 2 ⃗ ), 𝑞 2 (𝛼⃗/𝛽⃗ ) = ∑𝑀 𝑖=1 𝑞𝑖 (𝛼 ∞ где 𝑞𝑖2 (𝛼⃗) = 𝜎П−2 ∙ ∫−∞⌈𝑥̇ 𝑖 (𝑡, 𝛼⃗)⌉2 𝑑𝑡 = 2∙Э𝑖 𝑁0 5) Условное отношение правдоподобия с учетом (1-4) запишем как 2 ⃗⃗⃗) 𝑞 (𝛼 |𝑍̇𝑖 (𝛼⃗)| ∙ cos[𝜑𝐼 − 𝑎𝑟𝑔{𝑍̇𝑖 (𝛼⃗)}] − 𝑖 }. 𝑙 (𝛼⃗⁄ ) = 𝑒𝑥𝑝 {∑𝑀 𝑖=1 2 𝛽⃗ Учитывая независимость флуктуаций фазы 𝑝(𝛽⃗ ) = ∏𝑀 𝑖=1 𝑝(𝜑𝑖 ). Тогда 𝑀 ⃗ ), 𝑙(𝛼⃗) = ∫0 𝑙 (𝛼⃗⁄ ) ∙ ∏𝑀 𝑖=1 𝑝(𝜑𝑖 ) 𝑑𝜑 = ∏𝑖=1 𝑙𝑖 (𝛼 ⃗ 𝛽 2𝜋 где 119 1 2𝜋 𝑙𝑖 (𝛼⃗) = 2𝜋 ∫0 𝑒𝑥𝑝 {|𝑍̇𝑖 (𝛼⃗)| ∙ cos[𝜑𝐼 − 𝑎𝑟𝑔{𝑍̇𝑖 (𝛼⃗)}] − I0 (|𝑍̇𝑖 (𝛼⃗)|) + 𝑒 ⃗⃗⃗) 𝑞2 𝑖 (𝛼 {− 2 } ⃗⃗⃗) 𝑞𝑖2 (𝛼 2 } 𝑑𝜑 = . Достаточная статистика ⃗ )]. 𝑙𝑛[𝑙(𝛼⃗)] = ∑𝑀 𝑖=1 𝑙𝑛[𝑙𝑖 (𝛼 Здесь 𝑙𝑛[𝑙𝑖 (𝛼⃗)] = 𝑙𝑛[I0 (|𝑍̇𝑖 (𝛼⃗)|)] − ⃗⃗⃗) 𝑞𝑖2 (𝛼 2 . 6) В случае быстрых флуктуаций амплитуды и фазы 2 |𝑍̇𝑖 (𝛼⃗)| 𝑞𝑖2 (𝛼⃗)⁄ 𝑙𝑛[𝑙𝑖 (𝛼⃗)] = − 𝑙𝑛 [1 + ⁄ 2] 𝑞𝑖2 (𝛼⃗)⁄ 4 [1 + 2] 7) Структура обнаружителя формирователь I квадр. детектор I накопитель → I I2 Z˙ i(α) ∑ ПУ ^ A[Y(t)] Z0 некогерентное накопление 3.3 Показатели качества оптимального обнаружения и изменения параметров когерентных сигналов. 3.3.1 Показатели качества оптимального обнаружения сигналов с полностью известными параметрами. Выражение для достаточной статистики (натуральный логарифм от отношения правдоподобия (см. 11а) имеет вид: ln[𝑙(𝒀)] = 𝑅𝑒{𝑍̇(𝛼⃗)} − ⃗⃗⃗) 𝑞 2 (𝛼 2 . Для помехи типа белый шум с учетом выражений (15а), (15б) и (15в) корреляционный интеграл и весовая функция представляются ∞ 𝑀 ⃗⃗⃗⃗̇ ∗ (𝑡, 𝛼⃗)𝑑𝑡 = ∑ 𝑍̇ (𝛼⃗) 𝑍̇(𝛼⃗) = ∫ 𝒀̇𝑇 (𝑡 ) 𝑊 𝑖 −∞ 𝑖=1 120 ∞ ⃗⃗⃗⃗̇ (𝑡, 𝛼⃗ ) = 𝜎 −2 ∙ 𝑿(𝑡, 𝛼⃗). где 𝑍̇𝑖 (𝛼⃗) = ∫−∞ 𝑦̇ 𝑖 (𝑡) ∙ 𝑤̇ ∗ 𝑖 (𝑡)𝑑𝑡 , и 𝑊 П Для M=1, то есть скалярного случая (см. рис.___), корреляционный интеграл сводится к выражению ∞ 𝑍̇(𝛼⃗) = ∫−∞ 𝑦̇ (𝑡 ) ∙ 𝑤̇ ∗ (𝑡, 𝛼⃗)𝑑𝑡. где весовая функция 𝑤̇ (𝑡, 𝛼⃗) = 𝜎П−2 ∙ 𝑥̇ (𝑡, 𝛼⃗). ˙→ lZ(α)l . y(t) Х ∫ Х → Z0 ˙ x(α)/σ Π 1/σΠ ^ A[Y(t)] ПУ Рис. ___ Нормированное значение корреляционного интеграла можно получить следующим образом. Найдем среднее значение и дисперсию 𝑍̇(𝛼⃗) 𝑚1 {𝑍̇(𝛼⃗)} = { ∞ 2∙Э 𝜎П−2 ∙ ∫−∞|𝑥̇ (𝑡, 𝛼⃗)|2 𝑑𝑡 = 𝑁 = 𝑞 2 (𝛼⃗) при А = 1 𝑛 𝑀2 {𝑍̇(𝛼⃗)} = 𝑚1 { 0 при А = 0 ∗ (𝑡)∗𝑥̇(𝑡,𝛼 ⃗⃗⃗) 𝜎П2 ∙ ⃗⃗⃗) 𝑛(𝑠)∗𝑥̇ ∗ (𝑠,𝛼 𝜎П2 }= 𝜎П2 ∙Э 𝜎П4 , 1 = 𝜎 2 ∙ Э = 𝑞 2 (𝛼⃗). П Рассмотрим условия нормировки. Представим достаточную статистику и корреляционный интеграл в виде 𝑞 ln[𝑙(𝒀)] = 𝑅𝑒{𝑍̇(𝛼⃗)} − 2 (𝛼 ⃗⃗⃗) 2 = 𝑞(𝛼⃗) [ ⃗⃗⃗)} ⃗⃗⃗) 𝑅𝑒{𝑍̇(𝛼 𝑞 (𝛼 ], − ⃗⃗⃗) 𝑞 (𝛼 2 ∞ 1 ∞ 2 𝑍̇(𝛼⃗) = ∫−∞ 𝑦̇ (𝑡 ) ∙ 𝑤̇ ∗ (𝑡, 𝛼⃗)𝑑𝑡 = 𝜎 2 ∫−∞ 𝑦̇ (𝑡 ) ∙ 𝑥̇ ∗ (𝑡, 𝛼⃗)𝑑𝑡 = 𝑁 𝑍̇ ′ (𝛼⃗). П ∞ Здесь обозначение 𝑍̇ ′ (𝛼⃗) = ∫−∞ 𝑦̇ (𝑡 ) ∙ 𝑥̇ ∗ (𝑡, 𝛼⃗)𝑑𝑡. Тогда, учитывая, что параметр обнаружения 𝑞 2 (𝛼⃗) = 𝟐∙Э 𝑵𝟎 , введем нормированный корреляционный интеграл 𝑍̇Н (𝛼⃗ ) = 𝑍̇(𝛼⃗) 2 2 √𝑁0 = ∙ 𝑍̇ ′ (𝛼⃗) ∙ =√ ∙ 𝑍̇ ′ (𝛼⃗) 𝑞 (𝛼⃗) 𝑁0 𝑁0 Э √𝟐 ∙ Э Структурная схема обнаружителя с нормировкой представлена на рис.__. 121 → lZ˙ Н(α)l . y(t) ∫ Х ^ A[Y(t)] ПУ √2/N0Э Z0 Рис. ___ Среднее значение и дисперсию 𝑍̇Н (𝛼⃗) в присутствии полезного сигнала принимают следующие значения 2 2∙Э 𝑚1 {𝑍̇Н (𝛼⃗ )} = Э ∙ √𝑁 Э = √ 𝑁 = 𝑞 (𝛼⃗) . ∗ 2 ∗ 2 ⃗⃗⃗) 𝑛(𝑠)∗𝑥̇ (𝑠,𝛼 ⃗⃗⃗) ⃗⃗⃗) 𝑛 (𝑡)∗𝑥̇(𝑡,𝛼 𝜎 ∙Э 1 𝑞 (𝛼 𝑀2 {𝑍̇Н (𝛼⃗)} = 𝑚1 { 𝑞(𝛼⃗⃗⃗)∙𝜎 2 ∙ 𝑞 (𝛼⃗⃗⃗)∙𝜎 2 } = 𝑞2 (𝛼⃗П⃗⃗)∙𝜎 4 = 𝑞2 (𝛼⃗⃗⃗)∙𝜎2 ∙ Э = 𝑞2 (𝛼⃗⃗⃗) = 1. П П П П В отсутствии сигнала 𝑚1 {𝑍̇Н (𝛼⃗)} = 0. Обозначим 𝜉Н = 𝑅𝑒{𝑍̇Н (𝛼⃗)} Тогда ФПВ (или функции правдоподобия) в отсутствии и при наличии полезного сигнала в этом случае можно записать, соответственно, в виде: 𝑝П (𝜉Н ) = 1 √2𝜋 ∙ 𝜉Н 𝑒− 2 2 и 𝑝СП (𝜉Н ) = 1 √2𝜋 (𝜉 −𝑞 )2 − Н 2 ∙𝑒 122 PСП(ξН ) PП(ξН ) D Fлт q Z0 ξН Рис.___ Вероятность ложной тревоги 𝐹лт = 1 √2𝜋 ∞ ∙∫ 𝜉Н 𝑒− 2 𝑍0 2 𝑑𝜉Н Вероятность правильного обнаружения 𝐷= 1 √2𝜋 ∞ ∙∫ 𝑒 (𝜉 −𝑞 )2 − Н2 𝑍0 𝑑𝜉Н Часто используется интеграл Лапласа Φ0 (x) = 1 √2π x t2 −2 ∫e dt Свойства интеграла Лапласа: Φ0 (−x) = −Φ0 (x) и Φ(x) = 0.5 + Φ0 (x) Тогда ФРВ для N(m1,σ2) x − m1 ) Φ(x) = 0.5 + Φ0 ( 𝜎 123 Также широко используется табличный интеграл вероятности: 2 x −t e 2 dt, при ∫ √2π 0 2 Φ𝑢 (x) = 𝑥 ≥ 0. Тогда 𝐹лт = ∞ 1 √2𝜋 ∙∫ 𝜉 − Н 𝑒 2 𝑍0 2 𝑑𝜉Н = 1 − 1 √2𝜋 2 = 1 − 0,5 ( ∙∫ 2𝜋 √ −∞ 𝑍0 ∙∫ 𝜉Н − 2 𝑒 𝜉 − Н 𝑒 2 2 −∞ 2 𝑑𝜉Н + 𝑑𝜉Н 2 √2𝜋 ∙∫ 𝑍0 𝜉Н − 2 𝑒 2 𝑑𝜉Н ) = 1 − 0,5 − 0,5 ∙ 𝛷𝑢 (𝑍0 ) = 0,5 − 0,5 ∙ 𝛷𝑢 (𝑍0 ). и 𝐷= 1 √ 2 ∙ 2𝜋 2 −𝑍 +𝑞 −𝑥 ∫0 0 𝑒 2 ∞ −(𝜉Н−𝑞) 2 ∫𝑍0 𝑒 𝑑𝜉Н = 2 𝑥 ∞ − ∙ ∫𝑍 −𝑞 𝑒 2 √2𝜋 1 𝑑𝑥 = 2 ∞ −𝑥 ∙ ∫0 𝑒 2 √2𝜋 1 𝑑𝑥 + 1 √2𝜋 ∙ 𝑑𝑥 = 0,5 + 0,5 ∙ 𝛷𝑢 (𝑞 − 𝑍0 ). Здесь 𝑥 = 𝜉Н − 𝑞. Таким образом 𝐹лт = 0,5 − 0,5 ∙ 𝛷𝑢 (𝑍0 ). 𝐷 = 0,5 + 0,5 ∙ 𝛷𝑢 (𝑞 − 𝑍0 ) При 𝑍0 = 𝑐𝑜𝑛𝑠𝑡 вероятность правильного обнаружения 𝐷 определяется параметром обнаружения отношением сигнал-помеха 𝑞 = 𝑞(𝛼⃗), устройства который является оптимальной выходным обработки по напряжению. При этом 𝑞 2 (𝛼⃗) - является выходным отношением сигналпомеха устройства оптимальной обработки по мощности. В самом деле 𝑃 ( с) 𝑃П Вых = |𝑚1 {𝜉н }|2 𝑀2 {𝜉н2 } = 𝑞 2 (𝛼⃗). Характеристики обнаружения сигналов с полностью известными параметрами представлены на рис.___. 124 D 1.0 Fлт=10-2 Fлт=10-3 Fлт=10-4 Fлт=10-5 0.5 q Рис.____ 3.3.2 Показатели качества оптимального обнаружения сигналов со случайной начальной фазой В этом случае достаточная статистика 𝑞 𝑙𝑛[𝑙(𝛼⃗)] ≅ |𝑍̇(𝛼⃗)| − 2 (𝛼 ⃗⃗⃗) 2 . Нормированная достаточная статистика 𝜉н = |𝑍̇(𝛼⃗)| ⁄ = √𝑅𝑒 2 (𝑍̇Н (𝛼⃗)) + 𝐼𝑚2 (𝑍̇Н (𝛼⃗)), 𝑞 (𝛼⃗) где нормированный корреляционный интеграл ⃗⃗⃗) 𝑍̇(𝛼 𝑍̇Н (𝛼⃗ ) = 𝑞(𝛼⃗⃗⃗). Нормированная достаточная статистика 𝜉н при нормальном распределении нормированного корреляционного интеграла 𝑍̇Н (𝛼⃗) имеет распределение Релея: 𝜉н 2 − 𝑝(𝜉н ) = 𝜉н ∙ e 2 . Тогда вероятность ложной тревоги можно вычислить по следующему выражению 125 𝐹лт = ∞ ∫𝑍н0 𝑢 − ∙e 𝑢2 2 𝑑𝑢 = e 𝑍н0 2 2 − . (18) Отсюда величина нормированного порога при требуемом уровне 𝐹лт выражается 𝑍н0 = √2𝑙𝑛 (1⁄𝐹 ). лт Вероятность правильного обнаружения ∞ ∞ 𝐷 = ∫𝑍 𝑝СП (𝑢)𝑑𝑢 = ∫𝑍 𝑝П (𝑢) ∙ 𝑙(𝑢)𝑑𝑢. н0 (19) н0 Для сигнала со случайной начальной фазой значение отношения правдоподобия 𝑞 𝑙(|𝑍̇(𝛼⃗)|) = 𝑙(𝛼⃗) = 𝑒𝑥𝑝 {− 𝑢2 −2 С учетом 𝑝П (𝑢) = 𝑢 ∙ e ∞ 𝐷 = ∫𝑍 𝑒𝑥𝑝 {− н0 [𝑢2 +𝑞 2 (𝛼 ⃗⃗⃗)] 2 2 (𝛼 ⃗⃗⃗) 2 } ∙ I0 (|𝑍̇(𝛼⃗ )|). имеем } ∙ 𝑢 ∙ I0 (𝑞 ∙ 𝑢)𝑑𝑢. Характеристики обнаружения сигналов со случайной начальной фазой представлены на рис.___. D 1.0 Fлт=10-2 Fлт=10-3 Fлт=10-4 Fлт=10-5 0.5 q Рис._____ 126 3.3.3 Показатели качества оптимального обнаружения сигналов со случайной амплитудой и начальной фазой Отношение правдоподобия с учетом нормировки для этого случая имеет вид ( 𝑙(𝛼⃗) = 𝑒 ( 𝑒 |𝑍̇(𝛼 ⃗⃗⃗)|2 ) ⁄ ⃗⃗⃗)⁄ 𝑞 2(𝛼 4[1+ 2] ⁄ = 𝑞 2 (𝛼⃗)⁄ [1 + 2] |𝑍̇н (𝛼 ⃗⃗)|2 ∙𝑞 2 (𝛼 ⃗⃗⃗) ) ⁄ ⃗⃗⃗)⁄ 𝑞 2 (𝛼 4[1+ ] 2 ⁄ . 𝑞 2 (𝛼⃗)⁄ [1 + 2] Тогда, учитывая (19) и то, что 𝑢 = |𝑍̇(𝛼⃗ )|, функция правдоподобия в присутствии сигнала запишется в виде 𝑝СП (𝑢) = 𝑝П (𝑢) ∙ 𝑙(𝑢) ( = |𝑍̇н (𝛼⃗)| ∙ 𝑒 = (𝑢 ∙ 𝑒 |𝑍̇ (𝛼 ⃗⃗⃗)|2 |𝑍̇н (𝛼 ⃗⃗⃗)|2 ∙𝑞 2(𝛼 ⃗⃗⃗) − н2 ) 2 (𝛼 ⁄ ⃗⃗⃗)⁄ 𝑞 4[1+ ] 2 𝑢2 − ∙ ⃗⃗⃗)⁄ 𝑞 2 (𝛼 2∙[1+ ] 2 ⁄ 𝑞 2 (𝛼⃗)⁄ [1 + 2] )∙ 1 𝑞 2 (𝛼⃗)⁄ [1 + 2] . Выражение в скобках соответствует релеевскому закону распределения с дисперсией [1 + 𝑞 2 (𝛼⃗)⁄ 2]. Значения 𝐷 и 𝐹лт интерпретируется как площадь под соответствующими кривыми 𝑝СП (𝑢) и 𝑝П (𝑢) (𝑝СП (𝑢) для 𝑞(𝛼⃗) = 0 см. рис.__). 127 pСП(x) q=0 D q=5 Fлт x Рис. ___ По аналогии с (18) вероятность правильного обнаружения для сигнала со случайной амплитудой и начальной фазой можно записать в виде 𝐷=e 𝑍н0 2 ⃗⃗⃗)⁄ 𝑞2 (𝛼 2∙(1+ 2) − = 1 ⁄ 𝑞2 (𝛼 ⃗⃗⃗)⁄ 1+ 2 Fлт . Примечание: Можно также показать, что согласно (19) 𝐷= − e ∞ ∫𝑍н0 𝑍н0 2 ⃗⃗⃗)⁄ 𝑞2 (𝛼 2∙(1+ 2) 𝑢 2 ⃗⃗⃗) √1+𝑞 (𝛼 ⁄2 𝑢2 ∙ ⃗⃗⃗)⁄ 𝑞2 (𝛼 2∙[1+ ] 2 − ∙𝑒 ∙ 𝑑𝑢 2 ⃗⃗⃗) √1+𝑞 (𝛼 ⁄2 =∫ ∞ 𝑍н0 2 ⃗⃗⃗) √1+𝑞 (𝛼 ⁄2 𝑠∙𝑒 𝑠2 −2 𝑑𝑠 = . Характеристики обнаружения сигналов со случайной амплитудой и начальной фазой представлены на рис.___. 128 D 1.0 Fлт=10-2 Fлт=10-3 Fлт=10-4 Fлт=10-5 0.5 q Рис. ___ 129 3.3.4 Показатели качества измерения информационного параметра Напомним, что оптимальная байесовская оценка измеряемого параметра ∞ 𝛼̂ = ∫−∞ 𝛼 ∙ 𝑝 (𝛼⁄ ) 𝑑𝛼 = 𝑚1 {𝛼⁄ } соответствует среднему значению 𝑦⃗ 𝑦⃗ апостериорной (послеопытной) ФПВ 𝑝 (𝛼⁄ ). 𝑦⃗ Сама оценка является детерминированным алгоритмом (функцией) от принятой выборки 𝑦⃗̇, состоящей из N измерений, то есть 𝛼̂⃗ = 𝑔(𝑦̇1 𝑦̇ 2 … 𝑦̇ 𝑁 ) = 𝑔(𝑦⃗̇) и 𝛼⃗ = (𝛼1 𝛼2 … 𝛼𝑀 )𝑇 . Апостериорная (послеопытная) плотность вероятности (см. рис.__) ⃗⃗⃗) 𝑝(𝛼 𝑦⃗̇ 𝑦⃗̇ 𝑝 (𝛼⃗⁄ ̇ ) = ̇ ∙ 𝑝 ( ⁄ ) = 𝑘 ∙ 𝑝(𝛼⃗) ∙ 𝑝 ( ⁄ ), 𝛼⃗ 𝛼⃗ 𝑝(𝑦⃗⃗) 𝑦⃗ где из условия нормировки 𝑘 = 1 ⃗⃗̇ ) 𝑝(𝑦 =1 . ̇ ⁄∫∞ 𝑝(𝛼⃗) ∙ 𝑝 (𝑦⃗⁄ ) 𝑑𝛼⃗ −∞ 𝛼⃗ p(α/y) p(α) α^ α Рис.____ Также можно выразить 𝑦⃗ 𝑝 (𝛼⁄ ) = 𝑐1 ∙ 𝑝(𝛼) ∙ 𝑙 ( ⁄𝛼 ), 𝑦⃗ 130 где с1 = ∞ 𝑝П (𝑦⃗) 𝑦⃗ ⁄ ( ) = 1⁄∫−∞ 𝑝(𝛼) ∙ 𝑙 ( ⁄𝛼 ) 𝑑𝛼. 𝑝 𝑦⃗ 𝑦⃗ При отсутствии априорных данных 𝑝(𝛼) = 𝑐𝑜𝑛𝑠𝑡 и 𝑝 (𝛼⁄ ) ≅ 𝑙 ( ⁄𝛼 ). 𝑦⃗ 𝑦⃗ Функция ln [𝑙 ( ⁄𝛼 )] = ln [𝑝 (𝛼⁄ )] медленно меняющаяся функция 𝑦⃗ вблизи окрестности 𝛼̂ и поэтому возможна аппроксимация через усечённый ряд Тейлора (первыми тремя членами) квадратичной формой (см. рис.__). α^ α ln[p(α/y)] Рис. ___ В векторном случае Н 1 𝑙𝑛 [𝑝 (𝛼⁄ )] = − 2 (𝛼⃗ − 𝛼̂⃗ ) ∙ 𝐂𝒚 ∙ (𝛼⃗ − 𝛼̂⃗ ), 𝑦⃗ где 𝐂𝒚 - матрица точности. Качество измерения скалярного параметра можно оценивать среднеквадратической ошибкой или дисперсией. Для векторного параметра 𝛼⃗ качество измерения оценивается корреляционной матрицей ошибок. Эту матрицу можно найти из послеопытной плотности вероятности 𝑀 𝑝 (𝛼⃗⁄ ̇ ) = (2𝜋 )− 2 ∙ (𝑑𝑒𝑡𝐂𝒚 ) 𝑦⃗ 1⁄ 2 Н 1 ∙ 𝑒𝑥𝑝 {− 2 (𝛼⃗ − 𝛼̂⃗ ) ∙ 𝐂𝒚 ∙ (𝛼⃗ − 𝛼̂⃗ )}, 131 где 𝐂𝒚−𝟏 - корреляционная матрица ошибок измерения векторного параметра с диагональными элементами 𝜎𝛼2𝑖 , является обратной к матрице точности. С учетом аппроксимации послеопытной плотности вероятности рядом Тейлора (см. выше) матрица точности представляется в виде: 𝑑2 𝑦⃗ 𝐂𝒚 = |− 𝑑𝛼 ∙𝑑𝛼 ln [𝑙 ( ⁄ ̇ )]|. 𝑖 𝑗 𝛼⃗ 𝑦⃗ 𝑦⃗̇ С учетом, что ln [𝑙 ( ⁄ ̇ )] = ln [𝑝 ( ⁄ )] − ln[𝑝П (𝑦⃗)], запишем матрицу 𝛼⃗ 𝛼⃗ точности в виде 𝑑2 𝑦⃗̇ 𝐂𝒚 = |− 𝑑𝛼 ∙𝑑𝛼 ln [𝑝 ( ⁄ )]|. 𝛼⃗ 𝑖 𝑗 Свойства оценок а) Состоятельность Оценка 𝛼̂⃗ 𝑁 является состоятельной, если lim𝑁→∞ 𝑃{|𝛼 − 𝛼̂| ≥ 𝜀 } = 0. То есть, оценка сходится к истинному значению. б) Несмещенность Оценка 𝛼̂⃗ 𝑁 является несмещенной, если ∞ 𝑚1 {𝛼̇̂⃗ 𝑁 } = ∫−∞ 𝛼̂⃗ 𝑁 (𝑦̇⃗ ) ∙ 𝑝(𝑦̇⃗ )𝑑⃗⃗ 𝑦̇ = ⃗⃗ 𝛼̇ . При этом ̂ 𝑏𝑁 (𝛼̇⃗ ) = 𝑚1 {𝛼̇⃗ 𝑁 } − 𝛼̇⃗ является смещением оценки (систематической ошибкой). 132 Примеры: 1) Пусть смещение оценки равно 𝑏𝑁 (𝛼) = 𝑎 ∙ 𝛼 + 𝑏, то есть 𝑚1 {𝛼̂} − 𝛼 = 𝑎 ∙ 𝛼 + 𝑏. 𝑚1 {𝛼̂} − 𝑏 = (𝑎 + 1) ∙ 𝛼, отсюда ̂ −𝑏 𝛼 𝑚1 { 𝑎+1} = 𝛼. Поэтому 𝛼̂ ′ = ̂ −𝑏 𝛼 𝑎+1 является несмещенной оценкой. 1 ̂ 1 - оценка среднего значения 2) Пусть 𝑎̂ = 𝑁 ∙ ∑𝑁 𝑖=1 𝑦𝑖 = 𝑚 Дисперсия оценки среднего значения 1 ̂ 1 } = 𝑚1 {𝑎̂} = ∙ ∑𝑁 𝑚1 {𝑚 𝑖=1 𝑚1 {𝑦𝑖 } = 𝑁 𝑁∙𝑎 𝑁 = 𝑎. Оценка среднего значения является несмещенной оценкой. ̂2 = 1 ∙ ∑𝑁 (𝑦𝑖 − 𝑎̂)2 – оценка дисперсии. 3) Пусть 𝜎 𝑖=1 𝑁 Преобразуем с учетом 2) оценку дисперсии следующим образом ̂2 = 1 ∙ ∑𝑁 (𝑦𝑖 − 𝑎̂)2 = 1 ∙ ∑𝑁 𝑦 2 − 2 ∙ 1 ∙ ∑𝑁 𝑦𝑖 ∙ 1 ∙ ∑𝑁 𝑦𝑖 + 1 ∙ 𝜎 𝑖=1 𝑖=1 𝑖 𝑖=1 𝑖=1 𝑁 𝑁 𝑁 𝑁 𝑁 1 2 𝑁 𝑁 ∑𝑁 ̂2 − 2 ∙ 𝑚 ̂ 12 + ∙ 𝑚 ̂ 12 = 𝑚 ̂2 − 𝑚 ̂ 12. 𝑖=1 (𝑁 ∙ ∑𝑖=1 𝑦𝑖 ) = 𝑚 𝑁 ̂2 Определим наличие смещения оценки 𝜎 ̂2 } = 𝑚1 {𝑚 ̂ 2 } − 𝑚1 {𝑚 ̂ 1 2 }. 𝑚1 {𝜎 1 𝑎2 . 1 𝑁 𝑁 2 2 2 ̂ 2 } = 𝑚1 { ∙ ∑𝑁 3а) 𝑚1 {𝑚 𝑖=1 𝑦𝑖 } = 𝑁 ∙ ∑𝑖=1 𝑚1 {𝑦𝑖 } = 𝑁 ∙ 𝑚2 {𝑦𝑖 } = 𝜎 + 𝑁 3б) С учетом выражения 𝑀2 {𝑦} = 𝑚1 {𝑦 2 } − 𝑚12 {𝑦} получаем ̂ 1 2 } = 𝑀2 {𝑚 ̂ 1 } + 𝑚12 {𝑚 ̂ 1 }. 𝑚1 {𝑚 (1) Дисперсия оценки среднего значения 2 1 1 ̂ 1 } = 𝑚1 {(𝑚 ̂ 1 − 𝑎)2 } = 𝑚1 {[( ∙ ∑𝑁 𝑀2 {𝑚 𝑖=1 𝑦𝑖 ) − 𝑎] } = 𝑚1 {𝑁2 ∙ 𝑁 2 1 𝑁 2 [(∑𝑁 𝑖=1 𝑦𝑖 ) − 𝑁 ∙ 𝑎] } = 𝑁2 ∙ 𝑚1 {[∑𝑖=1(𝑦𝑖 − 𝑎 )] } = 𝜎2𝑁 𝑁2 = 𝜎2 𝑁 . 133 Здесь учтено, что 𝑁 𝑁 2 𝑚1 {[∑𝑁 𝑖=1(𝑦𝑖 − 𝑎 )] } = 𝑚1 {∑𝑖=1 ∑𝑗=1(𝑦𝑖 − 𝑎𝑖 ) ∙ (𝑦𝑗 − 𝑎𝑗 )} = 𝑁 𝑁 𝑁 𝑁 2 ∑𝑁 𝑖=1 ∑𝑗=1 𝑚1 {(𝑦𝑖 − 𝑎𝑖 ) ∙ (𝑦𝑗 − 𝑎𝑗 )} = ∑𝑖=1 ∑𝑗=1 𝜎𝑖 ∙ 𝜎𝑗 ∙ 𝜌𝑖,𝑗 = ∑𝑖=1 𝜎𝑖 для некоррелированных (𝜌𝑖,𝑗 = 0 при 𝑖 ≠ 𝑗) измерений. Второе слагаемое в формуле (1) ̂ 1 } = 𝑎2 . 𝑚12 {𝑚 ̂ 12} = Тогда 𝑚1 {𝑚 𝜎2 𝑁 + 𝑎2. 3в) С учетом 3а) и 3б) получаем 2 ̂2 } = 𝜎 2 + 𝑎2 − 𝜎 − 𝑎2 = 𝜎 2 ∙ (1 − 1 ), то есть выбранная оценка 𝑚1 {𝜎 𝑁 𝑁 дисперсии является смещённой. Отсюда несмещенная оценка дисперсии ̂2 ′ = 𝜎 ̂2 𝜎 1−1⁄𝑁 = 𝑁 𝑁∙(𝑁−1) ̂ )2 = ∙ ∑𝑁 𝑖=1(𝑦𝑖 − 𝑎 1 (𝑁−1) ̂ )2. ∙ ∑𝑁 𝑖=1(𝑦𝑖 − 𝑎 в) Эффективность Оценка называется эффективной, если 2 𝑚1 {(𝛼̂𝑁эфф − 𝛼) } ≤ 𝑚1 {(𝛼̂𝑁 − 𝛼)2 }. Здесь 𝛼̂𝑁эфф – эффективная оценка параметра, полученная по N измерениям, 𝛼̂𝑁 – любая другая оценка параметра. Если 𝛼̂𝑁 несмещенная оценка, то 𝑀2 {𝛼̂𝑁эфф } ≤ 𝑀2 {𝛼̂𝑁 }. 134 Точечные оценки. Неравенство Рао-Крамера. Точность оценки параметра сигнала характеризуется дисперсией этой оценки 𝑀2 {𝛼̂⃗ 𝑁 }. Существует неравенство с помощью которого можно определить нижнюю границу среднеквадратической ошибки (или дисперсии) оценки измеряемого параметра или вектора параметров. Неравенство РаоКрамера (С.Р. Рао - индийский математик, К.Х. Крамер – шведский математик), позволяющее оценить нижнюю границу дисперсией оценки 𝑀2 {𝛼̂⃗ 𝑁 }, при независимых измерениях имеет вид 1 𝑀2 {𝛼̂⃗ 𝑁 } ≥ 𝑁∙𝐼 (𝛼⃗⃗⃗), 1 𝑑2 𝑑 𝑦̇ 𝑦̇ 𝐼1 (𝛼⃗ ) = −𝑚1 {|𝑑𝛼 ∙𝑑𝛼 ln [𝑝 ( 𝑖⁄ )]|} = 𝑚1 {|𝑑𝛼 ∙ ln [𝑝 ( 𝑖⁄ )]| ∙ 𝛼⃗ 𝛼⃗ 𝑖 𝑗 𝑖 где 𝑇 𝑦̇ | ln [𝑝 ( 𝑖⁄ )] |} – информационная матрица Фишера для одного 𝑑𝛼𝑗 𝛼⃗ 𝑑 измерения. Р.Э. Фишер (1890-1962 гг.) – английский статистик и генетик. Соответственно, 𝐼𝑁 (𝛼⃗) = 𝑁 ∙ 𝐼1 (𝛼⃗) - информационная матрица Фишера для N измерений, содержит информацию о измеряемом векторе параметров в N измерениях. Величина ℯ (𝛼⃗) = 1 ⃗⃗⃗)∙𝑀2 {𝛼 ⃗̂⃗⃗𝑁 } 𝑁∙𝐼1 (𝛼 - показатель эффективности оценки по Рао-Крамеру и 0 < ℯ(𝛼⃗) ≤ 1. Значение ℯ(𝛼⃗) = 1 соответствует максимальной эффективности. Пример: 135 Независимая выборка (набор независимых измерений) 𝑦⃗̇ = (𝑦̇1 𝑦̇ 2 … 𝑦̇ 𝑁 ) соответствует гауссовскому закону распределения с параметрами {𝑎, 𝜎 2 }, причем 𝜎 2 известна. Найти оценку среднего значения 𝑎̂ и оценить её эффективность ℯ(𝛼⃗ ). 1) Апостериорная вероятность по Байесу 𝑦⃗ 𝑝 (𝛼⁄ ) = 𝑐1 ∙ 𝑝(𝛼) ∙ 𝑙 ( ⁄𝛼 ). 𝑦⃗ 2) Если 𝑝(𝛼) - априорная вероятность широкая, то 𝑦⃗ 𝑦⃗ 𝑝 (𝛼⁄ ) ~𝑙 ( ⁄𝛼 ) и поэтому max𝛼 𝑝 (𝛼⁄ ) соответствует max𝛼 𝑙 ( ⁄𝛼 ). 𝑦⃗ 𝑦⃗ Отношение правдоподобия 𝑦⃗⃗ 𝑝( ⁄𝛼 ) 𝑦⃗⁄ 𝑙 ( 𝛼 ) = 𝑝 (𝑦⃗⃗) . П Для независимого шума 𝑝П (𝑦⃗) = ∏𝑁 𝑖=1 𝑝П (𝑦̇ 𝑖 ). Функция правдоподобия 𝑦⃗ 𝑝 ( ⁄𝛼 ) = 𝑝П (𝑦⃗) = 1 √2𝜋∙𝜎 1 √2𝜋∙𝜎 ∙𝑒 ∙𝑒 2 ∑𝑁 𝑖=1(𝑦𝑖 −𝑎) 2∙𝜎2 − 2 ∑𝑁 𝑖=1 𝑦𝑖 2 2∙𝜎 − и в отсутствии сигнала . 3) Тогда отношение правдоподобия запишется в виде 2 2 ∑𝑁 ∑𝑁 𝑦⃗⁄ 𝑖=1(𝑦𝑖 −𝑎) 𝑖=1 𝑦𝑖 ( ) {− }. 𝑙 + 𝛼 = 𝑒𝑥𝑝 2 2 2∙𝜎 2∙𝜎 1 𝑁𝑎2 𝑎 𝑦⃗ 2 ( ) Далее ln [𝑙 ( ⁄𝛼 )] = 2∙𝜎 2 ∙ ∑𝑁 𝑎 − 2𝑎𝑦 = − ∙ ∑𝑁 𝑖 𝑖=1 𝑖=1 𝑦𝑖 . 2 2∙𝜎 𝜎2 4) Ищем оценку максимального правдоподобия 136 𝑦⃗⃗ 𝜕 ln[𝑙( ⁄𝛼 )] 𝜕𝑎 = 𝑁𝑎̂ 𝜎2 1 − 𝜎 2 ∙ ∑𝑁 𝑖=1 𝑦𝑖 =0. Отсюда 1 𝑎̂ = 𝑁 ∙ ∑𝑁 𝑖=1 𝑦𝑖 - оценка среднего значения 5) Найдем количество информации по Фишеру 2 2 (𝑦̇ −𝑎)2 𝑑 (𝑎2 −2𝑎𝑦̇ ) 𝑦̇ 𝐼1 (𝛼⃗) = 𝑚1 {|𝑑𝑎 ln [𝑝 ( 𝑖⁄ )]| } = 𝑚1 {|𝑑𝑎 [ 2∙𝜎 2 𝑖 ]| } = 𝑚1 { 𝑖𝜎 4 } = 𝛼⃗ 𝑑 1 𝜎2 (с учетом, что 𝜎 2 = 𝑚1 {(𝑦̇ 𝑖 − 𝑎)2 }. Дисперсия оценки 𝑀2 {𝑎̂} = 𝜎2 𝑁 и ℯ (𝑎̂) = 1 1 𝜎2 𝑁∙ 2 ∙ 𝜎 𝑁 = 1, то есть оценка 𝑎̂ является эффективной по Рао- Крамеру. 137 4 Оптимальные стационарные линейные фильтры 4.1 Теория линейной фильтрации Колмогорова – Винера Рассмотрим принятый сигнал 𝑦(𝑡 ) = 𝑥(𝑡 ) + 𝑛(𝑡 ). Сигнал 𝑥(𝑡 ) и шум 𝑛(𝑡 ) стационарные случайные процессы с нулевым средним значением (a=0). В простейшем случае нормальные случайные процессы. Сигнал 𝑥(𝑡 ) и шум 𝑛(𝑡 ) взаимно некоррелированны, а в нормальном случае независимы. Известны также корреляционные функции 𝛷𝑥 (𝜏) и 𝛷𝑛 (𝜏), а также 𝛷𝑥𝑛 (𝜏) = 𝛷𝑛𝑥 (𝜏) взаимные корреляционные функции. Поскольку 𝛷𝑥 (𝜏) = 𝑚1 {𝑥 (𝑡 ) ∙ 𝑥(𝑡 + 𝜏)} и 𝛷𝑛 (𝜏) = 𝑚1 {𝑛(𝑡 ) ∙ 𝑛(𝑡 + 𝜏)}, то 𝛷𝑦 (𝜏) = 𝑚1 {𝑦(𝑡 ) ∙ 𝑦(𝑡 + 𝜏)} = 𝑚1 {𝑥(𝑡 ) ∙ 𝑥(𝑡 + 𝜏)} + 𝑚1 {𝑛(𝑡 ) ∙ 𝑛(𝑡 + 𝜏)} + 𝑚1 {𝑥 (𝑡 ) ∙ 𝑛(𝑡 + 𝜏)} + 𝑚1 {𝑛(𝑡 ) ∙ 𝑥(𝑡 + 𝜏)} = 𝛷𝑥 (𝜏) + 𝛷𝑛 (𝜏) + 2 ∙ 𝛷𝑥𝑛 (𝜏). Для некоррелированны процессов 𝛷𝑥𝑛 (𝜏) = 0 и 𝛷𝑦 (𝜏) = 𝛷𝑥 (𝜏) + 𝛷𝑛 (𝜏). Цель фильтрации выделение из 𝑦(𝑡 ) смеси сигнала и шума сигнал. На рис.__ представлена схема фильтрации ^ x(t) y(t) h(τ) Рис.__ Необходимо найти ℎопт (𝜏), для которого критерий оптимальности минимального среднего квадрата ошибки 𝜀 2 = 𝑚1 {|𝑥(𝑡 ) − 𝑥̂(𝑡 )|2 } → 𝑚𝑖𝑛. Здесь 𝑥̂(𝑡 ) - оценка значения сигнала в момент времени t+t0. Пусть время наблюдения (0,Т), тогда (см. рис.__): 138 интерполяция t экстраполяция Т t фильтрация Рис.___ а) Если t>T, то это экстраполяция (предсказание «вперёд») или прогнозирование; б) Если 0
«Основы теории вероятностей.Статистическая теория обнаружения сигналов и оценки их параметров.Оптимальные стационарные линейные фильтры» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Помощь с рефератом от нейросети
Написать ИИ

Тебе могут подойти лекции

Смотреть все 173 лекции
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot