Справочник от Автор24
Поделись лекцией за скидку на Автор24

Случайные процессы и их основные характеристики

  • 👀 556 просмотров
  • 📌 515 загрузок
Выбери формат для чтения
Загружаем конспект в формате docx
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «Случайные процессы и их основные характеристики» docx
6. СЛУЧАЙНЫЕ ПРОЦЕССЫ И ИХ ОСНОВНЫЕ ХАРАКТЕРИСТИКИ 6.1. Общие понятия и определения В теории связи процесс передачи сообщения рассматривается как некоторый случайный процесс, развивающийся во времени. Случайность процесса проявляется в том, что невозможно предсказать точное протекание этого процесса. Действительно, если наблюдать напряжение на выходе приемного устройства, то мы не можем с полной определенностью сказать, каково будет его значение в последующие моменты времени. Это обусловлено тем, что параметра сигнала (амплитуда, частота, фаза), формируемого передатчиком, изменяются случайным образом в соответствие с передаваемым сообщением. Кроме того, в процессе передачи на сообщение накладываются различные аддитивные помехи, имеющие случайную природу. Таким образом, случайный процесс Х(t) – это особая функция, характеризующаяся тем, что в любой момент времени t принимаемые ею значения являются случайными величинами. Хотя случайный процесс меняется от опыта к опыту случайным образом, однако получаемая в результате каждого отдельного опыта величина x(t) не является случайной. Ее называют реализацией случайного процесса. Случайный процесс тогда можно представить как совокупность его реализаций, образующих статистический ансамбль: . Для непрерывного случайного процесса число таких реализации бесконечно. Простейшим примером случайного процесса может служить гармонический сигнал где, например, начальная фаза меняется случайным образом, т.е. невозможно предсказать его значение. В то же время при каждом его заданном значении функция x(t) имеет конкретное значение и является реализацией случайного процесса. При многократном наблюдении за одним и тем же случайным процессом можно увидеть, что средние результаты большого числа наблюдений устойчивы, т.е. такие средние результаты подчиняются определенным вероятностным закономерностям. 6.2. Основные характеристики случайных процессов На рисунке 6.1. приведены четыре возможные реализации одного и того же случайного процесса. Выберем на этом графике некоторое временное сечение при . Совокупность точек пересечения этого сечения с реализациями образует случайную величину Х(t1), значение которой заранее не известно. Однако существуют закономерности, по которым можно судить, что с некоторой вероятностью Р эта случайная величина будет принимать определенное значение в пределах . Рис.6.1. Реализации случайного процесса Эти закономерности описываются следующими параметрами: а) одномерной плотностью вероятности (ОПВ) (6.1) которая показывает отношение вероятности того, что случайная величина Х(t1) примет значения, лежащие в интервале к величине интервала . На рисунке 6.2,а приведен типовой график ОПВ; б) вероятностью того, что случайная величина Х(t1) примет значения, лежащие в интервале . (6.2) Интеграл в бесконечных пределах определяет условие нормировки для достоверного события; в) интегральная функция распределения , (6.3) которая показывает вероятность того, что случайная величина Х не превзойдет некоторое его значение х. ИФР имеет следующие свойства: а) ; б) в) - неубывающая функция, т.е. при ; г) (6.4) График ИФРприведен на рисунке 6.2,б Рис.6.2. Типовой график одномерной ПВ (а) и одномерной ИФР (б). Обычно на практике ИФР являются дифференцируемыми функциями, поэтому ОПВ может быть определена как производная от ИФР . (6.5) ОПВ обычно бывает недостаточной, чтобы судить о характере развития реализации случайного процесса во времени. Гораздо больше сведений можно получить, рассматривая два сечения случайного процесса в моменты времени t1 и t2 (см. рис. 6.1). В этом случае случайные величины Х(t1) и Х(t2) описываются двумерной плотностью вероятности . В общем случае можно ввести п-мерное сечение случайного процесса, приводящее к более полной п-мерной плотности вероятности, при этом может принимать бесконечное значение. На практике вместо вероятностных характеристик случайных величин рассматривают хотя и менее полных, но зато более простых и имеющих конкретный физический смысл числовых характеристик, называемых моментами. Числовой характеристикой случайного процесса служит момент к-того порядка, определяемый как , (6.6) где черта сверху означает усреднение по множеству реализаций. При к=1 получаем момент первого порядка , (6.7) называемый математическим ожиданием (МО), который определяет среднее значение случайной величины. Физический смысл m1 – это постоянная составляющая случайного процесса. При к=2 получаем момент второго порядка , (6.8) определяющий полную среднюю мощность случайного процесса на единичном сопротивлении. Разность между случайной величиной Х и ее МО (Х – m1=) характеризует отклонение случайной величины от его среднего значения и называется центрированным значением. Математическое ожидание квадрата этого отклонения называется дисперсией или центральным моментом второго порядка . (6.9) С учетом (6.7) и (6.8) можно получить . (6.10) Дисперсия характеризует разброс случайной величины относительно его среднего значения и определяет среднюю мощность переменной составляющей случайного процесса на единичном сопротивлении. Величину называют среднеквадратичным отклонением. При совместном изучении двух случайных величин Х(t1) и Х(t2) сечений t1 и t2 (см. рис.6.1) вводится понятие смешанного момента второго порядка, называемого функцией корреляции (ФК): , (6.11) где - двумерная плотность вероятности. Функция корреляции характеризует степень статистической зависимости двух значений случайного процесса, разделенных интервалом времени . С ростом ФК обычно уменьшается, что говорит об ослаблении связи между двумя мгновенными значениями случайного процесса. Если две случайные величины статистически независимы, то их двумерные плотности вероятности равны произведению одномерных плотностей вероятности: и ФК между двумя такими величинами равна нулю. 6.3. Стационарные случайные процессы Случайные процессы можно разделить на стационарные и нестационарные. Такое разделение можно пояснить на примере теплового шума на выходе усилителя электрических сигналов (рис. 6.3). Рис.6.3. К понятию стационарности случайного процесса В момент включения усилителя усилитель прогревается и амплитуда шумов растет – имеем дело с нестационарным процессом. После прогрева процесс становится стационарным. В дальнейшем мы будем иметь дело только со стационарными случайными процессами. Говорят, что случайный процесс стационарен в узком смысле, если любая его п-мерная плотность вероятности не зависит от сдвига процесса во времени на величину . Это означает, что для любых п и  справедливо равенство: . Случайный процесс стационарен в широком смысле, если его математическое ожидание m1 и дисперсия 2 не зависят от времени, а функция корреляции зависит только от разности : . Очевидно, что процессы стационарные в узком смысле, стационарны и в широком смысле, но не наоборот. Из определения стационарности случайного процесса в широком смысле следует, что его ФК является четной функцией: и справедливо равенство: . В дальнейшем мы будем рассматривать только стационарные в широком смысле случайные процессы. 6.4. Эргодические процессы Стационарные случайные процессы в большинстве практически важных ситуациях обладают так называемым свойством эргодичности: усреднение по множеству реализаций случайного процесса дает примерно тот же результат, что и усреднение по времени одной реализации , если время усреднения достаточно велико. Это свойство имеет большое значение на практике, т.к. усреднение по времени одной реализации технически реализовать проще. Поэтому доказательство эргодичности процесса позволяет существенно упростить нахождение его характеристик. Стационарный в широком смысле случайный процесс является эргодичным, если выполняется условие Слуцкого: . Математическое ожидание для эргодического случайного процесса определяется путем усреднения по времени (обозначено угловыми скобками) любой одной реализации , (6.12) следовательно, нахождение МО эргодического процесса сводится к простому интегрированию. Математическое ожидание для эргодического процесса равно постоянной составляющей выбранной реализации. Дисперсия эргодического процесса (6.13) Поскольку величина представляет собой среднюю мощность реализации, выделяемой на резисторе в один Ом, а - мощность его постоянной составляющей, то дисперсия определяет мощность переменной составляющей эргодического процесса. Аналогично можно найти функцию корреляции. Для этого обозначим (t) – переменную составляющую эргодического процесса, тогда . (6.14) Из сравнения (6.13) и (6.14) вытекает, что Для описания ФК эргодических случайных процессов часто пользуются понятиями: а) нормированная ФК ; б) интервал корреляции . Рассмотрим случайный процесс Z(t), образованный суммой двух стационарных эргодических процессов . ФК такого процесса определится соотношением: где и - КФ процессов Х(t) и , а - называется взаимно-корреляционной функцией, причем . Случайные процессы Х(t) и называют коррелированными при заданном , если их взаимно-корреляционная функция отлична от нуля. Если Вху() = 0, то процессы Х(t) и некоррелированы, т.е. статистически независимы. 6.5. Спектральная плотность мощности случайного процесса. Наряду с корреляционными функциями для описания случайных процессов широко используются спектральные характеристики, в частности, спектральная плотность мощности . Спектральная плотность мощности случайного процесса вводится аналогично, как и спектральная плотность мощности для детерминированных сигналов. Для этого рассмотрим мощность эргодического стационарного случайного процесса: , где - называется спектральной плотностью мощности эргодического процесса. Для эргодических процессов спектральная плотность мощности связана с ФК: Эти соотношения называются соотношениями Н.Винера и А.Я.Хинчина. Соотношения Винера-Хинчина аналогично преобразованиям Фурье для детерминированных процессов. Так как ФК связана с дисперсией, то дисперсию можно рассчитать через спектральную плотность мощности: (6.15) где - спектральная плотность мощности в положительной области частот. Для большинства применяющихся эргодических процессов: , где - верхняя частота в спектре случайного процесса, т.е. интервал корреляции и частотный диапазон связаны друг с другом. 6.6. Примеры случайных процессов 6.6.1.Нормальный случайный процесс( гауссов процесс) Процесс называется нормальным или гауссовым, если его одномерная ПВ имеет вид: , где 2 - дисперсия случайного процесса, m1 – математическое ожидание или среднее значение случайного процесса. На рис. 6.4. приведены графики ПВ такого нормального случайного процесса: Рис.6.4. Графики ПВ нормального случайного процесса Исходя из графиков, можно сформулировать основные свойства нормального случайного процесса: а) w(x)  0; б) кривая ПВ симметрична относительно x = m1; в) w(x) - max при x = m1; г) площадь под кривой w(x) равна 1; д) при изменении m1 форма кривой не меняется, но кривая смещается вдоль оси х; е) чем больше дисперсия 2, тем кривая ниже и шире; ж) можно показать, что с вероятностью близкой к 1 (Р0,997) мгновенные значения нормального случайного процесса лежат в пределах: m1 - 3 < x < m1+3. Нормальный закон распределения имеет место практически во всех случаях, когда случайный процесс образуется в результате суммирования очень большого числа случайных величин одного порядка малости. Преобразованием нормальное распределение с произвольными  и m1 можно привести к стандартной нормальной плотности вероятности: . ИФР для стандартного нормального случайного процесса называется интегралом вероятности (функция Лапласа): и имеет вид: F (x) 1 0.5 0 m1 x Рис.6.5. ИФР для нормального процесса. 6.6.2. Равномерное распределение Наиболее простым случайным процессом является равномерное распределение, для которого плотность вероятности постоянна для данного интервала (х1, х2) и равна нулю за его пределами (рис.6.6), т.е. Интегральная функция распределения имеет вид: . На основе выражений 6.12-6.14 нетрудно подсчитать и числовые параметры равномерно распределенной случайной величины. Рис.6.6. Плотность вероятности при равномерном распределении Равномерное распределение имеет место, например, при измерениях какой либо величины, когда ошибка измерения, как случайная величина, не превосходит половину цены деления шкалы измерительного прибора. 6.6.3. Распределение вероятности дискретных случайных величин Пусть некоторая случайная величина Х может принимать одно из m возможных значений , где i – порядковый номер соответствующего дискретного значения. Обозначим через вероятность того, что случайная величина Х примет конкретное значение xi (рис.6.8а). Если выбрем на оси абсцисс этого рисунка некоторую произволь - Рис.6.8. Распределение вероятностей (а) и интегральной функции распределения (б) дискретной случайной величины. ную точку х в качестве независимой переменной, тогда можем определить одномерную ИФР случайной величины Х , где - единичная функция, начинающаяся в точке хi. График ИФР приведен не рисунке 6.8б. Видно, что ИФР дискретной случайной величины имеет ступенчатый вид в точках возможных значений случайной величины. Для одномерной плотности вероятности с учетом (6.5) имеем , где - дельта-функция. 6.6.5. Распределение Пуассона В ряде телекоммуникационных задач часто встречаются случайные точечные процессы (потоки), которые представляют собой последовательность точек, расположепнных случайным образом, например, по оси времени. Такие точки могут соответствовать, например, моментам времени поступления заявок на обслуживание, отказов в какой либо системе и др. С точечным случайным потоком мы встречаемся и в задаче распределения вызовов на телефонной станции в течении суток (рис.6.9). Общее число вызовов – величина случайная. Однако для каждого временного Рис.6.9. Появление вызовов в случайных точках интервала (0…Т). интервала Т путем наблюдений можно установить среднее число вызовов , которое определяет мематическое ожидание, т.е. . Коэффициент пропорциональности определяет среднее число вызовов в единицу времени. Вероятность появления к вызовов на интервале (0,Т) определяется формулой Пуассона , (6.15) а вероятность отсутствия вызова на этом интервале (к = 0) - . На рисунке 6.10 приведена зависимость от k при некотором заданном . Рис.6.10. Пуассоновское распределение дискретной случайной величины. Можно показать, что для случайных точечных процессов с распределением типа (6.15) величина , определяющая интервал между вызовами (рис.6.9), описывается экспоненциальным распределением с ПВ (рис.6.11а): Рис. 6.11. Плотность вероятности (а) и интегральная функция (б) экспоненциального распределения. , а ИФР при этом имеет вид (рис.6.11б) . С помощью этих формул можно найти, например, вероятность того, что интервал между соседними вызовами окажется меньше некоторого заданного значения. 7. ОБЩИЕ ВОПРОСЫ ПРЕДСТАВЛЕНИЯ СИГНАЛОВ В ЭЛЕКТРИЧЕСКОЙ СВЯЗИ 7.1. Огибающая и фаза сигнала. Сопряженный сигнал В качестве канальных сигналов в системах связи широко используются сигналы в виде процесса с изменяющейся амплитудой (огибающей) и полной фазой : . (7.1) Действительно, если канальный сигнал является амплитудно-модулированным, то передаваемое сообщение закладывается в огибающую этого сигнала, если же сигнал с угловой модуляцией, то информация закладывается в полную фазу. Однако, представление сигнала в виде (7.1) в общем случае является неоднозначной, так как всегда можно найти значения и , при которых они будут совпадать с сигналом . Среди этого множества процессов выделим сигнал: , (7.2) который называется сопряженный с сигналом по Гильберту. Физический сигнал и сопряженный ему сигнал являются ортогональными, так как для них выполняется условие ортогональности: . Для формирования сопряженного по Гильберту сигнала служит преобразователь Гильберта (ПГ), который представляет собой некоторый четырехполюсник (рис.7.1). Если на его входе действует физический сигнал , то на его выходе формируется сопряженный сигнал : Рис.7.1. Преобразователь Гильберта. Преобразователь Гильберта обладает следующими свойствами: - комплексный коэффициент передачи имеет вид: (7.3) - импульсная характеристика , т.е. отклик четырехполюсника на дельта-функцию, должна быть: , при условии . (7.4) Спектральные плотности физического и сопряженного сигналов связаны соотношением: , (7.5) где -спектральная плотность физического сигнала, а - сопряженного сигнала. Также справедливо обратное соотношение: . (7.6) Из (7.6) следует, что преобразователь Гильберта обратим – если на его входе действует сопряженный сигнал, то на выходе имеем физический сигнал . Процесс, который происходит в преобразователе Гильберта, можно представить как свертку функции и и описывать с помощью следующего выражения: . (7.7) Здесь учтено, что . Справедливо и обратное соотношение: (7.8) Выражение (7.7) называется прямым преобразованием Гильберта, а (7.8) - обратным преобразованием Гильберта, совместно их называют парой преобразований Гильберта. Следует отметить, что введение сопряженного сигнала не дает каких-либо новых сведений о сигнале , однако это понятие позволяет расширить методы исследования реальных процессов в системах связи. 7.2. Аналитический сигнал и его свойства Составив комбинацию из физического и сопряженного сигналов в виде: (7.9) где, мы получим комплексный сигнал, который и называется аналитическим. Как и любую комплексную величину, аналитический сигнал можно представить в комплексной форме: , (7.10) где - огибающая и - полная фаза сигнала . Аналитический сигнал, определяемый выражением (7.9) обладает целым рядом положительных свойств: 1. Аналитический сигнал, как следует из выражения (7.10), является обобщением комплексного представления гармонического сигнала общего вида. Действительно, если полную фазу мы запишем в виде , где - частота сигнала, - начальная фаза, то имеем: , а мгновенная частота сигнала, определяемая формулой , равна . 2. Спектр аналитического сигнала находится в области только положительных частот. Покажем это. Для этого представим физический и сопряженный сигналы (7.1) и (7.2) в виде ряда Фурье (без учета его постоянных составляющих): (7.11) аналогично для сопряженного сигнала (7.12) Подставив (7.11) и (7.12) в (7.9) получим: . (7.13) Как видно, в (7.13) отсутствуют составляющие с отрицательными частотами, что придает физическую реальность аналитическому сигналу. С учетом (7.5) и (7.13) спектр аналитического сигнала можно записать в виде: . 3. Скалярное произведение сигнала и сопряженного с ним сигналав пространстве Гильберта всегда равно нулю, т.е. они ортогональны: . 4. При общем фазовом сдвиге всех компонент сигнала на некоторый фазовый угол аналитический сигнал умножается на . На основе выражения (7.13) имеем: . 5. При преобразовании частоты сигнала, которая часто встречается в системах связи при передаче сигналов, аналитический сигнал умножается на , где – величина изменения частоты (транспонирования), т.е.: . На основе этих свойств можно ввести понятие ортогональности двух сигналов в усиленном смысле. Два сигнала и называются ортогональными в усиленном смысле в пространстве Гильберта, если одновременно справедливы следующие равенства: , (7.14) где сопряженный к сигнал. Полезность понятия ортогональности в усиленном смысле в том, что в системах связи при прохождении сигнала возникают случайные фазовые изменения сигналов за счет их задержки в канале связи. При выполнении условия (7.14) ортогональность таких сигна-лов сохраняется при наличии произвольных фазовых сдвигов и . 7.3. Узкополосные сигналы Операции, связанные с преобразователем Гильберта, становятся реализуемыми и существенно упрощаются для так называемых узкополосных сигналов. Узкополосный сигнал представляет собой частный случай аналитического сигнала, спектр которого группируется около некоторой частоты , называемой центральной. Узкополосный сигнал имеет вид: (7.15) где - амплитуда при косинусоидальной, - амплитуда при синусоидальной составляющих и они называются квадратурными компонентами. Квадратурные компоненты сдвинуты по центральной частоте относительно друг друга на 900 и их скалярное произведение равно нулю. Квадратурные компоненты являются низкочастотными величинами, поскольку их относительные изменения за период достаточно малы, так что выполняется условие , (7.16) где - верхняя частота в спектре квадратурных компонент. Условие (7.16) принято называть условием узкополосности сигнала в широком смысле. В качестве примера такого сигнала можно привести амплитудно-модулированное колебание (см. раздел 9), в котором условие узкополосности хорошо выполняется. Можно сказать, что канальные сигналы в системе связи практически всегда являются узкополосными сигналами. Отметим, что аналитические сигналы бывают как детерминированными, так и случайными. Расчет вероятностных и численных параметров узкополосных случайных процессов проводится исходя из совместной плотности вероятности квадратурных компонент в фиксированных сечениях случайного процесса при заданном его распределении. Задачи. №1. Непрерывная случайная величина x равномерно распределена в интервале . Вычислить математическое ожидание, момент 2-го порядка и дисперсию. №2. Найти момент 1 порядка , 2 порядка и случайной форме , каждая реализация которой равна произведению длин отрезков, разделенных реализацией случайно величины равномерно распределенного на промежутке [0,1] . №3. Эргодический случайный процесс может принимать только 2 значения: а и в, при этом вероятность появления а ; а вероятность появления в . Определить и построить плотность вероятности и интегральную функцию распределения этого процесса. Нарисовать одну из возможных реализаций этого процесса.
«Случайные процессы и их основные характеристики» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Помощь с рефератом от нейросети
Написать ИИ

Тебе могут подойти лекции

Смотреть все 173 лекции
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot