Справочник от Автор24
Поделись лекцией за скидку на Автор24

Основы теории цифровой связи

  • ⌛ 2014 год
  • 👀 1969 просмотров
  • 📌 1944 загрузки
  • 🏢️ ГУАП
Выбери формат для чтения
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «Основы теории цифровой связи» pdf
Министерство науки и образования РФ Федеральное государственное автономное образовательное учреждение высшего профессионального образования Санкт-Петербургский государственный университет аэрокосмического приборостроения А.Н.Трофимов Основы теории цифровой связи Конспект лекций © 2001-2014 А.Н.Трофимов Предисловие В настоящем документе представлен конспект лекций по основам теории цифровой связи. Содержание книги представляет собой расширенный конспект лекций по общим вопросам теории передачи дискретных сообщений. Курс такого содержания в течение ряда лет читался автором в Санкт-Петербургском государственном университете аэрокосмического приборостроения. В этом курсе рассматриваются основные классические вопросы теории цифровой связи, а также уделено внимание некоторым моделям каналов передачи, представляющим теоретический и практический интерес. Курс охватывает комплекс вопросов, включающих описание основных видов дискретной модуляции, важные для теории и практики модели каналов, алгоритмы оптимального приема, оценки вероятности ошибки, и не включает вопросы, относящиеся к задачам кодирования источников, помехоустойчивому кодированию, организации систем связи и др., изучаемых в других курсах. Основное содержание пособия посвящено исследованию надежности передачи с использованием основных видов дискретной модуляции. Первая редакция этого конспекта относится к 2001 г. 2 1. Введение и математические основы 1.1 Структура системы передачи информации. Модели каналов и помех В самом общем виде структура системы передачи информации может быть показана следующим образом (см. рис.1.1).  m m Источник сообщений Канал Получатель Рис.1.1. Общая схема системы передачи информации Здесь под каналом понимается часть системы передачи, природа и характеристики которой заданы, а их изменение нежелательно, затруднено или просто невозможно. Задача, решаемая системой передачи, состоит в том, чтобы передать сообщение m от источника к получателю. Как правило, сообщение источника представлено в такой форме, в которой невозможна его эффективная передача по каналу. Поэтому в систему обычно включаются устройства передачи и приема, которые выполняют преобразование сообщения m в сигнал  s и преобразование принятого сигнала r в принятое сообщение m (см. рис.1.2). m Источник сообщений s Передатчик  m r Канал Приемник Получатель Рис.1.2 Схема системы передачи информации Заметим, что преобразование m s, выполняемое передатчиком, является детерминированным и взаимно-однозначным; преобразование s определяемое каналом, является случайным; преобразование r r,  m, выполняемое в передатчике, является детерминированным, но не взаимно- однозначным. Если источник порождает сообщения из конечного множества, то он называется источником дискретных сообщений, в противном случае источник называется источником непрерывных сообщений. Процесс формирования сигнала по сообщению называется модуляцией. В процессе модуляции выполняется изменение параметров сигнала в соответствии с сообщением, подлежащим передаче. Если множество сигналов, формируемых в процессе модуляции, оказывается конечным, то такая модуляция называется дискретной или цифровой. В настоящем курсе рассматривается передача с использованием дискретной модуляции. Более подробная схема передачи дискретных сообщений с использованием цифровой модуляции показана на рис. 1.3. m Источник дискретных сообщений Кодер источника Кодер канала Модулятор s (t ) Канал  m Получатель Декодер источника Кодек источника Декодер канала Кодек канала Демодулятор r (t ) Модем Рис. 1.3. Схема системы передачи дискретных сообщений 1-2 Кодирование–декодирование источника служит для уменьшения избыточности, присутствующей в сообщениях источника. В результате кодирования сообщения использованием меньшего источника числа оказываются символов, то записанными есть эти с сообщения представляются в сжатой форме. Кодирование источника может выполняться с потерями (например, сжатие звука и изображений, представленных в цифровой форме), либо без потерь (например, архивирование файлов). Канальное, применяется или для использовании помехоустойчивое, обеспечения кодирование-декодирование большей помехоустойчивого надежности кодирования передачи. скорость При передачи уменьшается за счет передачи избыточных символов, позволяющих исправлять ошибки, возникающие в канале. Вообще говоря, в системе передачи информации операции кодирования-декодирования источника и/или помехоустойчивого кодирования-декодирования могут отсутствовать. На рис.1.4 показана структура системы цифровой передачи непрерывных сообщений. m(t ) Исходный цифровой (двоичный) поток Аналогоцифровое преобразование Источник непрерывных сообщений Кодер источника Кодер канала s (t ) Модулятор Канал  m(t ) Получатель Принятый цифровой (двоичный) поток Цифроаналоговое преобразование Декодер источника Кодек источника Декодер канала Кодек канала Демодулятор r (t ) Модем Рис. 1.4. Схема цифровой системы передачи непрерывных сообщений 1-3 Непрерывное сообщение источника подвергается дискретизации и квантованию (аналого-цифровому преобразованию); в результате этой операции формируется цифровой поток. Дальнейшая передача выполняется так же как показано на рис.1.3. После приема цифрового потока непрерывное сообщение источника восстанавливается с использованием цифро-аналогового преобразования и интерполяции (сглаживания). Качество системы передачи дискретных сообщений характеризуется  Pr[ m вероятностью ошибки, которая определяется как Pe m] , где m – переданное сообщение, m – полученное сообщение. Само сообщение может иметь различный объем: от одного бита до нескольких тысяч бит и более в зависимости от назначения системы передачи сообщений. непрерывных При передаче сообщений в качестве критерия качества рассматривается  некоторая мера близости сообщения m(t ) , доставленного получателю, и оригинального сообщения m(t ) . среднеквадратичное отклонение где P lim T 1 T T 2 lim T Наиболее 1 T T часто используется  (m(t ) m(t )) 2 dt или отношение 2 / P, m(t ) 2 dt – мощность непрерывного сообщения. Следует отметить, что малое значение среднеквадратичного отклонения не всегда соответствует хорошему воспроизведению непрерывного сообщения, например, звукового. В этом max 0 случае t T используется другая мера отклонения, например, такая  m(t ) m(t ) . Основными параметрами системы передачи являются скорость передачи, ширина полосы частот и отношение сигнал/шум. Эти параметры обычно являются исходными, и при заданных значениях этих параметров требуется обеспечить требуемое качество передачи. Различаются информационная и модуляционная Модуляционная скорость, или символьная скорость, Vмод скорости. определяется как T 1 , где T – период следования дискретных сигналов. Модуляционная 1-4 скорость численно равна числу изменений параметров дискретного сигнала в единицу времени. Единицей измерения модуляционной скорости является Бод, (Baud), 1 Бод = с-1 . Информационная скорость определяется как количество информации, передаваемое в единицу времени и измеряется в бит/с. При передаче с использованием равновероятных q -ичных дискретных сигналов и при отсутствии помехоустойчивого кодирования информационная скорость может быть вычислена как V log 2 q / T . Заметим. что значения информационной и модуляционной скоростей численно равны, только в случае двоичной передачи, то есть при q 2 . Помехи, действующие в канале передачи информации, можно разделить на помехи естественного происхождения и помехи искусственного происхождения, которые в свою очередь делятся на преднамеренные и непреднамеренные. По своему действию на передаваемый сигнал помехи могут быть аддитивными и мультипликативными. Среди аддитивных помех различаются а) тепловой шум, б) сосредоточенная помеха, в) импульсная помеха, г) помехи от других систем передачи. На рис.1.5 показаны типичные реализации некоторых аддитивных помех (слева) и их спектральное представление (справа). Видно, что спектр сосредоточенной помехи сконцентрирован в нескольких узких участках частотного диапазона, а сама сосредоточенная помеха занимает всю временную область. Импульсная помеха представляет собой последовательность коротких по сравнению с длительностью полезного сигнала импульсов, то есть импульсная помеха сосредоточена во временной области. Спектр импульсной помехи достаточно протяжен в частотной области. Реализация теплового шума занимает всю временную область. Спектр теплового шума занимает всю частотную область. 1-5 t f t f t f а б Рис.1.5. Аддитивные помехи: шум, сосредоточенная, импульсная (сверху вниз); а) типичные реализации, б) типичные спектры 1-6 1.2. Геометрическое представление сигналов Начнем с напоминания необходимых определений и обозначений. Пусть некоторые функции g(t ) и h(t ) определены на интервале [a, b] . Величина b a называется скалярным произведением функций g(t ) и h(t ) и g (t ) h(t ) dt b обозначается как ( g, h) . Величина и обозначается как b a ( g (t ) h(t )) 2 dt 1/ 2 g . a g 2 (t )dt 1/ 2 Заметим, что называется называется нормой функции g(t ) 2 g . (g, g ) расстоянием, точнее Наконец, величина говоря, евклидовым расстоянием, между функциями g(t ) и h(t ) и обозначается d ( g, h) . Очевидно, что d ( g , h) g h. Кроме того очевидно, что g h 2 g 2 2 2( g , h) h . Аналогично определяются расстояние, норма и скалярное произведение для векторов (a, b) a n j 1 (a1 ,..., an ) и b (b1 ,..., bn ) : n d (a, b) 2 a j b j . Легко видеть также, что a b j 1 a 2 (a j 2(a, b) b j )2 , a n j 1 a 2j , 2 b . Пусть сигнал s (t ) определен на конечном интервале времени, например на [0, T ] , где T – период следования сигналов. Пусть { j (t )} , j 1,2,..., множество ортонормированных функций, определенных на интервале [0, T ] , то есть таких, для которых выполняется условие T ( i, k) i (t ) k (t )dt ik 1, i k, 0, i k. Сигнал s (t ) может быть представлен в виде линейной комбинации D базисных функций D s (t ) sj j (t ). (1.1) j 1 1-7 Величина D называется размерностью пространства сигналов. Заметим, что D может быть конечной или бесконечной величиной. По поводу размерности D следует сделать пару замечаний. Замечание 1. Пусть {si (t )} , i 0,...,q 1, некоторое фиксированное сигнальное множество. Тогда существует алгоритм построения базиса { j (t )} , j 1,...,D , и D q, причем равенство имеет место только тогда, когда сигналы {si (t )} линейно независимы. Алгоритм построения базиса по набору сигналов {si (t )} называется процедурой Грама– Шмидта (см. Приложение 1). Замечание 2. Если сигнальное множество не фиксировано, но все сигналы имеют конечную норму, то существует универсальный базис { j (t )} , с помощью которого можно представить любой сигнал. Число базисных функций в этом случае может быть бесконечным. Вернемся к рассмотрению равенства (1.1), называемого также обобщенным рядом Фурье. Величины s j в (1.1) называются коэффициентами разложения сигнала s (t ) по базису { j (t )} . Покажем как коэффициенты разложения связаны с сигналом. Для этого умножим левую и правую части равенства (1.1) на k (t ) и проинтегрируем на интервале [0, T ] , т.е. вычислим T T s(t ) D k (t )dt T D sj j (t ) k (t )dt sj j 1 j 1 D j (t ) k (t )dt sj jk sk . j 1 Таким образом получено, что k -ый коэффициент разложения вычисляется следующим образом T sk s(t ) k (t )dt (s, k ). (1.2) Собирая вместе равенства (1.1) и (1.2), получим в итоге пару преобразований D s (t ) sj j (t ), j 1 (1.3) T sj s (t ) j (t )dt, 1-8 ставящих во взаимно-однозначное соответствие сигнал s (t ) коэффициентов s (s1 , s2 ,..., sD ) , которое будем обозначать как s(t ) { и j ( t )} набор s. Далее рассмотрим случай сигнального множества конечной размерности, то есть, случай D . В этом случае имеет место отображение сигнального множества {si (t )} в множество сигнальных векторов, или сигнальных точек в D -мерном вещественном пространстве R D {si (t )} { j ( t )} {si } R D . (1.4) Для значений размерности D 3 множество сигнальных точек может быть изображено графически. Такое изображение называется иногда сигнальным созвездием (signal constellation). Примеры сигнальных созвездий показаны на рис. 1.6. в) б) а) Рис.1.6. Примеры сигнальных созвездий а) D 1 , б, в) D 2 Рассмотрим свойства отображения (1.4). Свойство 1. Представление (1.3) дает наилучшее приближение при любом фиксированном числе слагаемых. Пусть ~s (t ) N j 1 cj j (t ) , где c j – некоторые коэффициенты, N D . Покажем, что если коэффициенты c j назначены равными коэффициентам s j из (1.2), то ~s (t ) и s (t ) будут близки в некотором смысле. Обозначим через величину рассогласования между ~ s (t ) и s (t ) и определим ее как квадрат 1-9 коэффициентов cj , ( s (t ) ~ s (t )) 2 dt . Найдем значения T расстояния между функциями, то есть, минимизирующие , решая уравнение / cj 0. Подробнее, T ( s(t ) ~ s (t )) 2 dt T 2 N s(t ) ck k (t ) dt, k 1 тогда T cj 2 N s(t ) cj ck k T (t ) dt 2 k 1 T ck k 1 k (t ) j (t )dt N k (t ) j (t )dt 2 sj ck 2(s j kj c j ) 0. k 1 s j рассогласование между ~ s (t ) и s (t ) минимально. Отсюда следует, что при c j Заметим также, что при N ck k 1 T N 2 s(t ) j (t )dt 2 N s(t ) D это рассогласование равно нулю. Свойство 2. Энергия, или квадрат нормы сигнала равна квадрату нормы (квадрату длины) соответствующего сигнального вектора, то есть T T 2 E s (t )dt T s(t )s(t )dt s(t ) D sj j (t )dt j 1 D T s j s(t ) j 1 j (t )dt D sjsj 2 s . j 1 Свойство 3. Скалярное произведение сигналов равно скалярному произведению соответствующих сигнальных векторов, то есть, (s1 , s2 ) (s1 , s 2 ) . T T s1 (t )s2 (t )dt D s1 (t ) s2 j j (t )dt j 1 T D D s2 j s1 (t ) j 1 j (t )dt s2 j s1 j (s1 , s 2 ). j 1 Свойство 4. Отображение (1.4) представляет собой изометрическое отображение, то есть оно сохраняет расстояние, то есть, d (s1 , s2 ) d (s1 , s 2 ) ; иными словами, расстояние между сигнальными функциями совпадает с расстоянием между соответствующими сигнальными точками. Рассмотрим квадрат расстояния между сигналами T d 2 (s1 , s 2 ) T (s1 (t ) s 2 (t )) 2 dt T = s1 2 2(s1 , s 2 ) T s12 (t )dt 2 s1 (t )s 2 (t )dt s2 2 s 22 (t )dt d 2 (s1 , s 2 ). 1-10 Замечание. Перечисленные свойства отображения (1.4) справедливы независимо от конкретного вида базиса, который может быть выбран многими способами. Примеры базисов. Рассмотрим два примера универсальных, или функционально полных, базисов. Эти базисы содержат бесконечно много функций и могут использоваться для представления любых сигнальных функций. Ортонормированный гармонический базис. Пусть 0 t T . (t ) 1 (t ) 2 (t ) 3 (t ) 4 (t ) 1 T 2 sin 2 T 2 cos 2 T 2 sin 2 T 2 cos 2 T t T t T 2t T 2t T  Заметим, что множитель 2 / T обеспечивает нормировку функций базиса. Графики нескольких первых функций гармонического базиса показаны на рис.1.7. 3 (t) 3 2 2 1 1 -1 -1 0.5 t/T 3 1 (t) 2 2 1 1 -1 -1 0.5 t/T 3 1 (t) 2 1 1 -1 -1 0.5 t/T 1 (t) 0.5 t/T 3 2 1 3 4 0.5 t/T 3 2 (t) 1 1 (t) 5 0.5 t/T 1 1-11 Рис.1.7. Функции гармонического базиса, заданные на интервале [0,T] Ортонормированный базис Уолша (Walsh). Сначала определим функции wn ( ) на интервале [ 1/ 2, 1/ 2] . Пусть w0 ( ) 0, 1, 1/ 2, 1/ 2, а все остальные функции более высокого порядка определяются рекурсивно ( 1)[ n / 2] p (wn (2 w2n p ( ) 1 / 2) ( 1) n p wn (2 1 / 2)). . Функции wn ( ) , n 0,1,..., ортогональны и нормированы на интервале [ 1/ 2,1/ 2] . Графики нескольких первых функций базиса Уолша показаны на рис.1.8. w0(t) 2 w1(t) 2 1 1 -1 -1 -0.4 -0.2 t 0.2 0.4 0.6 w2(t) 2 -0.4 -0.2 t 0.2 1 -1 0.6 w3(t) 2 1 0.4 -1 -0.4 -0.2 t 0.2 0.4 0.6 w4(t) 2 -0.4 -0.2 t 0.2 1 -1 0.6 w5(t) 2 1 0.4 -1 -0.4 -0.2 t 0.2 0.4 0.6 -0.4 -0.2 t 0.2 0.4 0.6 Рис.1.8. Функции Уолша. Если положить t ( множество функций n 1/ 2)T , то t [0, T ] , если (t ) , определенных как n (t ) [ 1/ 2,1/ 2] . Поэтому, 1 / T wn (t / T 1 / 2) , образуют ортонормированный базис на интервале [0, T ] . Множитель 1 / T обеспечивает, как и ранее, нормировку функций базиса. 1-12 1.3. Периодические сигналы и ряд Фурье Если для сигнала s (t ) выполняется условие s(t ) s(t T ) , то он называется периодическим. Наименьшее значение T, для которого это условие выполняется, называется периодом сигнала. Рассмотрим интервал [ T / 2, T / 2] . В качестве базиса возьмем гармонический базис, рассмотренный ранее k 1 , k 0, T 2 t (k 1) / 2 sin 2 , k 1,3,5,... T T 2 t (k / 2) cos 2 , k 2,4,6,... T T (t ) Заметим, что этот базис обладает свойством ортонормированности не только на интервале [0, T ] , но и на интервале [ T / 2, T / 2]. Вычислим коэффициенты разложения T /2 sk ( s, k) s(t ) k (t )dt. (1.5) T /2 Тогда для t [ T / 2, T / 2] справедливо представление s(t ) sk k (t ). (1.6) k Если распространить область определения базисных функций { k (t )} с интервала [ T / 2, T / 2] на всю ось времени, то они станут периодическими с периодом T . Поскольку сигнал s (t ) имеет период T , то равенство (1.6) будет выполняться и для t ( , ) . Это значит, что обобщенный ряд Фурье для периодических функций и для гармонического базиса совпадает с обычным рядом Фурье. Обычно ряд Фурье записывается в форме s(t ) a0 / 2 (ak cos 2 f k t bk sin 2 f k t ), (1.7) k 1 1-13 где f k k / T . Найдем значения коэффициентов ряда Фурье ak , bk из (1.7), исходя из выражений (1.5) для коэффициентов обобщенного ряда Фурье (1.6). Ряд (1.6) можно переписать в виде s(t ) s0 1 s1 T s0 (t ) s1 1 (t ) s2 2 t sin 2 T T s2 2 (t ) s3 2 t cos 2 T T s3 3 (t ) s4 4 (t ) ... = 2 2t sin 2 T T s4 2 2t cos 2 T T ... Аналогично, ряд (1.7) можно переписать в виде s(t ) a0 / 2 a1 cos 2 f1t b1 sin 2 f1t a2 cos 2 f 2t b2 sin 2 f2t ... Из сравнения двух последних выражений видно, что a0 2 s0 1 T 1 T T /2 s(t ) 0 (t )dt T /2 1 T T /2 s(t )dt, T /2 отсюда следует, что 2 T a0 ak 2 s2 k T 2 T T /2 2 T T /2 s(t ) 2 T 2 k (t )dt T /2 T /2 s(t )dt , T /2 T /2 s(t ) T /2 2 kt 2 cos 2 dt T T T T /2 s(t ) cos 2 f k tdt, T /2 и bk 2 s2k T 1 s(t ) 2k 1 2 T (t )dt T /2 T /2 2 kt 2 s(t ) sin 2 dt T T T T /2 T /2 s(t ) sin 2 f k tdt . T /2 Итак, периодический сигнал может быть представлен рядом (1.7), с коэффициентами a0 ak 2 T 2 T T /2 s(t )dt, T /2 T /2 s(t ) cos 2 T /2 k t dt , k 1,2,... T 1-14 1.4. Комплексная форма ряда Фурье Ранее получено выражение для ряда Фурье (ak cos 2 f k t bk sin 2 f k t ), , s(t ) a0 / 2 k 1 где a0 2 T T /2 s(t )dt, 2 T ak T /2 T /2 k s(t ) cos 2 t dt, bk T T /2 2 T T /2 s(t ) sin 2 T /2 k t dt. T Его можно преобразовать с использованием формул Эйлера для тригонометрических функций: cos x (e jx e jx ) / 2 и sin x (e jx e jx ) / 2 j , где j 1 , то есть s(t ) a0 2 ak e j 2 fkt k 1 e j 2 fkt bk 2 e j 2 fkt e 2j j 2 fkt a0 2 ak jbk 2 k 1 e j2 fkt ak jbk 2 e j2 fkt . Обозначим коэффициент при exp( j 2 f k t ) как ck , а коэффициент при exp( j 2 f k t ) – как c k . Очевидно, что ck (ak jbk ) / 2 и c k (ak jbk ) / 2 . Кроме того, ck c *k . C учетом этих обозначений имеем запись ряда Фурье в комплексной форме s (t ) ck e j2 k t T (1.8) , k где ck Равенства (1.8) и ak jbk 2 (1.9) 1 T T /2 s(t )e j2 k t T (1.9) dt. T /2 допускают интерпретацию. Каждый коэффициент ck любопытную графическую в правой части сумме (1.8) представляет собой комплексное число, которое может быть изображено точкой на комплексной плоскости. соответствующие коэффициентам ck Поскольку и c k ck c k, то точки, расположены симметрично относительно оси абсцисс. Каждое слагаемое ck exp( j 2 kt / T ) в сумме (1.8) представляет собой комплексное число и может быть изображено точкой на комплексной плоскости. При изменении значения времени t точки, 1-15 соответствующие слагаемым ck exp j2 kt / T ) и c k exp( j2 kt / T ) , перемещаются по окружностям радиуса ck c по часовой стрелке и k против нее соответственно. Сумма ck exp j2 kt / T ) c k exp( j2 kt / T ) при всяком значении t принимает вещественные значения, поэтому точка, соответствующая этой сумме, перемещается по оси абсцисс (см. рис.1.9). Im ck e j2 k t T 2 k t T ck ck e j2 k t T c ke j2 k t T c c ke j2 k t T Re ck c k k 2 k t T Рис.1.9. Пара слагаемых ck exp j2 kt / T ) и c k exp( j2 kt / T ) и их сумма На рис. 1.10 показана иллюстрация для многих слагаемых в правой части равенства (1.8). В этой сумме для пары значений k и k есть пара слагаемых ck exp( j 2 kt / T ) и c k exp( j2 kt / T ) . Эти слагаемые могут быть представлены как пара векторов, вращающихся по и против часовой стрелки с угловой скоростью 2 kt / T (см. рис. 1.9). На рис. 1.10а показаны все векторы ck exp( j 2 kt / T ) и c k exp( j2 kt / T ) для некоторого примера, а на рис.1.10б – суммы этих векторов для k 0 и для k 0 . Точка, изображающая сумму всех слагаемые правой части равенства (1.8), отмечена на рис. 1.10б как s (t ) , и с изменением времени t эта точка перемещается по вещественной оси. 1-16 Im c1e c 4e 1 t T c 3e j2 4 t T j2 c4 e j2 3 t T c2 e Im c1 j2 2 t T 4 t T c 1e 1 j2 t T c3e 3 j2 t T s (t ) Re c0 c 2e j2 2 t T c1 c 4 c а c3 c4 Re c0 j2 c2 c 3 2 б Рис.1.10. Слагаемые ck exp j2 kt / T ) и c k exp( j2 kt / T ) (а), и их суммы для k 0 и k 0 и полная сумма s (t ) (б). 1-17 1.5. Преобразование Фурье и спектры сигналов Ряд Фурье дает разложение периодического сигнала по гармоническому ортонормированному базису. Сигнал общего вида, то есть непериодический, можно представить как "предельный" случай периодического сигнала при T . В общем случае вместо ряда Фурье рассматривается преобразование Фурье, определенное как S( f ) j 2 ft dt, (1.10) S ( f )e j 2 ft df . (1.11) s(t )e и обратное преобразование Фурье s(t ) Формулы (1.10) и (1.11) имеют определенное сходство с формулами ряда Фурье в комплексной форме и коэффициентами этого ряда соответственно T /2 1 T ck s(t )e j2 k t T j2 k t T dt, (1.12) . (1.13) T /2 s (t ) ck e k Действительно, если подставить правую часть равенства (1.12) в (1.13), то получим, что s(t ) k Переход к пределу при T и k  на 1 T T /2 s(t )e j2 k t T dt e j2 k t T . T /2 соответствует заменам 1 / T на df , k / T на f ,  df . Выполняя этот “предельный” переход, получаем, что s(t ) s (t )e j 2 ft dt e j 2 ft df  S ( f )e j 2 ft df , S( f ) то есть получаем равенства (1.10) и (1.11) 1-18 Функция S ( f ) , определенная равенством (1.10), называется спектральной плотностью или спектром сигнала s (t ) . Также функция S ( f ) называется преобразованием или образом функции s (t ) , которая иногда называется оригиналом. Преобразование Фурье является взаимно-однозначным преобразованием; символически это преобразование будет обозначаться как s(t ) S ( f ) . В настоящем курсе рассматриваются вещественные сигналы. Спектр даже в этом случае представляет собой комлекснозначную (принимающую комплексные значения) функцию вещественной переменной. Поэтому можно записать, что S( f ) e j S( f ) (f) S ( f ) cos ( f ) j S ( f ) sin ( f ) , где S ( f ) – амплитудный спектр (модуль комплексного спектра), фазовый спектр. энергетическим S( f ) (Re S ( f )) 2 Квадрат амплитудного спектром. Кроме (Im S ( f )) 2 , (f) того, arctan спектра имеют (f) – 2 S ( f ) называется место соотношения Im S ( f ) . Re S ( f ) Рассмотрим подробнее вопрос о соотношении вещественной и мнимой составляющей спектра. Для этого рассмотрим произвольный вещественный сигнал s (t ) . Он может быть представлен в виде суммы четной sч (t ) и нечетной s н (t ) функций, sн (t ) (s(t ) s( t )) / 2 . Найдем преобразование Фурье от s (t ) S( f ) s(t )e то j 2 ft есть dt sч (t ) cos 2 ftdt s(t) s ч (t) s н (t ) , ( sч (t ) sн (t ))e j 2 ft j sн (t ) sin 2 ftdt dt где sч (t ) (s(t ) s( t )) / 2 ( sч (t ) sн (t ))(cos 2 ft sн (t ) cos 2 ftdt  и j sin 2 ft )dt j sч (t ) sin 2 ftdt.  Два последних слагаемых равны нулю, потому что они получены в результате интегрирования нечетной функции в симметричных пределах интегрирования. Таким образом, 1-19 S( f ) sч (t ) cos 2 ft dt откуда следует, что Re S ( f ) j sн (t ) sin 2 ft dt, sч (t ) cos 2 ft dt, Im S ( f ) sн (t ) sin 2 ft dt. Два последних равенства означают, что четная функция имеет вещественный спектр, а нечетная – мнимый, или sч (t ) Re S ( f ) , sн (t ) Im S ( f ) . Повторим, что в общем случае спектр комплексный. Рассмотрим важные примеры. Пример 1. Пусть сигнал задан равенством ( A / T )e s(t ) где A 0 , T S( f ) t /T 0, , t t 0, 0, 0 . График сигнала показан на рис.1.11. Вычислим его спектр s(t )e j 2 ft dt A e T 0 t (1 / T j2 f ) dt A/T e 1/ T j 2 f t (1 / T j2 f ) 1 A . j 2 fT Амплитудный и фазовый спектры равны соответственно A S( f ) 1 (2 fT ) 2 , (f) arctan( 2 fT ). Графики амплитудного и фазового спектров показаны на рис. 1.11. □ 1 s(t) 0.5 1 s(t) 0.5 5 10 15 5 t 10 15 t |S(f)| 1 0.5 |S(f)| 1 0.5 -1 -0.5 f 0.5 1 (f) 1 -1 -1 -1 -0.5 f а) 0.5 1 f 0.5 1 (f) 1 -1 -0.5 -1 -0.5 f 0.5 1 б) Рис.1.11 Сигнал из примера 1, его амплитудный и фазовый спектры; 1-20 а) A=1, T = 4, б) A=1, T = 1. Пример 2. Спектр прямоугольного импульса. Пусть сигнал задан равенством A, | t | T / 2 s(t ) где A 0 , T s(t )e t T /2 , 0 . График сигнала показан на рис.1.12. Вычислим его спектр T /2 S( f ) 0, j 2 ft dt A e j 2 ft dt T /2 A e j2 f T /2 j 2 ft T /2 A (e j j2 f fT j fT e A sin fT f ) AT sin fT . fT Графики спектра и амплитудного спектра показаны на рис. 1.12. s(t) 1 0.5 s(t) 1 0.5 -2 t 2 3 -2 S(f) 2 1 1 f 2 f 2 |S(f)| 3 2 2 1 1 S(f) -2 |S(f)| 3 2 3 2 -2 t -2 f 2 а) -2 f 2 б) Рис.1.12 Сигнал из примера 2, его спектр и амплитудный спектр; а) T 3, A 1 , б) T 1, A 1 Как видно из выражений для спектра и из графиков, показанных на рис.1.12, спектр прямоугольного импульса имеет бесконечную ширину. Это значит, что на практике в точности прямоугольный импульс не может существовать. То, что в инженерной практике называется прямоугольным импульсом, представляет собой лишь некоторое приближение к нему с передним и задним фронтами конечной, а не бесконечной, крутизны. На 1-21 практике за ширину спектра прямоугольного сигнала принимается величина равная W 1 / T , где T длительность сигнала. Это так называемая ширина главного лепестка графика спектра. Такое соглашение обосновывается тем, что в интервале частот от до W W содержится более 90% энергии прямоугольного импульса. На рис.1.13 приведены амплитудный спектр и график величины f m ax E ( f m ax ) | S ( f ) | 2 df , f m ax представляющей собой часть энергии сигнала в полосе [ f max, f max] . Видно, что E(1/ T ) 0.9E( ). 1.2 1 |S(f)| 1 0.8 0.8 0.6 0.6 0.4 0.4 0.2 0.2 E(fmax ) -2 fT 2 0.5 1 1.5 2 2.5 fmax T Рис.1.13 Амплитудный спектр прямоугольного импульса и его энергия в зависимости от полосы частот Сигналы с прямоугольными огибающими представляю собой наиболее простой и важный для практики пример сигналов. В Приложении 2 можно найти сведения о некоторых сигналах с огибающими, отличными от прямоугольных. Пример 3. Спектр -функции. Напомним основное свойство -функции, которое можно рассматривать как ее определение. Пусть g(t ) некоторая функция, тогда g (t ) (t t 0 )dt g (t 0 ) . (1.14) 1-22 Равенство (1.14) известно также как фильтрующее свойство Функция (t ) может также рассматриваться как "предел" -функции. функции (t ) , определенной как 1 , |t | / 2, 0, | t | / 2. (t ) Поясним смысл этого утверждения. Для этого рассмотрим предел lim g (t ) (t t 0 )dt lim 1 t0 /2 g (t )dt . t0 /2 Пусть G (t ) – первообразная функции g(t ) , то есть G (t ) g(t ) . Тогда lim 1 t0 /2 t0 /2 1 g (t )dt lim ( G(t0 / 2) G(t0 / 2) ) G (t0 ) g (t0 ) . Таким образом (1.15) lim g (t ) (t t0 )dt g (t0 ). Сравнивая равенства (1.14) и (1.15), можно заметить, что -функция может рассматриваться как предельный случай короткого и мощного прямоугольного импульса. Заметим, что это не единственный способ такого "предельного" описания -функции. Вернемся к рассмотрению спектра -функции. Преобразование Фурье - функции имеет вид (t )e j 2 ft dt e j 2 ft t 0 1. Последнее равенство означает, что спектральная плотность -функции постоянна на всей частотной оси. 1-23 1.6. Свойства преобразования Фурье Прямое и обратное преобразования Фурье определяются как S( f ) s (t )e j 2 ft dt , S ( f )e j 2 ft df , s(t ) и символически обозначаются как s(t ) S ( f ) . Рассмотрим важнейшие свойства преобразования Фурье. Линейность. Если H( f ) , h(t ) G( f ) , g(t ) то aG( f ) bH( f ) , где a и b – постоянные. ag(t ) bh(t ) Доказательство очевидно. □ Площадь под кривой. Пусть g(t) g (t )dt G( f ) . Тогда G (0) , G( f )df g (0). Доказательство. G( f ) g (t )e j 2 ft dt. Положив в левой и правой части этого равенства f 0 , получим искомое утверждение. Второе равенство доказывается аналогично с заменой прямого преобразования на обратное. (Полезно проверить это свойство для примеров, рассмотренных ранее.) □ Сдвиг g (t t 0 ) e по j 2 ft 0 времени G( f ) , G( f и f0 ) по частоте. Пусть g(t ) G( f ) , тогда e j 2 f0t g (t ) . Доказательство. Найдем преобразование Фурье от функции g (t t 0 ) g (t t0 )e j 2 ft dt t1 t t0 dt1 dt t g (t1 )e j 2 f ( t 0 t1 ) dt1 e j 2 ft 0 g (t1 )e j 2 ft1 dt1 e j 2 ft 0 G ( f ). t1 t0 1-24 Свойство сдвига по частоте доказывается аналогично. Из этого свойства следует, что при сдвиге по времени амплитудный спектр не меняется, т.к. e j ft 0 G( f ) e j ft 0 G ( f )  G( f ) . □ 1 Дифференцирование. Пусть g(t) dG( f ) / df G( f ) . Тогда dg(t ) / dt ( j 2 f )G( f ) , ( j 2 t ) g(t ) . Доказательство. dg (t ) dt d G( f )e j 2 ft df dt G( f ) Отсюда непосредственно следует, что d j 2 ft e df dt dg(t ) / dt ( j 2 f )G( f )e j 2 ft df . ( j 2 f )G( f ) . Утверждение о дифференцировании в частотной области доказывается аналогично. Очевидно, что амплитудный спектр производной сигнала равен 2 f G( f ) ; это выражение значит, что при дифференцировании спектральные составляющие в области высоких частот усиливаются, а в области низких – ослабляются. □ Интегрирование. Пусть g(t) g (t )dt G( f ) . Тогда 1 G ( f ), j2 f G ( f )df 1 g (t ). j2 t Доказательство. g (t )dt G( f )e j 2 ft df dt   G( f ) e j 2 ft dtdf G( f ) 1 e j 2 ft df . j2 f g (t ) Отсюда непосредственно следует доказываемое утверждение. Свойство об интегрировании в частотной области доказывается аналогично. Очевидно, что амплитудный спектр проинтегрированного сигнала равен G( f ) / 2 f ; это выражение значит, что при интегрировании спектральные составляющие в области высоких частот ослабляются, а в области низких – усиливаются. □ Теорема умножения (теорема о свертке). Напомним определение операции свертки. Пусть g(t ) и h(t ) некоторые функции. Сверткой функций g (t ) и h(t ) называется функция (обозначается g (t ) h(t ) ), полученная как 1-25 g (t ) h(t ) Пусть g(t ) G( f ) H ( f ) G( f ) , h( ) g (t )d H( f ) , h(t ) тогда g(t ) h(t ) G( f )H ( f ) , g(t )h(t ) . Доказательство. g (t ) h(t ) h( ) g (t )d e j 2 ft dt h( ) g (t )e j 2 ft dtd h( )G ( f )e j2 f d H ( f )G( f ) . Аналогично доказывается теорема о свертке в частотной области. В качестве важного частного примера применения теоремы о свертке укажем s(t )e j 2 f 0t S( f ) (f f0 ) S( f f0 ). Теорема о свертке может быть проиллюстрирована на примере линейной фильтрации. Напомним некоторые первоначальные сведения из теории линейных фильтров. Линейный фильтр задается импульсной переходной характеристикой фильтра h(t ) . Пусть x(t ) – сигнал на входе линейного фильтра, тогда выходной сигнал y(t ) связан с входным сигналом соотношением y (t ) h(t ) x( )d (1.16) h(t ) x(t ). Если взять преобразование Фурье от обеих частей этого равенства и применить теорему о свертке, то получим, что Y ( f ) H ( f ) X ( f ) , где Y ( f ) X( f ) x(t ) и H ( f ) y(t ) , h(t ). Функция H ( f ) называется частотной переходной характеристикой фильтра. Рис. 1.14 поясняет сказанное. x(t ) X( f ) Линейный фильтр h(t ) H( f ) y(t ) Y( f ) Рис.1.14. Линейная фильтрация h(t ) x(t ) H( f )X ( f ) 1-26 Заметим, что если положить x(t ) y(t ) (t ) , то как следует из равенства (1.16), h(t ) . Это соотношение служит основанием для определения импульсной переходной характеристики фильтра как реакции фильтра на входной сигнал в виде -функции. Заметим также, что частотная характеристика фильтра может быть определена как отношение спектров выходного и входного сигналов, то есть H ( f ) Y ( f ) / X ( f ). Равенство Парсеваля. Пусть s(t ) S ( f ) , тогда s 2 (t )dt 2 S ( f ) dt . Доказательство. s 2 (t )dt s(t ) s(t )dt S ( f )e j 2 ft df s(t )dt   S( f ) s(t )e j 2 ft dtdf s (t ) S ( f ) S ( f )df 2 S ( f ) df . Это свойство означает, что энергия сигнала может быть вычислена во временной или в частотной области. □ 1-27 1.7. Частные случаи вычисления спектра s(t ) Спектр гармонического A cos(2 f 0 t ). соотношения сигнала. Рассмотрим сигнал вида Найдем его спектр, используя ранее установленные A и A (f) g (t ) exp( j 2 f 0t ) f0 ) , G( f где g(t ) G( f ) . Используя формулу Эйлера для косинуса, cos x (e jx e jx ) / 2 , имеем s(t ) A j 2 f 0t j (e e 2 j 2 f 0t e e j A ( (f 2 ) f 0 )e j (f Аналогично, для синусоидального сигнала s(t ) Asin(2 f 0t s(t ) При A 1 j2 (e 2j f 0t ej e j 2 f 0t j e A j2 (e 2j ) f 0t ej f 0 )e j ). ) e j 2 f 0t e j ). A ( (f 2 A cos 2 f 0 t f0 ) (f f 0 )), то есть спектр в этом случае вещественный, так как сигнал задается четной функцией, и A ( (f 2j A sin 2 f 0 t f0 ) (f f 0 )), то есть спектр здесь мнимый, так как сигнал задается нечетной функцией. □ Спектр произведения произвольного сигнала и гармонического сигнала. Пусть сигнал определен как s(t ) g(t )c(t ) , где g(t ) - некоторая произвольная функция (огибающая), а c(t ) cos(2 f 0t ) – гармонический сигнал (несущая). Найдем спектр S ( f ) сигнала s (t ) . По теореме о свертке S ( f ) G( f ) C( f ) , где G( f ) g(t ) , C( f ) c(t ) . Поскольку c (t ) – гармонический сигнал, то C( f ) (f f 0 )e j (f f 0 )e 2 j . Тогда S( f ) 1 G( f ) ( ( f 2 f 0 )e j (f f 0 )e j ) ej G( f ) 2 (f f0 ) e j 2 G( f ) (f f0 ) 1-28 (e j G( f f0 ) e j G( f f 0 )) / 2 . Последнее равенство означает, что при умножении на гармонику с частотой f 0 спектр сигнала локализуется около частоты f 0 . Рассмотрим важный пример. Пример. Спектр отрезка гармоники с прямоугольной огибающей. Пусть A, | t | T / 2 g (t ) где G( f ) A 0, T 0. Найдем 0, | t | T / 2 спектр сигнала , s(t ) g (t ) cos 2 f 0t . Поскольку AT sin( fT) /( fT) , то S( f ) AT sin ( f f 0 )T 2 ( f f 0 )T sin ( f f 0 )T ( f f 0 )T Графики сигнала, его спектра и амплитудного спектра показаны на рис.1.15 . □ 1 s(t) 0.5 1 s(t) 0.5 -0.5 -0.5 -1 -1 -4 -2 t 2 2 4 S(f) -4 1 -5 f 5 10 |S(f)| 2 1.5 t 2 2 1 -10 -2 4 S(f) -10 -5 f 5 10 |S(f)| 2 1.5 1 1 0.5 0.5 -10 -5 f а 5 10 -10 -5 f 5 10 б Рис.1.15 Сигнал из примера, его спектр и амплитудный спектр, а) A 1 , T 1 , f 0 5 , б) A 1 , T 4 , f 0 5 . 1-29 Как видно из выражения и графиков, частотный спектр локализован около центральной частоты f 0 и имеет бесконечную ширину. Это значит, что идеальный отрезок гармоники не может быть воспроизведен практически. На практике при f 0 1/ T за ширину спектра принимается значение W 2 / T . Это обусловлено тем, что в полосе [ f 0 1/ T , f 0 1/ T ] сосредоточено более 90% энергии идеализированного сигнала. В Приложении 2 рассматриваются сигналы с непрямоугольными огибающими, имеющие более узкий спектр. Спектр последовательности сигналов. множество, (мультииндекс) i 0,...,q 1. i Определим Пусть {si (t )} – сигнальное последовательность (i0 , i1 ,..., i N 1 ) длины N , где il индексов {0,1,..., q 1} , 0 l N 1. Определим также последовательность сигналов длины N , определяемую N 1 последовательностью индексов i , si (t ) l 0 sil (t lT ) где T - период следования сигналов. Например, для N 7 и i (5,2,0,3,1,3,3) , сигнальная последовательность образована сигналами s5 (t ), s2 (t ), s0 (t ), s3 (t ), s1 (t ), s3 (t ), s3 (t ) . Найдем спектр S i ( f ) последовательности si (t ) . Пусть S i ( f ) спектр i -го сигнала из сигнального множества, тогда используя свойство линейности и сдвига во временной области, имеем N 1 Si ( f ) l 0 S il ( f )e j 2 flT . Как следует из последней формулы, спектр последовательности сигналов представляет собой линейную комбинацию спектров сигналов, образующих последовательность. \ 1-30 1.8. Стационарные гауссовские случайные процессы Введем необходимые обозначения. Пусть z ( z1 , z2 ..., z L ) – L -мерный случайный вектор. Обозначим многомерную функцию распределения вектора z как Fz ( ) Fz ( Pr[ z1 1 , , z2 где 2 ,..., z L ( 1, L ]. 2 ..., L ). Она Обозначим определена многомерную как плотность вероятности вектора z как wz ( ) , она равна L wz ( ) 1 Fz ( ) 2 ... . L Введем обозначение для набора моментов времени t (t1 ,.t 2 ,..., t k ) , k 0 . Обозначим вектор отсчетов одномерного случайного процесса x(t ) , взятых в моменты времени t1 , t 2 ,..., t k , как x(t) ( x(t1 ), x(t 2 ),..., x(t k )) . Случайный процесс называется стационарным, если wx(t ) ( ) wx(t ) ( ) для всякого вектора с одинаковыми компонентами, ( , ,... ) ; это значит, что функция плотности вероятности набора отсчетов не зависит от сдвига по оси времени. Определение. Стационарный случайный процесс называется гауссовским, или нормальным, если для любого k и любого набора моментов времени t (t1 , t 2 ,..., t k ) wx ( t ) ( ) (2 ) k/2 1 exp (det )1 / 2 1 ( 2 m) 1 ( m )T . (1.17) □ Поясним выражение (1.17). В нем использовано обозначение m для вектора математических ожиданий, m ( x(t1 ), x(t 2 ),..., x(t k )) , черта сверху здесь и далее обозначает математическое ожидание. Заметим, что в силу стационарности процесса x(t ) справедливо равенство x(t1 ) x(t 2 ) ... x(t k ) m . Далее, – корреляционная матрица k k , определенная как 1-31 11 21 ... 12 ... 1k 22 ... 2k ... ... ... kk ... k1 k2 . Элементы корреляционной матрицы задаются как ( x(ti ) x(ti ))( x(tl ) x(tl )) il Заметим, что ( x(t i ) m) 2 ii 2 i (1.18) ( x(ti ) m)( x(tl ) m). , где 2 i - дисперсия i -го отсчета. В силу стационарности процесса x(t ) дисперсии всех отсчетов равны между собой, то есть 2 i 2 для всех i . И наконец, det – обозначение определителя матрицы . Из равенства (1.17) следует, что многомерное гауссовское распределение полностью определяется корреляционной матрицей и вектором математических ожиданий m . Величины il / i l il 2 / называются коэффициентами корреляции случайных величин x(ti ) и x(tl ) . Коэффициенты корреляции принимают значения из множества [ 1, 1] . Величины, имеющие нулевой коэффициент корреляции, называются некоррелированными. Выражение, стоящее в показателе экспоненты в выражении (1.17), может быть записано в компонентной форме, т.е. ( m) 1 ( m) T [ 1 m 2 m  k m] 11 12 21 22   k1 k2 1     k 1k 1 m 2k 2 m   kk m k k ( i m) ( 1) il ( l m), i 1 l 1 где ( 1) il элементы матрицы 1 (обратной к ). Пример 1. Пусть величины x(t1 ), x(t 2 ),..., x(t k ) имеют нулевые математические ожидания и не коррелированны, то есть, m (0,0,...,0) и 1-32 2 diag( Поскольку det ( ) и 2 k 1 2 wx ( t ) ( ) 1 2 2 k 1 2 2 ,..., diag(1/ k exp 2 , i 1       2 ,...,1/ k 1 2 2 i 2 2 ) ,1/ i 1  2 . 2 ) , то нетрудно видеть, что exp 2 2 i 2 k wx (t i ) ( i ). i 1 Последнее равенство означает, что компоненты вектора x(t) ( x(t1 ), x(t 2 ),..., x(t k )) независимы. Это значит, что некоррелированные гауссовские случайные величины независимы. Обратное верно для любого распределения, то есть независимые случайные величины не коррелированны. Иначе говоря, некоррелированность и независимость для гауссовских случайных величин эквивалентны. □ Пример 2. Пусть k 2, m (m1 , m2 ) и 2 1 1 ; величина называется коэффициентом корреляции и лежит в интервале [ 1, 1] . На рис.1.16 показаны графики функций плотности вероятности wx ( ) вектора x ( x1 , x2 ) для различных значений параметров распределения. Видно, что при функция плотности вероятности имеет круговую симметрию относительно вертикальной оси, проходящей через точку (m1 , m2 ) . В общем случае (при 0 ) линии уровня функции плотности вероятности имеют вид эллипсов.□ 1-33 4 m1 1 3 m2 1.5 0.2 2 0.1 2 1 5 4 -1 2 -5 1 -2 -2 2 4 4 0.4 3 2 0.2 1 5 m1 1 m2 1.5 2 4 -5 0.9 -1 2 1 -2 -2 2 4 б а Рис.1.16. Двумерная гауссовская функция плотности вероятности; а) графики плотности, б) линии уровня Вернемся к рассмотрению непрерывного времени. Далее будем считать, что процесс x(t ) имеет нулевое математическое ожидание, то есть x(t ) 0 . Корреляционная функция стационарного процесса x(t ) определяется как K x (t , ) x(t ) x(t ) . В силу стационарности она не зависит от t , можно писать K x ( ). Заметим, что K x ( ) K x ( ) и K x (0) равенства (1.18) легко заметить, что il K x (t i tl ) . 2 . и поэтому С учетом Это значит, что корреляционная функция определяет корреляционную матрицу для любого набора отсчетов, следовательно, корреляционная функция полностью задает описание стационарного гауссовского процесса с нулевым средним. Преобразование Фурье корреляционной функции процесса x(t ) называется спектральной Sx ( f ) K x ( )e плотностью j2 f мощности d , и наоборот K x ( ) процесса x(t ) , то есть S x ( f )e j 2 f df . Функция S x ( f ) принимает действительные и неотрицательные значения. Спектральная плотность мощности называется так потому, что интеграл вида F F S x ( f ) df определяет среднюю мощность процесса x(t ) в частотном интервале 1-34 [ F , F ] . Полная мощность процесса может быть вычислена как P S x ( f ) df . Из одного из свойств преобразования Фурье (“площадь под кривой”) следует, что P S x ( f )df 2 K x (0) , то есть средняя мощность процесса с нулевым математическим ожиданием численно равна его дисперсии. Поскольку спектральная плотность мощности однозначно связана с корреляционной функцией процесса, то она также как и корреляционная функция полностью определяет стационарный гауссовский процесс с нулевым средним. На рис.1.17 показаны три примера корреляционной функции, спектральной плотности мощности и типичной реализации гауссовского случайного процесса. Первый пример соответствует слабо коррелированному (быстро изменяющемуся) процессу, его спектр мощности почти равномерен. Во втором примере корреляция больше, а спектр – уже. Третий пример соответствует процессу с наибольшей корреляцией и наименее узким спектром. 1 0.5 0.2 2 0.1 1 -1 -0.1 -20 20 1 -0.2 -2 -0.2 0.2 10 20 30 10 20 30 10 20 t 30 2 4 3 0.5 2 1 -2 -20 20 -0.2 0.2 2 1 40 1 30 0.5 20 -1 10 -2 -20 а 20 -0.2 f б 0.2 в Рис.1.17. Примеры гауссовских случайных процессов, а) корреляционная функция, б) спектральная плотность мощности, в) типичная реализация 1-35 Линейное преобразование случайного процесса (в частности, фильтрация) гауссовского не изменяет распределение (т.е. процесс остается гауссовским), но меняет его спектральную плотность мощности. Линейный фильтр задается импульсной переходной характеристикой h(t ) или связанной с ней преобразованием Фурье частотной характеристикой H ( f ) , H ( f ) h(t ) . Реализация случайного процесса на выходе фильтра равна свертке реализации на входе с импульсной переходной характеристикой фильтра. Спектральная плотность процесса на выходе равна S y ( f ) | H ( f ) |2 S x ( f ) . Таким образом, линейное преобразование меняет в общем случае спектр и корреляционную функцию процесса (см. рис. 1.18). x(t ) Sx ( f ) Линейный фильтр h(t ) H( f ) y(t ) h(t ) x(t ) S y ( f ) | H ( f ) |2 S x ( f ) Рис.1.18. Линейная фильтрация случайного процесса 1-36 1.9. Белый гауссовский шум Формально белый гауссовский шум (БГШ) определяется как гауссовский случайный процесс n(t ) с нулевым средним, спектральной плотностью мощности S n ( f ) функция с конечной нормой, то есть определенная как ng n(t ) и постоянной 0, N 0 / 2 . Пусть g (t ) – произвольная . Тогда случайная величина, g g (t )n(t )dt, обладает следующими свойствами: а) ng – гауссовская случайная величина (г.с.в.), б) n g 0, в) n g2 2 ( N 0 / 2) g . Случайная величина ng может рассматриваться как скалярное произведение n(t ) и g (t ) , то есть ng ( g , n) . Найдем корреляционную функцию БГШ. Известно, что K n ( ) Sn ( f ) . Поскольку S n ( f ) N 0 / 2 , то K n ( ) ( N 0 / 2) ( ) . В дальнейшем будет использоваться одно важное свойство БГШ, сформулированное в виде следующего утверждения. Утверждение. Скалярные произведения БГШ и ортогональных функций независимы. Доказательство. Пусть 1 (t ) и 2 (t ) - ортогональные функции, т.е. ( 1 , Скалярные произведения БГШ и функций n1 (n, 1 ) n(t ) 1 (t )dt, n2 1 (t ) и (n, 2 2 2 ) 0. (t ) определены как ) n(t ) 2 (t )dt. Требуется доказать, что n1 и n2 независимы. По определению БГШ n1 и n2 это г.с.в. Найдем корреляционный момент (корреляцию) этих величин n1n2 . Эта величина равна n1n2 n(t ) 1 (t )dt n(t ' ) 2 (t ' )dt' 1 (t ) 2 (t ' )n(t )n(t ' )dtdt' . Поскольку n(t )n(t ' ) K n (t t ' ) ( N 0 / 2) (t t ' ) , то 1-37 N0 2 n1n2 1 (t ) 2 (t ' ) (t t ' )dtdt' N0 2 1 (t ) 2 (t ' ) (t t ' )dt' dt N0 2 1 (t ) 2 (t )dt 0. Переход в третьем равенстве основан на использовании фильтрующего свойства и 2 -функции, а последний переход – на ортогональности функций 1 (t ) (t ) . Таким образом доказано, что а) n1 и n2 - гауссовские случайные величины, б) n1 и n2 не коррелированны. Отсюда следует, что n1 и n2 независимы. □ Дисперсия случайного процесса, как уже отмечалось, может быть вычислена как 2 образом, для БГШ S n ( f )df . Для БГШ S n ( f ) 2 N 0 / 2 для f . Таким . Это значит, что БГШ реально не может существовать, так как имеет бесконечно большую мощность. В то же время БГШ часто используется в качестве математической модели для описания помех, действующих в реальных системах и расчета характеристик таких систем. Приведем объяснение этого кажущегося противоречия (см. рис.1.19). Шум, действующий в реальных условиях, имеет спектр мощности гладкий в некоторой полосе и спадающий к нулю за ее пределами. Полоса любого реального устройства имеет ширину, меньшую, чем ширина полосы реального шума. Поэтому, реакция реального устройства на реальный шум и реакция реального устройства на идеализированный шум (БГШ) совпадают. Иными словами, поскольку БГШ никогда не рассматривается сам по себе, а рассматривается только результат его фильтрации (реакция устройства на шум), то проблем, связанных с бесконечно большой дисперсией на входе устройства, просто не возникает. На выходе реального устройства появляется в точности такой же процесс, как если бы на входе был БГШ. 1-38 Спектр мощности идеализированного шума (БГШ) Спектр мощности реального шума Частотная характеристика реальной системы f Рис.1.19. Спектры мощности реального и идеализированного шума 1-39 2. Оптимальный прием и основные виды дискретной модуляции 2.1 Оптимальный прием дискретных сигналов Задача оптимального приема дискретных сигналов формулируется следующим образом. Имеется q сигналов s0 (t ) ,…, sq 1 (t ) . При передаче случайно выбирается один из них в соответствии с вероятностным распределением P0 ,…, Pq 1 , Pi r (t ) .  i 0, q 1 i 0 Pi 1 . Приемник наблюдает выход канала  Задача приемника состоит в определении номера переданного сигнала i , 0,..., q 1 . При этом возможно, что решение приемника будет ошибочным. Оптимально построенный приемник обеспечивает наименьшую вероятность ошибки Pe  Pr[ i i] (см. рис. 2.1) Сообщение i Модулятор (передатчик)  r (t ) si (t ) Канал Решение i Демодулятор (приемник) Рис.2.1. Система передачи дискретных сигналов Пусть для представления сигналов выбран базис { j (t )} , j 1,2,...,D . Тогда сигнальному множеству {si (t )} с использованием этого базиса ставится в соответствие множество сигнальных точек {s i } , s i R D . Если разложить по базису сигнал на выходе канала r (t ) , то получим точку (вектор) r . Канал формально может быть задан набором условных плотностей вероятностей w(r | s i ) , i рис. 2.2. 0,1,2,...,q 1. Процесс передачи можно тогда описать как показано на Передатчик: Выбор s {s i } в соответствии с распределением {Pi } s s Приемник: Канал: w(r | s 0 ) r w(r | s1 ) s .... Определение номера  i s переданного w(r | s q 1 ) сигнала Рис.2.2. Формальная модель передачи дискретных сигналов Для описания приема (процесса формирования решения о переданном сигнале) используем понятие решающей области. Разобьем некоторым образом множество всех возможных значений вектора r на q непересекающихся областей Ri , i 0,1,...,q 1, , т.е.  Ri i  сигнале принимается по правилу i R D , Ri  R j i, . Решение о переданном если r Ri . Понятно, что вероятность ошибки зависит от конфигурации решающих областей Ri . Поэтому задача построения оптимального приемника может быть переформулирована как задача построения решающих областей, обеспечивающих минимальную вероятность ошибки. Пусть Pe (r) вероятность ошибки при условии, что принятый вектор равен r . Тогда безусловная вероятность ошибки равна q 1 Pe Pe (r)w(r)dr Pe (r)w(r)dr, i 0 Ri RD где w(r) – безусловная функция плотности вероятности вектора r . Для всякого r Ri имеем Pe (r) 1 Pr[i | r] , где Pr[i | r] – вероятность принятия решения в пользу i -го сигнала при условии, что полученный вектор равен r . Тогда вероятность ошибки равна q 1 Pe 1 Pr[ i | r]w(r)dr. (2.1) i 0 Ri Чтобы вероятность ошибки была минимальной, должна быть максимальной сумма в правой части (2.1), то есть нужно назначить решающие области таким 2-2 образом, чтобы эта сумма была максимальной. Поскольку решающие области не пересекаются, то условие максимизации суммы эквивалентно максимизации каждого слагаемого этой суммы, то есть значения интеграла Ri Pr[ i | r ]w(r )dr . Так как подынтегральное выражение неотрицательно, то легко видеть, что значение этого интеграла максимально, если положить Ri {r : Pr[i | r]w(r) Pr[i | r]w(r), i i} Если исключить из этого определения решающей области несущественный множитель w(r) , то получим, что Ri {r : Pr[i | r] Pr[i | r], i (2.2) i }. Вероятности Pr[i | r] в равенстве (2.2) – это апостериорные вероятности приема i . Поэтому прием решений с использованием решающих областей (2.2) называется приемом по максимуму апостериорной вероятности (МАВ). С использованием формулы Байеса имеем Pr[i | r] w(r | i)Pi / w(r) , тогда равенство (2.2) можно переписать в окончательном виде Ri( МАВ) {r : w(r | i) Pi w(r | i ) Pi , i i }. (2.3) Тогда алгоритм оптимального приема можно записать следующим образом: по принятому из канала сигналу вычислить вектор r коэффициентов  разложения по базису и положить i k, если r Rk , где решающие области определены равенством (2.3). Иллюстрация приведена на рис. 2.3. Вычисление значения w(r | 0) P0 r Вычисление значения w(r | 1)P1 Выбор максимума  i Вычисление значения w(r | q 1) Pq 1 Рис.2.3. Схема оптимального приемника (приемника по МАВ) 2-3 На практике часто встречается случай, когда сигналы передаются равновероятно, то есть Pi 1/ q для всех i , i 0,1,...,q 1. В этом случае определение решающих областей и оптимального приемника можно упростить, исключив из определения (2.3) одинаковые априорные вероятности. Получающийся в этом случае алгоритм носит название приема по максимуму правдоподобия (МП), а решающие области принимают вид Ri( МП) {r : w(r | i) w(r | i ), i i}. (2.4) Схема приемника, принимающего решения по МП, показана на рис 2.4. Вычисление значения w(r | 0) r Вычисление значения w(r | 1) Выбор максимума  i Вычисление значения w(r | q 1) Рис.2.4. Схема оптимального приемника (приемника по МП) Заметим, что приемник МП является оптимальным только в случае равновероятных сигналов. На практике приемник может быть построен следующим образом. Сначала по принятому сигналу вычисляется вектор r (см. рис. 2.5) , а затем производится обработка этого вектора как это показано на рис. 2.3 и 2.4. 2-4 Вычисление r1 T r1 r (t ) 1 (t )dt r (t ) r Вычисление rD T r (t ) D rD (t ) dt Рис.2.5. Вычисление компонент вектора r 2-5 2.2. Вероятность ошибки при оптимальном приеме дискретных сигналов Вероятность ошибки может быть найдена как q 1 Pe (2.5) Pe (i ) Pi , i 0 где Pe (i) – вероятность ошибки при передаче i -го сигнала, Pi – вероятность передачи i -го сигнала. Выражение (2.5) дает точное значение вероятности ошибки. В ряде случаев воспользоваться этим выражением не удается, так как невозможно точно вычислить условные вероятности Pe (i) . В этом случае приходится пользоваться верхней оценкой вероятности ошибки q 1 Pe ~ Pe (i ) Pi , (2.6) i 0 ~ где Pe (i) Pe (i) – верхняя оценка условной вероятности ошибки. Для вычисления этой оценки существует ряд подходов. Рассмотрим некоторые из них. Аддитивная граница (аддитивное неравенство, неравенство Буля, граница объединения). Условная вероятность ошибки при передаче i -го сигнала определяется как  Pr[ i Pe (i) i | i] . Используя понятие решающей области, это выражение можно переписать в виде  Pr[ i q 1 i | i] Pr[ r Ri | i ] Pr r Rk | i . (2.7) k 0 k i Аддитивное неравенство позволяет оценить сверху вероятность объединения любых событий. Оно записывается как Pr A Pr[ Ai ], i i (2.8) i где {Ai } – множество некоторых событий. Применяя (2.8) к (2.7), получим 2-6  Pr[ i q 1 i | i] Pr[ r Rk | i ]. (2.9) k 0 k i Вероятность Pr[r Rk | i] в свою очередь может быть оценена сверху вероятностью ошибки в системе передачи, использующей только два сигнала si (t ) и s k (t ) . В такой системе существуют только две решающие области Ri( 2) и Rk( 2) Pr[ r 1 ), то есть Ri( 2)  Rk( 2) R D и Ri( 2)  Rk( 2) . Очевидно, что Rk( 2) Rk | i] Pr[ r Rk , поэтому Rk( 2) | i] , и далее ~ Pe (i) Pe (i) q 1 Pr[ r Rk( 2) | i ]. k 0 k i Вычисление вероятности Pr[ r Rk( 2) | i] обычно оказывается сравнительно несложным в отличие от вероятности Pr[r Rk | i] . Окончательное выражение для аддитивной границы вероятности ошибки имеет вид q 1 q 1 Pe Pr[ r Rk( 2) | i ] Pi . (2.10) i 0 k 0 k i □ Аппроксимация решающей области. Условная вероятность ошибки при передаче i -го сигнала определяется как  Pe (i) Pr[ i i | i]. Используя понятие решающей области, это выражение можно переписать в виде  Pr[ i i | i] 1 Pr[ r Ri | i] 1 w(r | i)dr. (2.11) Ri Если интеграл в правой части равенства (2.11) вычислить не удается, то можно оценить его снизу, используя подходящую аппроксимацию решающей области ~ Ri . Пусть Ri 1 ~ Ri и конфигурация аппроксимирующей области Ri выбрана так, Верхний индекс 2 здесь означает, что в системе используется только два сигнала 2-7 что интеграл ~ Ri w(r | i )dr вычисляется аналитически. Поскольку w(r | i) 0 для всех r , так как это плотность вероятности, то имеем верхнюю границу Pe (i ) 1 ~ Ri ~ Ri w(r | i )dr Ri w(r | i )dr . Поэтому w(r | i )dr и окончательно q 1 Pe 1 (2.12) Pi w(r | i)dr. i 0 ~ Ri □ В завершение отметим, что для вычисления вероятности ошибки следует использовать, в тех случаях, когда это возможно, точное выражение (2.5), либо оценки, например, оценки (2.10) и (2.12). Во всех случаях для вычисления вероятности ошибки необходимо знать априорное распределение на входе канала {Pi } , условные функции плотности вероятности w(r | i) , описывающие канал, и алгоритм приема, то есть конфигурацию решающих областей. Число двоичных единиц (бит) переносимых q -ичным сигналом равно m log 2 q . При ошибке, происходящей при передаче сигналов, формируется ошибочное решение относительно номера переданного сигнала и возникает от 1 до m ошибочных бит. Рассмотрим вероятность ошибки на бит Pb , и ее связь с вероятностью ошибки на символ Pe . Определим вероятность принятия решения в пользу сигнала с номером i ' при условии, что был передан сигнал с номером i , и обозначим ее как Pe (i, i' ) , i' i , то есть Pe (i, i' ) Pr[r Ri ' | i] . Тогда очевидно, что Pe (i) q 1 i ' 0 ,i ' i Pe (i, i ' ) . Пусть n(i, i' ) - число разрядов, в которых различаются двоичные представления номеров сигналов i и i ' . Например, n(5,6) 2 , так как 510 101 2 , 610 110 2 . Очевидно, что 1 n(i, i' ) Pb m при i' i . Тогда можно записать, что 1 q 1q 1 Pe (i, i ' )n(i, i ' ) Pi . m i 0 i' 0 i' i 2-8 В этом равенстве фактически записано отношение среднего числа ошибочно принятых бит к их общему числу. Точное вычисление вероятности ошибки на бит может оказаться затруднительным. Основная проблема состоит в вычислении, или достаточно точном оценивании, вероятностей Pe (i, i' ) . Тем не менее, в ряде случаев сигналов она разрешима. Заметим, что вероятность ошибки на бит может быть уменьшена, если назначить номера сигналов так, чтобы уменьшить величины произведений Pe (i, i' )n(i, i' ) . На практике часто оказывается, что значения вероятностей Pe (i, i' ) сильно различаются при различных i,i' . В частности это так при использовании АМ, ФМ, КАМ сигналов. Поэтому разумно назначить номера сигналов так чтобы величина n(i, i ' ) была малой для тех пар (i, i' ) , для которых вероятность Pe (i, i' ) велика. В этом случае можно добиться, что произведения Pe (i, i' )n(i, i' ) будут небольшими и общая вероятность ошибки на бит уменьшится. Такая нумерация может быть обеспечена с использованием кода Грея (Gray code). Код Грея представляет собой переупорядочение двоичных кодовых последовательностей таким образом, что соседние последовательности отличаются только в одном двоичном разряде. Простой пример приведен в табл.2.1. Таблица 2.1 Код Грея длины 3 Десятичное представление Двоичное Код представление Грея 000 000 1 001 001 2 010 011 3 011 010 4 100 110 5 101 111 6 110 101 7 111 100 2-9 Из табл.2.1 в частности следует, что n(5,6) 1, так как 510 111Gray , 610 101Gray . Это значит, что при ошибочном решении в пользу сигнала 6 при условии, что был передан сигнал 5, произойдет ошибка только в одном двоичном разряде, а не в двух как при обычной нумерации сигналов. Это значит, что применение кода Грея вместо обычной нумерации сигналов желательно, если вероятность Pe (5,6) велика. Алгоритм построения кода Грея. Код Грея любой длины может быть построен рекуррентно. Обозначим код Грея длины n как G(n) . Очевидно, что G(1) {0,1} . Построение кода на основе кода G(n) выполняется G(n 1) следующим образом: ~ ~ а) Построение вспомогательного списка G (n) . Список G (n) представляет собой список G(n) , переупорядоченный в обратном порядке ~ б) Построение кода Грея G(n 1) из G(n) и G (n) . К началу каждого слова ~ из G(n) приписывается 0, к словам из G (n) приписывается 1, и оба списка слов ~ объединяются, то есть G(n 1) ( (0g, g G(n)), (1g, g G(n)) ) . Пример. Построение кода Грея длины 4. По определению G(1) {0,1} . Тогда ~ G(1) (1,0) , и G(2) (00,01,11,10) . ~ Следовательно G(2) (10,11,01,00) , и G(3) = (000,001,011,010,110,111,101,100). Поэтому ~ G(3) (100 ,101,111,110 ,010 ,011,001,000 ) , и окончательно G(4) = (0000, 0001,0011,0010,0110,0111,0101,0100,1100,1101,1111,1110,1010,1011,1001,1000). 2-10 2.3. Оптимальный прием в канале с аддитивным белым гауссовским шумом Пусть {si (t )} – множество сигналов, используемых для передачи, заданных на интервале [0, T ] , i 0,1,...,q 1, {Pi } - априорное распределение, заданное на этом множестве. Сигнал на выходе канала имеет вид r(t ) s(t ) n(t ) , где s(t ) {si (t )} , n(t ) - аддитивный белый гауссовский шум (АБГШ) со спектральной плотностью мощности N 0 / 2 . Задача приемника состоит в  определении номера переданного сигнала i по принятому сигналу r (t ) . Выберем базис { j (t )} , j 1,...,D , для представления сигналов. Тогда вместо множества сигналов {si (t )} можно рассматривать множество D -мерных вещественных сигнальных векторов (сигнальных точек) {s i } , где s i s ij ( si , T ) j s i (t ) j (t ) dt (si1 ,..., siD ) и – скалярное произведение i го сигнала и j -ой базисной функции, j 1,...,D . Аналогично можно построить разложение принятого r (t ) rj (r , nj ( n, j T ) j сигнала ) функции. r (t ) T j n(t ) (t )dt . j (t )dt по базисным Очевидно, что r функциям, s n, где r n – скалярное произведение шума и Отметим, что случайные величины (с.в.) n j (r1 ,..., rD ) , (n1 ,..., nD ) где и j -ой базисной независимы между собой и имеют гауссовское распределение с нулевым математическим ожиданием, поскольку шум имеет нулевое среднее, и дисперсией N 0 / 2 , то есть n j 0 , n 2j N 0 / 2 , и n j nk 0 , j, k 0,1,...,D , j k . Эти свойства следуют из свойств БГШ. Для построения алгоритма оптимального приема нужно знать вид условных плотностей вероятностей w(r | i) , определяемых условии, что передан i -й сигнал, r s i каналом. При n , поэтому для канала с АБГШ 2-11 D 1 N0 w(r | i ) exp D 2 r si N0 1 N0 или w(r | i) K exp( d 2 (r, s i ) / N 0 ) , где K ( N 0 ) D/2 exp 1 N0 D ( rj sij ) 2 , j 1 , d ( , ) – евклидово расстояние между точками в R D . Теперь можно записать выражение для решающих областей оптимального приемника МАВ Ri( MAB) r : Pi exp d 2 (r, s i ) N0 max Pk exp 0 k q 1 d 2 (r, s i ) N0 , или Ri( MAB) { r : d 2 (r, s i ) N 0 ln Pi min (d 2 (r, s k ) 0 k q 1 N 0 ln Pk ) } . (2.13) Схема приемника МАВ для канала с АБГШ показана на рис. 2.6 N 0 ln P0 d 2 (r, s 0 ) + N 0 ln P1 r d 2 (r, s1 ) Выбор минимума + N 0 ln Pq 2 d (r, s q 1 )  i 1 + Рис.2.6. Схема оптимального приемника для канала с АБГШ (приемник по МАВ) Решающие области МП имеют вид Ri( MAB) r : exp d 2 (r, s i ) N0 Ri( MП ) { r : d (r, s i ) max exp 0 k q 1 d 2 (r, s i ) N0 или min d (r, s k )} . 0 k q 1 (2.14) 2-12 Последнее равенство означает, что прием по МП в канале с АБГШ эквивалентен приему по минимуму евклидова расстояния. Схема приемника МП для канала с АБГШ показана на рис. 2.7. d 2 (r, s 0 ) r  i Выбор минимума d 2 (r, s1 ) d 2 (r, s q 1 ) Рис.2.7. Схема оптимального приемника для канала с АБГШ (приемника по МП) Решающая область Ri , заданная равенством (2.14), представляет собой множество точек из R D , лежащих ближе к s i , чем к любой другой сигнальной точке s k , k i . Для случая D 2 эти области представляют собой выпуклые многоугольники и известны как области Вороного. На рис.2.8 показано для примера некоторое произвольное двумерное сигнальное созвездие и соответствующее ему разбиение на решающие области (области Вороного). 1 1 0.5 0.5 -0.5 -0.5 -1 -1 -0.5 0.5 1 -1 -1 -0.5 0.5 1 Рис.2.8. Сигнальное созвездие и разбиение на решающие области (области Вороного). 2-13 На вход схем, показанных на рис.2.6 и 2.7 , подается вектор r , полученный в результате конечномерного представления выходного сигнала канала r (t ) . Рассмотрим более подробно как выглядит обрабатывающий выходной сигнал канала r (t ) . Поскольку приемник, конечномерное представление сохраняет расстояние, то T d 2 (r, s i ) d 2 (r (t ), si (t )) T (r (t ) si (t )) 2 dt T где Ei T r 2 (t )dt 2 r (t )si (t )dt Ei , si2 (t )dt – энергия i -го сигнала. Тогда равенства (2.13) и (2.14) можно переписать в виде T Ri( MAB) T r : r (t ) si (t )dt Ci( МАВ) где Ck( МАВ) ( Ek N 0 ln Pi ) / 2 , k max 0 k q 1 R (2.15) r (t ) s k (t )dt C k( МП) , (2.16) T r : r (t ) si (t )dt C ( МП ) i max 0 k q 1 где Ck( МП) , 0,1,...,q 1, T ( MП ) i r (t ) s k (t )dt C k( МАВ) Ek / 2 . Как видно из определения областей (2.15) и (2.16), решения по МАВ и по МП строятся почти одинаково, разница состоит лишь в постоянных Ck(МАВ) и Сk(МП) . На рис 2.9 показана схема оптимального приемника. Эта схема эквивалентна ранее приведенным схемам. s0 (t ) C0 T dt s1 (t ) r (t ) + C1 T dt + sq 1 (t ) Cq T dt Выбор максимума  i 1 + Рис.2.9. Схема оптимального (корреляционного) приемника для канала с АБГШ 2-14 Приемник, показанный на рис.2.9 называется корреляционным, так как структура, приведенная на рис 2.10, называется коррелятором. si (t ) T r (t ) dt Еще одна приемника может Рис.2.10. Коррелятор эквивалентная приведенным быть структура оптимального получена с использованием так называемых согласованных фильтров. Фильтр называется согласованным с сигналом si (t ) , если его импульсная переходная характеристика равна hi (t ) si (T t ). Рассмотрим реакцию фильтра, согласованного с сигналом si (t ) , на сигнал r (t ) t1 yi (t ) r ( )hi (t )d r ( ) si (T t )d T t t1 T d Отсюда следует, что yi (t ) t T t r (t1 T t ) si (t1 )dt1. dt1 r (t1 ) si (t1 )dt1 . Это значит, что значение на yi (T ) выходе согласованного фильтра, взятое в момент t T , равно значению на выходе коррелятора. Поэтому оптимальный приемник может быть построен по схеме с согласованными фильтрами и следующими за ними устройствами взятия отсчетов (см. рис.2.11) C0 h0 (t ) + C1 r (t ) h1 (t ) Выбор максимума + Cq hq 1 (t )  i 1 + t T Рис.2.11. Схема приемника с согласованными фильтрами для канала с АБГШ 2-15 Свойства согласованного фильтра. Предположим, что имеется некоторый фильтр с конечной импульсной переходной характеристикой h(t ) , t T . Пусть на его вход поступает сигнал r(t ) s(t ) n(t ) , где s (t ) – полезный сигнал, а n(t ) – АБГШ. Покажем, что если фильтр h(t ) согласован с сигналом s (t ) , то отношение сигнал/шум на выходе фильтра будет максимальным. Рассмотрим сигнал на выходе фильтра (символ , как и ранее, обозначает свертку) y (t ) r (t ) h(t ) r ( )h(t )d s( )h(t )d n( )h(t )d . Поскольку импульсная переходная характеристика фильтра h(t ) равна нулю вне интервала (0, T ) то можно записать, что t y(t ) t s( )h(t )d n( )h(t t T где t s h (t ) )d t s( )h(t s h (t ) nh (t ) , t T nh (t ) )d , n( )h(t – )d сигнальная и шумовая t T t T составляющие сигнала на выходе фильтра соответственно. Обозначим ~ h (t ) h(t T ) и рассмотрим значение отсчета сигнала на выходе фильтра, взятого в момент t T . Оно равно T y(t ) t T y(T ) ~ s(t )h (t )dt T ~ n(t )h (t )dt , или y(T ) sh (T ) nh (T ) ~ ~ (s, h ) (n, h ) , (2.17) ~ где через ( , ) обозначено скалярное произведение функций, s h (T ) (s, h ) - отсчет сигнальной составляющей на выходе фильтра, составляющей на выходе фильтра. nh (T ) ~ (n, h ) – отсчет шумовой Величина nh (T ) представляет собой 2-16 гауссовскую случайную величину с нулевым средним и дисперсией ~ ( N 0 / 2) h 2 В ( f , g)2 2 ( N 0 / 2) h . дальнейшем f 2 рассмотрении будет использовано неравенство 2 g , известное как неравенство Коши-Шварца-Буняковского. Оно обращается в равенство, если функции f (t ) и g(t ) пропорциональны, то есть если f (t ) Cg(t ) , где C - некоторая константа. Легко видеть, что если положить ~ h (t ) Cs(t ) , (2.18) то для величины квадрата сигнальной составляющей в равенстве (2.17) можно с использованием неравенства Коши-Шварца-Буняковского записать, что s h (T ) 2 ( s, Cs) 2 C2 s 4 C 2 E 2 , где E – энергия сигнала. При этом условии дисперсия шумовой компоненты будет равна 2 h ( N 0 / 2) Cs 2 2 ( N 0 / 2)C 2 s , а отношение этих величин будет равно своему максимальному значению s h (T ) 2 2 h E . ( N 0 / 2) (2.19) Заметим, что значение константы C не играет роли, так как она присутствует в числителе и знаменателе этого отношения. Поэтому в дальнейшем можно считать что C 1 . Из равенства (2.18) следует, что h(t ) ~s (t ) s(T t ) , что совпадает с определением согласованного фильтра. Рассмотрим теперь свойства согласованного фильтра в частотной области. Обозначим через H ( f ) h(t ) частотную характеристику фильтра. Поскольку h(t ) s(T t ) , то Замена H( f ) h(t )e j 2 ft dt s (T t )e j 2 ft dt T t t1 t T t1 dt s (t1 )e j 2 f (T t1 ) dt1 dt1 e j 2 fT s(t1 )e j 2 ft1 dt1 e j 2 fT S*( f ) , 2-17 где S ( f ) - спектр сигнала. Спектр сигнальной составляющей на выходе согласованного фильтра равен Sh ( f ) S ( f )H ( f ) S ( f )e j 2 fT Тогда сама сигнальная составляющая sh (t ) s h (t ) e j 2 fT S*( f ) j 2 fT e 2 S( f ) . S h ( f ) равна 2 S ( f ) e j 2 ft df , а ее отсчет в момент t T будет равен sh (T ) e j 2 fT 2 S ( f ) e j 2 fT df 2 S ( f ) df s 2 (t )dt s 2 E. Здесь также использовано равенство Парсеваля. Отсюда следует, что как и ранее, sh (T ) 2 E2 . Шум на выходе согласованного фильтра окрашен и имеет спектральную плотность мощности Nh ( f ) ( N 0 / 2) H ( f ) 2 ( N 0 / 2) S * ( f )e j 2 fT 2 2 ( N 0 / 2) S ( f ) . Мощность шума на выходе фильтра (или дисперсия отсчета шума на выходе фильтра) равна, как и прежде, 2 h N h ( f )df 2 ( N 0 / 2) S ( f ) df ( N 0 / 2) s 2 (t )dt ( N 0 / 2) s 2 ( N 0 / 2) E. Следовательно получаем, что s h (T ) 2 2 h E , ( N 0 / 2) и это выражение совпадает с (2.19). 2-18 2.4. Вероятность ошибки при передаче двоичных сигналов в канале с аддитивным белым гауссовским шумом Рассмотрим простой случай передачи двоичных сигналов. Вероятность ошибки определяется по формуле полной вероятности как q 1 Pe Pe (i ) Pi Pe (0) P0 Pe (1) P1 , i 0 где Pe (i) – условная вероятность ошибки при передаче i -го сигнала, Pi – вероятность передачи i -го сигнала. Найдем сначала вероятность Pe (0) . Как следует из определения алгоритма приема по МП Pr[ d 2 (r, s 0 ) Pe (0) d 2 (r, s1 ) | 0 ] Pr[ r s 0 2 r s1 2 | 0 ]. При передаче сигнала s0 (t ) на выходе канала наблюдается r(t ) s0 (t ) n(t ) , и следовательно r s 0 n . Тогда Pe (0) 2 Pr[ n Рассмотрим выражение n n 2 s0 s1 n 2 n 2 2 2 s1 n s0 s1 n . Оно равно s0 s1 2 ] Pr[ n 2 s0 s0 s1 n 2 0]. 2 2(s 0 s 1 , n) n 2 s0 s1 2 2(s 0 s 1 , n) . Таким образом, 2 Pe (0) Pr[ где 2(s 0 s1 , n) , 2 d 2 (s 0 , s1 ) s0 s1 2 (2.20) ], – квадрат расстояния между сигналами. Определим характеристики случайной величины . Она равна D 2(s 0 s1 , n) 2 ( s0 j s1 j )n j , (2.21) j 1 где s 0 j , s1 j – координаты соответствующих сигнальных точек, n j – скалярные произведения АБГШ и базисных функций. Величины n j это независимые 2-19 одинаково распределенные параметрами n j 0 , n 2j параметры величины гауссовские случайные величины (с.в.) с N 0 / 2 (см. свойства АБГШ в подразделе 1.9). Найдем , определенной равенством (2.21). Поскольку представляет собой линейную комбинацию независимых гауссовских с.в., то она тоже гауссовская. Далее, найдем математическое ожидание и дисперсию, D 2 D ( s0 j s1 j )n j 2 j 1 D D[ ] D 2 ( s0 j s1 j )n j D ( s0 j s1 j )n j 0, j 1 4 j 1 D s1 j )2 D[ n j ] 2 N0 ( s0 j j 1 (s0 j s1 j )2 2 N0 2 . j 1 Итак, вероятность Pe (0) вычисляется, как указано в (2.20), где – гауссовская с.в. с параметрами (0, 2N 0 2 ) . Определим функцию Q( x ) x Легко видеть, что Q( x) Pr[ 1 e 2 z2 / 2 x] , где (2.22) dz. гауссовская с.в. с параметрами (0,1). С использованием функции Q(x) (2.22) можно найти вероятность превышения некоторого порога параметрами (m, 2 гауссовской с.в. A X общего вида с ) , то есть Pr[ X A] Q A m . С использованием равенств (2.20) и (2.22) можно записать, что 2 Pe (0) Q 2 Q 2 N0 2 N0 . Аналогичное значение имеет и вероятность Pe (1) , поэтому Pe Q 2 N0 . (2.23) 2-20 Как следует из выражения (2.23), вероятность ошибки при передаче двоичных сигналов по каналу с АБГШ зависит только от величины евклидова расстояния между сигналами (но не от их конкретного вида!) и от интенсивности шума. Функция Q(x) , используемая в выражении (2.23), не выражается через элементарные функции и вычисляется численно. На практике она может быть найдена из таблиц. Чаще, однако, в руководствах по теории вероятностей встречаются таблицы значений гауссовской функции распределения, определенной как x 1 e 2 F ( x) z2 / 2 dz. Связь между ней и функцией Q(x) задается равенством Q(x) 1 F ( x) . Часто встречаются также таблицы так называемой функции ошибок и дополнительной функции ошибок, определенных следующим образом 2 erf( x) x e z2 dz, и erfc( x) соответственно. Связь 2 функции e x z2 dz 1 erf( x), Q(x) с erfc(x) задается равенством Q( x) erfc( x / 2 ) / 2 . Можно указать также просто вычисляемые верхние и нижние границы для Q(x) для положительных значений ее аргумента 1 1 1 2 e x 2 x x2 / 2 1 e 2 x Q( x) x2 / 2 , (2.24) и наиболее простую верхнюю границу Q( x ) 1 e 2 x2 / 2 . (2.25) На рис.2.12а показан график функции Q(x) , а на рис.2.12б – графики этой функции, а также верхняя и нижняя границы (2.24) и простейшая верхняя граница (2.25) в полулогарифмическом масштабе. 2-21 2 0.5 10 Q(x) Q(x) Верхняя граница (13.5) Нижняя граница (13.5) Верхняя граница (13.6) 0.45 1 10 0.4 10 0.35 0.3 -1 10 0.25 -2 10 0.2 0.15 -3 10 0.1 -4 10 0.05 -5 0.5 1 1.5 2 x 2.5 3 3.5 10 4 0.5 1 1.5 а 2 2.5 3 3.5 4 б Рис.2.12 а) функция Q(x) , б) функция Q(x) и границы в полулогарифмическом масштабе Весьма точно значения Q(x) могут быть найдены с использованием приближенного выражения сравнительно удобного для программирования ~ Q( x ) Q ( x ) где a3 f ( x) (1 / 2 ) exp( x 2 / 2) , 1.781478 , a4 графиком 1.821256 , a5 рис.2.13, где i 5 1 f ( x ) ai , (1 px) i 0 p 0.2316419, a1 0.3193815 , (2.26) a2 0.3565638 , 1.330274 . Качество приближения иллюстрируется показана в полулогарифмическом масштабе ~ относительная ошибка приближения (2.26), вычисляемая как Q ( x ) Q ( x ) / Q ( x ) . -2 10 -3 10 -4 10 -5 10 -6 10 -7 10 -8 10 1 2 3 4 5 x Рис.2.13 Относительная ошибка приближения функции Q(x) 2-22 2.5. Вероятность ошибки для различных систем двоичных сигналов в канале с аддитивным белым гауссовским шумом Ранее получено, что вероятность ошибки для двоичных сигналов может быть найдена как Pe Q( / 2 N 0 ) , где - расстояние между сигналами, N 0 / 2 значение спектральной плотности мощности АБГШ. Рассмотрим три различных набора двоичных сигналов. 1. Противоположные сигналы. Пусть 1 (t ) некоторая нормированная функция, заданная на интервале [0, T ] и определяющая форму сигнала, Положим что s0 (t ) E 1 1 1. E 1 (t ) , где E энергия сигналов, (t ) , s1 (t ) T T 2 E s12 (t )dt. s (t )dt Оба сигнала могут быть представлены с использованием всего одной базисной функции. Это значит, что противоположные сигналы образуют одномерное сигнальное множество, s 0 области R1 ( ( E ) , s1 E ) . Легко заметить, что решающие ( в данном случае имеют вид бесконечных полупрямых R0 [0, ) , ,0) , см. рис.2.14 s0 s1 E E Рис.2.14 Сигнальное множество (противоположные сигналы) Очевидно, что расстояние между сигналами равно 2 E , тогда вероятность ошибки равна Pe( пр ) Q 2E . N0 (2.27) Величина E / N 0 называется отношением сигнал/шум. В инженерной практике принято выражать это отношение в децибелах (дБ). Величина отношения, измеренная в дБ, определяется как (E / N 0 ) дБ 10 log10 ( E / N 0 ) , и 2-23 наоборот E / N 0 10 ( E / N ) 0 дБ / 10 . Перевод отношения в децибелы и обратно можно легко выполнять в уме, если запомнить несложные правила: a) при увеличении отношения в два раза, соответствующая величина в децибелах увеличивается на 3 дБ (точнее на 3.01 дБ), так как 10 log10 2 3.01 3 ; б) при уменьшении отношения в два раза, соответствующая величина в децибелах уменьшается 10 log10 (1/ 2) 3.01 на 3 дБ (точнее на 3.01 дБ), так как 3; Пример. Пусть E / N 0 5 . Требуется оценить ( E / N 0 ) дБ . Легко видеть, что 7 дБ , действительно ( E / N 0 ) дБ 10 log10 5 10 log10 (10 / 2) 10 log10 10 10 log10 2 10 3 7. □ 2. Ортогональные сигналы. Пусть функции, заданные на интервале [0, T ] , ( 1 , s0 (t ) T E 1 (t ) , s 0 (t ) s1 (t )dt s1 (t ) E 2 (t ) , где E 1 (t ) и 2 ) 2 0 и (t ) две ортонормированные 1 2 1 . Положим что - энергия сигналов. В этом случае 0 , и сигналы имеют равную энергию T T s02 (t )dt E s12 (t )dt. Сигналы могут быть представлены с использованием двух базисных функций. Это значит, что ортогональные сигнальное множество, s 0 области R0 {r ( E ,0) , s1 сигналы образуют двумерное (0, E ) . Легко заметить, что решающие в данном случае имеют вид бесконечных полуплоскостей (r1 , r2 ) : r1 r2 } , R1 {r r2 } , см. рис.2.15 . (r1 , r2 ) : r1 s1 E s0 E Рис.2.15 Сигнальное множество (ортогональные сигналы) 2-24 Очевидно, что расстояние между сигналами равно 2E , тогда вероятность ошибки равна Pe( орт) Q E . N0 (2.28) □ 3. Сигналы с пассивной паузой. В этом случае s0 (t ) 0 , s1 (t ) 0 и E T s12 (t ) dt . Базис для представления этого набора сигналов состоит из одной функции 1 (t ) s1 (t ) / E . Тогда s1 (t ) E 1 (t ) и 1 1 . Сигналы с пассивной паузой образуют одномерное сигнальное множество, s 0 (0) , s1 ( E ) . Легко заметить, что решающие области в данном случае имеют вид бесконечных полупрямых R0 ( , E / 2) , R1 ( E / 2, ) , см. рис.2.16. s0 s1 E Рис.2.16 Сигнальное множество (сигналы с пассивной паузой) Очевидно, что расстояние между сигналами равно E , тогда вероятность ошибки равна Pe( пп ) Q E . 2N 0 (2.29) Приведенные выражения для вероятности ошибки справедливы при любой форме сигналов (при сохранении противоположности или ортогональности). От формы сигналов зависят другие свойства сигналов, в частности, спектральные свойства. На рис.2.17 показаны графики зависимости вероятности ошибки от отношения сигнал/шум E / N0 . 2-25 10 противоположные ортогональные с пассивной паузой -1 10 -2 10 -3 10 -4 10 -5 10 -6 10 -7 10 2 4 6 8 10 12 14 16 18 E/N0, дБ Рис.2.17. Вероятность ошибки для двоичных сигналов Как видно из равенств (2.27) – (2.29) и графиков, представленных на рис.2.17, наименьшую вероятность ошибки обеспечивают противоположные сигналы. При использовании ортогональных сигналов для достижения той же вероятности ошибки требуется вдвое (или на 3дБ) большее отношение сигнал/шум, чем при использовании противоположных сигналов. Сигналы с пассивной паузой уступают ортогональным 3дБ, а противоположным – 6 дБ. 2-26 2.6. Дискретная амплитудная модуляция. Вероятность ошибки Сигналы дискретной Ai (t ) , где si (t ) амплитудной модуляции (АМ) имеют вид (t ) – некоторая нормированная функция, заданная на интервале [0, T ] и определяющая форму сигнала, Ai – амплитуда i -го сигнала, i 0,1,...q 1. Определим амплитуду i -го сигнала как Ai Тогда A0 Aq E, E, 1 2i . q 1 E 1 а все промежуточные значения амплитуды расположены с равномерным шагом в интервале [ E , E ] . Сигнальное множество АМ показано на рис 2.18. sq s1 s 0 1 E E Рис.2.18. Сигнальное множество АМ сигналов. Минимальное расстояние между сигналами, как видно из рис.2.18, составляет 2 E /(q 1) . Определим энергию каждого сигнала. Очевидно, что энергия i - го сигнала равна Ei Ai E ( 1 2i /(q 1) ) 2 ,то есть энергия сигналов принимает 2 различные значения. Величина E имеет смысл максимальной энергии. Как обычно будем полагать, что сигналы передаются равновероятно. Найдем значение средней энергии q 1 E Ei Pi i 0 Найдем k i 0 i значение k (k 1) / 2 и E q q 1 i 0 2i 1 q 1 выражения k i 0 i2 2 E q 1 q q 1 1 i 0 q 1 i 0 q 1 4 (q 1) 2i 1 q 1 i i 0 4 (q 1) 2 q 1 i2 . i 0 2 . Используя тождества k (k 1)( 2k 1) / 6 , получим, что 2-27 1 q q 1 i 0 1 q q 2i 1 q 1 2 q 1 1 q 1 i 0 4 q(q 1) (q 1) 2 q 1 4 (q 1) 4 (q 1) 2 i i 0 q 1 i2 i 0 4 (q 1)q(2q 1) (q 1) 6 1q 1 . 3q 1 2 Поэтому E Eq 1 . 3q 1 (2.30) Решающие области для i 1,2,...,q 2 представляют собой отрезки длины с центрами в сигнальных точках s1 , s 2 ,..., s q 2 , то есть Ri [ Ai Решающие области для крайних точек s 0 бесконечные полупрямые R0 [ A0 / 2) . / 2, Ai и s q 1 представляют собой / 2, ) и Rq 1 ( , Aq 1 / 2) . Сигнал на выходе канала имеет вид r(t ) s(t ) n(t ) , где s(t ) {si (t )} , n(t ) – АБГШ со спектральной плотностью мощности N 0 / 2 . В силу того, что сигнальное множество АМ сигналов конечномерное представление r n 0, n2 одномерно, имеем следующее A n , где A {Ai } , n – г.с.в с параметрами N 0 / 2 . Найдем вероятность ошибки. По формуле полной вероятности имеем q 1 Pe Pe (i ) Pi i 0 1q1 Pe (i ), qi 0 (2.31) где Pe (i) - вероятность при передаче i -го сигнала, Pi - вероятность передачи i го сигнала, Pi 1/ q . Рассмотрим сначала вычисление Pe (i) при i 1,2,...,q 2 . Pe (i ) Pr[ r Ri | i ] /2 Pr Ai 1 e N0 n x2 / N0 Ai 2 dx /2 Ai 2 1 e N0 x2 / N0 Pr n dx 2Q n , 2 2 2 N0 . (2.32) Найдем оставшиеся вероятности Pe (0) и Pe (q 1) 2-28 Pe (0) Pr[ r R0 | 0] Pr[ A0 /2 n [ A0 1 e N0 / 2, )] x2 / N0 dx Q Pr[ n [ 2 N0 / 2, )] (2.33) . Аналогично можно показать, что Pe (q 1) Q Подстановка 2 N0 (2.34) . выражений (2.32) – (2.34) в (2.31) с учетом того, что 2 E /(q 1) дает окончательное выражение Pe 2q 2 Q q 2E 1 , N0 q 1 (2.35) определяющее зависимость вероятности ошибки от максимального отношения сигнал/шум E / N 0 . С использованием равенства (2.30) получим выражение, определяющее зависимость вероятности ошибки от среднего значения отношения сигнал/шум E / N 0 Pe 2q 2 Q q 6E 1 . N0 q2 1 При q 2 равенства (2.35) и (2.36) обращаются в Pe (2.36) Q( 2 E / N 0 ) , то есть в формулу для вероятности ошибки для двоичных противоположных сигналов; при этом также имеет место равенство E E . Рассмотрим вывод выражения для вероятности ошибки на бит для сигналов АМ. Среднее значения отношения сигнал шум/шум на бит равно E N0 bit 1 E . log 2 q N 0 Вероятность ошибки на бит зависит от отображения сообщений (номеров сигналов) в сигнальные точки. Предпочтительным будет такое отображение, при котором близко расположенные сигнальные точки соответствуют сообщениям, различающимся в малом числе двоичных разрядов. Такое 2-29 отображение для сигналов АМ достигается с использованием кода Грея. В этом случае блоки двоичных данных, соответствующие соседним сигнальным точкам, будут отличаться только в одной позиции (см. пример для АМ-8 на рис.2.19). 100 101 111 110 010 011 001 000 Рис.2.19. Сигнальное множество АМ –8 сигналов (отображение в соответствии с кодом Грея) Поскольку ошибочное решение относительно переданного сигнала наиболее вероятно в пользу соседних сигналов, то оно будет приводить к ошибке только в одном бите. Это значит, что в большинстве случаев доля ошибочных двоичных разрядов при ошибочном решении равна 1/ log 2 q 1/ m . Отсюда следует, вероятность ошибки на бит как функции от отношения сигнал/шум на бит задается выражением Pb 1 Pe log 2 q 1 2q 2 Q log 2 q q 6 E N0 bit log 2 q . q2 1 (2.37) Графики, показанные на рис. 2.20, дают представление о зависимости вероятности ошибки от среднего значения отношения сигнал/шум и вероятности ошибки на бит от отношения сигнал/шум на бит. Важно отметить, что вероятность ошибки Pe резко возрастает с увеличением объема сигнального алфавита. 2-30 Pe 10 AM, AM, AM, AM, -1 10 q= q= q= q= 2 4 8 16 AM, AM, AM, AM, -1 10 -2 q= q= q= q= 2 4 8 16 -2 10 10 -3 -3 10 10 -4 -4 10 10 -5 -5 10 10 -6 -6 10 10 -7 10 Pb 10 -7 10 20 E/N0, дБ 30 10 5 10 15 20 25 (E/N0 )bit, дБ Рис.2.20. Вероятности ошибки для АМ сигналов Pe (слева) и Pb (справа) 2-31 2.7. Квадратурная амплитудная модуляция. Вероятность ошибки Сигналы квадратурной амплитудной модуляции (КАМ) (quadrature amplitude modulation, QAM) имеют вид si (t ) si1 1 (t ) si 2 2 (t ) , где 1 (t ), 2 (t ) - две ортонормированные функции, заданные на интервале [0, T ] и определяющие форму сигнала, i 0,1,...,q 1. Из определения сигналов КАМ следует, что D 2 . Величины для сигналов КАМ принимают дискретные значения si1 , si 2 равномерно расположенные в некотором конечном интервале. Они могут рассматриваться как амплитудные множители при функциях поэтому сигнал КАМ представляет собой сумму двух 1 (t ) и 2 (t ) , ортогональных АМ сигналов si1 1 (t ) и si 2 2 (t ) . Как обычно будем считать, что q 2m , где m - целое; число m может рассматриваться как число бит переносимых сигналом (при отсутствии кодирования). Положим для начала, что m 2k , k - целое. Тогда q 2 k тоже целое. Поставим в соответствие номеру сигнала i , i 0,1,...,q 1, пару целых i1 и i2 , i1 , i2 0,1,..., q 1 , по правилу i i1 q i2 . Иначе говоря, i1 , i2 это цифры в q- ичном представлении числа i . Положим, что si1 A1 2i1 q 1 , si 2 A1 2i2 q 1 , где A - максимальное абсолютное значение величин si1 и si 2 . Очевидно, что значения величин si1 и si 2 расположены с равномерным шагом в интервале [ A, A] . Сигнальное множество КАМ показано на рис 2.21 а б в Рис.2.21 Сигнальное множество КАМ а) q 4 , б) q 16 , в) q 64 2-32 При q 2m , где 2k 1 , m сигнальное множество строится путем “прореживания” сигнального множества для q 2 2k . Примеры приведены на рис.2.22 – множество для КАМ8 построено из множества КАМ16, а множество для КАМ32 из множества для КАМ64 путем выбрасывания половины точек. б а Рис.2.22 Сигнальное множество КАМ а) q 8 , б) q 32 Минимальное расстояние между сигналами, как видно из рис.2.21, составляет 2 A /( q 1) . (2.38) Определим энергию каждого сигнала. Очевидно, что энергия i -го сигнала равна Ei s 2 i1 s 2 i2 2 2i1 2 A 1 2 A 1 q 1 2 2i2 q 1 , то есть энергия сигналов принимает различные значения. Как обычно будем полагать, что сигналы передаются равновероятно. Найдем значение средней энергии E A2 q 1 q q 1 Ei i 0 q 1 2i1 q 1 1 i1 0 i2 0 2 q 1 i1 0 1 Ранее получено, что q q 1 q 1 A2 q q 1 i 0 2i 1 q 1 q 1 q 1 i2 0 2 2i1 2 1 q 1 2i2 q 1 2 2 2i2 q 1 2 A2 q q 1 1 i1 0 2i1 2 q 1 . 1q 1 . Отсюда легко следует, что 3q 1 2-33 q 1 1 q 2i1 1 2 q 1 i1 0 1 q 1 . 3 q 1 Тогда с учетом (2.38) имеем соотношение между средней энергией сигналов КАМ и минимальным расстоянием между ними E 2 A2 3 q 1 2 q 1 6 (q 1) (2.39) Решающие области для сигнальных точек, находящихся в середине сигнального созвездия, представляют собой квадраты. Для точек на краях сигнального созвездия они бесконечны (см. рис.2.23). а б Рис.2.23 Решающие области КАМ а) q 8 , б) q 16 Оценим вероятность ошибки для КАМ сигналов. Вероятность ошибки вычисляется как q 1 Pe Pe (i ) Pi i 0 1 q q 1 Pe (i ) , (2.40) i 0 где Pe (i) – вероятность ошибки при передаче i -го сигнала, Pi – вероятность передачи i -го сигнала, Pi 1/ q . Рассмотрим вычисление Pe (i) . По определению Pe (i) Pr[r Ri | i] , где Ri - i -ая решающая область, r si n - точка в сигнальном пространстве, соответствующая принятому сигналу. Обозначим квадрат с длиной стороны и центром в некоторой точке z ( z1 , z2 ) как S (z ) . Он может 2-34 быть описан как S (z) [ z1 / 2, z1 / 2] [ z2 / 2] . Тогда S (s i ) – / 2, z2 квадрат с центром в i -й сигнальной точке и S (s i ) это Ri . Поэтому Pe (i) Pr[r Ri | i] Pr[r S (si ) | i] Pr[r S (si ) | i] Pr[n S (0)] 1 Pr[n S (0)] 1 Pr[ (n1 , n2 ) [ 1 Pr[ n1 [ /2 / 2, N0 /2 / 2] [ / 2, / 2, / 2] ] / 2] ] Pr[ n2 [ / 2] ] 2 2 1 1 / 2, e 2 x / N0 dx 1 1 2Q . 2N 0 (2.41) Подстановка (2.41) в (2.40) дает с учетом (2.39) оценку 2 Pe 1 3E 1 N0 q 1 1 2Q . (2.42) Рассмотрим получение более простой, но менее точной чем (2.42) оценки вероятности ошибки при использовании КАМ сигналов. Пусть C(z) круг радиуса / 2 с центром z . Заметим что Ri C(s i ) , тогда S (s i ) Pe (i) Pr[ n S (0) ] Pr[ n C(0) ] Pr[ n12 n22 ( / 2) 2 ] . Далее Pr[ n12 n22 ( / 2) 2 ] x 2 y 2 ( / 2) 2 1 e N0 x2 / N0 1 e N0 y 2 / N0 dxdy Переход к полярным координатам : ( N0 ) 1 e (x2 y2 ) / N0 dxdy x 2 y 2 ( / 2) 2 x cos , y x2 y2 dxdy 2 ( N0 ) 1 e 2 / N0 /2 Следовательно Pe (i) exp( 2 d d 2 e N /2 sin ( / 2) 2 / 2, 0 2 d d 2 / N0 d e 2 / N0 /2 e 2 / 4 N0 . / 4N0 ) . Отсюда с использованием (2.39) и (2.40) получаем, что 2-35 Pe На рис. 2.24 3 E . 2(q 1) N 0 exp показаны графики (2.43) границ вероятности ошибки, вычисленных по формулам (2.42) и (2.43). Вывод точного выражения для вероятности ошибки приема КАМ сигналов приведен в Приложении 4. Pe 10 -1 10 -2 10 -3 10 -4 10 -5 10 -6 10 -7 10 q=4 q = 4 (простая граница) q = 16 q = 16 (простая граница) q = 64 q = 64 (простая граница) q = 256 q = 256 (простая граница) 5 10 15 20 25 30 35 E/N0 , дБ Рис. 2.24 Верхние границы вероятности ошибки для КАМ Рассмотрим вывод выражения для вероятности ошибки на бит для сигналов КАМ. Среднее значения отношения сигнал шум/шум на бит равно E N0 bit 1 E . log 2 q N 0 (2.44) Для отображения сообщений в сигнальные точки КАМ может использоваться код Грея. Для нумерации строк и столбцов в сигнальном созвездии применяются два кода Грея длины m / 2 , m log2 q . Сообщение, строится как конкатенация слов кода Грея для номеров строки и столбца, соответствующих сигнальной точке. Пример для КАМ-16 показан на рис. 2.25. 2-36 1010 1110 0110 0010 1011 1111 0111 0011 1001 1101 0101 0001 1000 1100 0100 0000 Рис.2.25 Сигнальное множество КАМ –16 (отображение в соответствии с кодом Грея для строк и столбцов) Очевидно, что в этом случае соседним точкам соответствуют сообщения, отличающиеся в одном двоичном разряде. Поэтому формула для вероятности ошибки на бит может быть получена из выражений (2.42) и (2.44) как 2 Pb 1 Pe log 2 q 1 1 log 2 q 1 2Q E N0 3 bit log 2 q q 1 . (2.45) На рис. 2.26 показаны графики границ для вероятности ошибки, вычисленных по формулам (2.42) и (2.45). Pe 10 КАМ, q = 4 КАМ, q = 16 КАМ, q = 64 КАМ, q = 256 -1 10 -2 КАМ, q = 4 КАМ, q = 16 КАМ, q = 64 КАМ, q = 256 -1 10 -2 10 10 -3 -3 10 10 -4 -4 10 10 -5 -5 10 10 -6 -6 10 10 -7 10 Pb 10 -7 10 20 E/N0, дБ 30 10 5 10 15 20 25 (E/N0 )bit, дБ Рис.2.26. Вероятности ошибки для КАМ сигналов Pe (слева) и Pb (справа) 2-37 2.8. Фазовая модуляция. Вероятность ошибки Сигналы фазовой модуляции (ФМ) (phase shift keying, PSK) имеют вид si (t ) 2E / T cos(2 f 0t i (2.46) ), 0 t T , где E – энергия сигнала, T – период следования сигналов, f 0 – несущая частота, f 0 l / T , l - целое, i - фаза i -го сигнала, i(2 / q) , i i 0,1,...,q 1. Равенство (2.46) можно переписать в виде si (t ) где si1 E cos i , E cos si 2 i 2 cos 2 f 0t T E sin ортонормированным функциям E sin 1 (t ) 2 sin 2 f 0t T si1 1 (t ) si 2 коэффициенты - i i 2 / T cos 2 f 0 t и 2 2 (t ), разложения (t ) (2.47) по 2 / T sin 2 f 0 t . Из равенства (2.47) следует, что D 2 в случае сигналов ФМ. Сигнальное множество ФМ показано на рис 2.27. Сигнальные точки равномерно расположены на окружности радиуса E, угол между радиусами, соединяющими соседние сигнальные точки равен 2 / q . Следовательно, минимальное расстояние между сигналами равно 2 E sin( / q) . si s1 i s0 sq sk 1 Rk Рис.2.27 Сигнальное множество ФМ Решающая область Rk для k -го ФМ сигнала представляют собой угол величины 2 / q с вершиной в начале координат, биссектриса которого 2-38 проходит через точку s k (см. рис. 2.27). Оценим вероятность ошибки для ФМ сигналов. Вероятность ошибки вычисляется как q 1 Pe 1q1 Pe (i ), qi0 Pe (i ) Pi i 0 (2.48) где Pe (i) вероятность ошибки при передаче i -го сигнала, Pi вероятность передачи i -го сигнала, Pi 1/ q . Рассмотрим вычисление вероятности Pe (i) . По определению Pe (i) Pr[r Ri | i] , где Ri – i -ая решающая область, r s i n – точка в сигнальном пространстве, соответствующая принятому сигналу. Рассмотрим рис.2.28 l2 si l1 si si 1 1 Ri Рис.2.28. К вычислению вероятности ошибки для ФМ Нетрудно заметить, что Pe (i) Pr[r Ri | i] Pr[r лежит правее прямойl1 или r лежит левее прямойl2 | i] Pr[r лежит правее прямойl1 | i] Pr[r лежит левее прямойl2 | i] Pr[ d (r, s i 1 ) Q d (r, s i ) | i] Pr[ d (r, s i 1 ) 2N 0 Q 2N 0 2Q d (r, s i ) | i] 2E sin . N0 q (2.49) При переходе от первой ко второй строке (2.49) использовано аддитивное неравенство. Далее использовано общее выражение для вероятности ошибочного приема в системе передачи с двоичными сигналами и выражение 2-39 для минимального расстояния сигналов ФМ. В итоге после подстановки (2.49) в (2.48) получаем, что Pe 2Q 2E sin . N0 q (2.50) Заметим, что для случаев q 2 формула (2.50) дает завышенную оценку. В этом случае вероятность ошибки вычисляется точно Pe граница (2.50) дает оценку Pe Q( 2 E / N 0 ) , а 2Q( 2E / N 0 ) . Для сигналов ФМ номера сигналов обычно отображаются в сигнальные точки с использованием кода Грея. В этом случае блоки двоичных данных, соответствующие соседним сигнальным точкам, отличаются только в одной позиции (см. пример для ФМ-8 на рис.2.29). 011 010 001 000 110 111 100 101 Рис.2.29 Сигнальное множество ФМ-8 (отображение в соответствии с кодом Грея) Поскольку ошибочное решение относительно переданного сигнала наиболее вероятно в пользу соседних сигналов, то оно будет приводить к ошибке только в одном бите. Это значит, что доля ошибочных двоичных разрядов при ошибочном решении почти всегда равна 1/ log 2 q 1/ m . Отсюда следует, что вероятность ошибки на бит как функция от отношения сигнал/шум на бит задается выражением 2-40 Pb 1 Pe log 2 q 2 Q log 2 q 2 E N0 log 2 q sin bit q , q (2.51) 4. На рис. 2.30 показаны графики границ для вероятности ошибки, вычисленных по формулам (2.50) и (2.51). Pe 10 ФМ, q = 2 ФМ, q = 4 ФМ, q = 8 ФМ, q = 16 -1 10 ФМ, q = 2 ФМ, q = 4 ФМ, q = 8 ФМ, q = 16 -1 10 -2 -2 10 10 -3 -3 10 10 -4 -4 10 10 -5 -5 10 10 -6 -6 10 10 -7 10 Pb 10 -7 5 10 15 E/N0, дБ 20 25 10 5 10 15 20 (E/N0 )bit, дБ Рис.2.30. Вероятности ошибки для ФМ сигналов Pe (слева) и Pb (справа) Из графиков, в частности, следует, что зависимости Pb от ( E / N0 )bit для q 2 и q 4 очень близки, при этом при q 4 обеспечивается вдвое большая скорость передачи чем при q 2 при прочих равных условиях. 2-41 18. Частотная модуляция. Вероятность ошибки Сигналы частотной модуляции (ЧМ) (frequency shift keying, FSK) имеют вид si (t ) 2E / T cos 2 f i t , 0 t T , где E – энергия сигнала, T – период следования сигналов, f i – центральная частота i -го сигнала, f i li / T , l i – целое, i 0,1,...,q 1. Величины l i должны быть различны при различных i . При таком выборе центральных частот сигналы ЧМ будут ортогональными. Естественно выбрать в качестве базиса функции вида i i (t ) 2 / T cos 2 f i t , 0,1,...,q 1. Можно проверить, что ( i, k ) sin 2 (li l k ) 2 (li l k ) sin 2 (li l k ) 2 (li l k ) 1, i k 0, i k . (2.52) Число базисных функций совпадает в этом случае с числом сигналов, то есть D q. Тогда можно записать, что si (t ) E i (t ) , а сигнальные точки тогда будут иметь вид s0 ( E, 0,0,..., 0) , s1 (0, E, 0,..., 0) ,…, s q 1 (0,0,..., E ) . Сигнальное созвездие может быть изображено только в случаях q 2 и q 3 . Наглядное описание решающих областей также возможно только в этих случаях. Оценим вероятность ошибки для ЧМ сигналов. Вероятность ошибки вычисляется как q 1 Pe Pe (i ) Pi i 0 1 q q 1 Pe (i ) , (2.53) i 0 где Pe (i) - вероятность ошибки при передаче i -го сигнала, Pi - вероятность передачи i -го сигнала, Pi 1/ q . Рассмотрим вычисление вероятности Pe (i) . Условная вероятность ошибки может быть записана как Pe (i) 1 Pc (i), (2.54) 2-42 где Pc (i) – вероятность правильного решения при передаче i -го сигнала. При оптимальном приеме в канале с АБГШ вероятность правильного приема определяется как Pc (i) Pr[ d (r, s i ) Pr[ d 2 (r, s i ) min d (r, s k ) | i] 0 k q min d 2 (r, s k ) | i]. 0 k q Это равенство можно переписать в виде q 1 Pc (i) Pr {d 2 (r, s i ) d 2 (r, s k )} | i . k 0 k i Поскольку d 2 (r, s j ) r sj 2 r 2 2(r, s j ) 2 sj то условие d 2 (r, s i ) d 2 (r, s k ) Поэтому можно записать, что j 0,1,...,q 1 , 2 для любого эквивалентно условию ri rk . r 2 E rj E, q 1 Pc (i ) Pr {r i rk } | i . k 0 k i При передаче i -го сигнала ri E ni , rk nk , где ni nk , k 0,1,...,q 1, k i , независимые гауссовские с.в. с параметрами (0, N 0 / 2) . Следовательно, q 1 Pc (i) { Pr E ni nk } , k 0 k i или, переходя к нормированным переменным можно записать q 1 Pc (i ) Pr 2E N0  k 0 k i Здесь (0,1) . i , k Для  q 1 k 0,k i {z i ni / N 0 / 2 , k k nk / N 0 / 2 , . , k 0,1,...,q 1, k i , независимые гауссовские с.в. с параметрами получения результата зафиксируем значение z Pr[ i k 2E / N 0 поступим i следующим образом: 1) , 2) найдем значение вероятности } ] , и 3) усредним по значению z 2E / N 0 i . 2-43 q 1 Pc (i) Pr  k 0 k i q 1 2E N0 i {z Pr k k 1 } 2 k 0 k i e (z 2 E / N0 )2 / 2 dz . (2.55) Далее, q 1 Pr q 1 { z k} q 1 Pr[ z ( 1 Q( z ) ) ( 1 Q( z ) ) q 1 . k] k 0 k i k 0 k i (2.56) k 0 k i Подстановка (2.56) в (2.55) и далее в (2.54) и в (2.53) дает в результате Pe (1 Q( z )) q 1 1 1 e 2 2 E / N0 )2 / 2 (z (2.57) dz. Формула (2.57) дает точное значение вероятности ошибки, но его вычисление требует численного интегрирования. Для этой вероятности можно легко получить просто вычисляемую верхнюю границу. Ее вывод основан на использовании аддитивного неравенства. Условная вероятность ошибки может быть найдена как q 1 Pe (i ) Pr { d 2 (r, s i ) d 2 (r, s k ) } | i . k 0 k i Применяя аддитивную границу, имеем q 1 Pe (i ) Pr[ d 2 (r, s i ) d 2 (r, s k ) | i ] k 0 k i q 1 q 1 Pr[ ri rk | i ] k 0 k i Pr[ E ni nk ] k 0 k i q 1 q 1 Pr[ 2 E / N 0 i k] k 0 k i Q( E / N 0 ) (q 1)Q( E / N 0 ) . k 0 k i И окончательно, (2.58) Аддитивная граница (2.58) вычисляется гораздо проще, чем точное значение Pe (2.57). Точность оценки (2.58) (q 1)Q( E / N 0 ) . во многих случаях оказывается вполне приемлемой. Заметим также, что при q 2 граница и точное значение совпадают. На рис. 2.31 показаны графики вероятности ошибки (сплошная 2-44 линия) и оценки вероятности ошибки (пунктир) в зависимости от отношения сигнал/шум. Pe 10 -1 10 -2 10 -3 10 -4 10 -5 10 q=2 q = 2 (аддитивная граница) q=4 q = 4 (аддитивная граница) q=8 q = 8 (аддитивная граница) q = 16 q = 16 (аддитивная граница) -6 10 -7 10 5 10 15 E/N0, дБ Рис.2.31 Вероятность ошибки и аддитивная верхняя граница вероятности ошибки для сигналов ЧМ Рассмотрим вывод выражения для вероятности ошибки на бит. Ранее было показано, что вероятность ошибки на бит может быть вычислена как Pb 1 q 1q 1 Pe (i, i ' )n(i, i ' ) Pi , m i 0 i' 0 i' i где Pe (i, i' ) - вероятность принятия решения в пользу сигнала с номером i ' при условии, что был передан сигнал с номером i , i' i , n(i, i' ) число разрядов, в которых различаются двоичные представления номеров сигналов i и i ' . При использовании ортогональных сигналов и, в частности, сигналов ЧМ, Pe (i, i' ) Pe (i) /(q 1) для всех i' i . Тогда Pb 1 q 1 q 1 Pe (i ) n(i, i ' ) Pi m i 0 i' 0 q 1 i' i q 1 q 1 1 Pe (i ) Pi n(i, i ' ) . m(q 1) i 0 i' 0 (2.59) i' i 2-45 Рассмотрим сумму q 1 n(i, i ' ) . Пусть j – число различий в двоичной записи i' 0 i' i величин i и i ' ; ясно, что 1 j m . Тогда легко заметить, что q 1 m n(i, i ' ) i' 0 i' i jC mj , j 1 и далее m m jC mj j 1 j 1 j m! j!(m j )! m j m! 1)! (m 1 (j m j )! j m(m 1)! 1)! (( m 1) ( j 1))! 1 (j m m 1 Cmj 11 m j 1 Cml m 1 m2 m 1 , l 0 то есть q 1 n(i, i ' ) m2 m 1 . i' 0 i' i Подставляя полученное выражение в (2.59) и принимая во внимание, что q 2 m , для ортогональных сигналов получаем, что Pb 2m 1 Pe . 2m 1 Заметим, что для двоичных сигналов, то есть когда q 2 и m 1 , Pb q 1 Pb Pe , а при Pe / 2 . Отношение сигнал/шум на бит равно (E / N0 )bit (1/ m)E / N0 , поэтому окончательное выражение для вероятности ошибки на бит, как следует из формулы (2.57), имеет вид Pb 2m 1 1 2m 1 (1 Q( z )) q 1 1 e 2 (z 2 m ( E / N 0 ) bit ) 2 / 2 dz . (2.60) На рис. 2.32 показаны графики значений вероятности ошибки, вычисленных по формулам (2.57) и (2.60). 2-46 Pe 10 -1 -1 10 10 -2 -2 10 10 -3 -3 10 10 -4 -4 10 10 -5 -5 10 10 -6 -6 ЧМ, q = 2 ЧМ, q = 4 ЧМ, q = 8 ЧМ, q = 16 10 -7 10 Pb 10 5 10 -7 10 E/N0, дБ 15 10 ЧМ, q = 2 ЧМ, q = 4 ЧМ, q = 8 ЧМ, q = 16 5 10 15 (E/N0 )bit, дБ Рис.2.32. Вероятности ошибки для ЧМ сигналов Pe (слева) и Pb (справа) 2-47 2.10. Предельные характеристики достижимые при использовании ортогональных сигналов Рассмотрим передачу с использованием ортогональных сигналов. Пусть si (t ) E i (t ) , где i 0,1,...,q 1, –ортонормированные функции, заданные (t ) , i на интервале [0, T ] , E – энергия сигнала. В качестве базисных функций могут рассматриваться, в частности, отрезки гармоник соответствующим образом выбранных различных частот. Получающиеся при этом сигналы соответствуют сигналам ЧМ. Выражение для вероятности ошибки, полученное при рассмотрении ЧМ, справедливо для любых ортогональных сигналов и имеет вид Pe 1 (1 Q( z )) q 1 1 (z e 2 2 E / N0 )2 / 2 (2.61) dz , и, кроме того Pe (2.62) (q 1)Q( E / N 0 ) . Рассмотрим передачу при различных значениях q . Число двоичных единиц (бит), переносимых q -ичным сигналом, равно m log 2 q . При этом энергия, приходящаяся на один переданный бит, равна Eb E / m ; определим также отношение сигнал/шум на бит (E / N0 )bit Eb / N0 . Логично рассмотреть вероятность ошибки на бит Pb в отличие от вероятности ошибки на символ (сигнал) Pe и построить зависимость Pb от ( E / N0 )bit при различных q . Ранее было показано, что вероятность ошибки на бит может быть вычислена как Pb 2m 1 Pe . 2m 1 (2.63) Заметим, что для двоичных сигналов, то есть когда q 2 и m 1 , Pb q 1 Pb Pe , а при Pe / 2 . Из (2.61) и (2.63) следует, что Pb 2m 1 1 2m 1 (1 Q( z )) q 1 1 2 e (z 2 m ( Eb / N 0 )bit ) 2 / 2 dz . 2-48 На рис. 2.33 показаны графики вероятности ошибки на бит в зависимости от отношения сигнал/шум на бит. Pb 10 -1 10 -2 10 -3 10 -4 10 -5 10 q = 24 q = 28 q = 216 q -6 10 -7 10 -4 -3 -2 -1 1 2 3 4 (E/N0 )bit, дБ Рис.2.33. Вероятность ошибки на бит для ортогональных сигналов \ Как следует из рассмотрения графиков, вероятность ошибки на бит убывает с ростом числа сигналов, если отношение сигнал/шум на бит оказывается не слишком малым. Оценим величину этого порогового значения. Для этого, основываясь на оценке (2.62), получим соответствующую оценку для Pb . Из (2.62) и (2.63) следует, что Pb 2 m 1 Q( m( E / N 0 ) bit ) . Используя оценку Q( x) exp( x 2 / 2) / 2 , получим Pb 2 m 2 exp( (m / 2)( E / N 0 ) bit ) exp( (m / 2)(( E / N 0 ) bit 2 ln 2) ) / 4. Последнее равенство означает, что если (E / N0 )bit 2 ln 2 2 (2.64) (что соответствует только 1.41 дБ), то вероятность ошибки может быть сделана сколь угодно малой при возрастании m . Из этого утверждения можно было бы сделать 2 На самом деле пороговое значение отношения сигнал/шум на бит равно не 2ln2 а ln2 (-1.59 дБ). Неточность в определении порогового значения связана с использованием сравнительно слабой границы вероятности ошибки. 2-49 вывод о возможности построения сколь угодно надежного метода передачи с использованием ортогональных сигналов. Например, если ( E / N0 )bit 2 дБ, то при m 50 из (2.64) следует, что Pb 2 10 7 ; если же взять m 80 , то Pb 3 10 11 . На практике такой метод оказывается нереализуемым. При увеличении m экспоненциально возрастает число ортогональных сигналов, т.к. q 2m . В рассмотренных соответственно. примерах число сигналов равно 1.1 1015 и 1.2 10 24 Это приводит к экспоненциальному возрастанию полосы частот, требуемой для передачи и экспоненциальному возрастанию сложности формирования и приема сигналов. Практически реализуемые методы передачи с использованием ортогональных сигналов основываются на применении сигналов из сравнительного небольшого алфавита и формировании из них длинных последовательностей (кодирования). При возрастании длины этих последовательностей можно добиться требуемой надежности передачи без неприемлемого расширения полосы частот и увеличения сложности обработки. 2-50 2.11. Сравнительная характеристика АМ, КАМ, ФМ и ЧМ Сигналы АМ имеют вид si (t ) где Ai Ai (t ) , E (1 2i /(q 1) ) , i 0,1,...,q 1 , E – максимальная энергия сигналов. Сигналы КАМ могут быть представлены в виде si (t ) si1 1 (t ) si 2 где si1 A( 1 2i1 /( q 1) ) , si 2 2 (t ) , A(1 2i2 /( q 1) ) , i1 , i2 0,1,..., q 1 . Сигналы ФМ имеют вид si (t ) 2E / T cos(2 f 0t 2 i / q) , где i 0,1,...,q 1, E – энергия сигналов. И, наконец, выражение для ЧМ сигналов si (t ) 2E / T cos 2 f i t , где E – энергия сигнала, f i – несущая (центральная) частота i -го сигнала, fi f0 f i f , f 0 - частота сигнала с номером 0, f 0 l / T , где l – целое число, а – частотный интервал, разделяющий соседние несущие. Величины f и f0 должны быть выбраны так, чтобы сигналы были ортогональными. Вид сигналов АМ и КАМ во временной области зависит от вида базисных функций, используемых для их представления. Предположим, что в качестве базисных функций выбраны отрезки гармоник: для АМ отрезок синусоиды длительности T с частотой f 0 , а для КАМ отрезки синусоиды и косинусоиды длительности T с частотой f 0 . Тогда во всех рассматриваемых здесь видах модуляции используются сигналы представляющие собой отрезки гармонического колебания длительности T . На рис. 2.34 показаны примеры q ичных, q 16 , сигнальных последовательностей длины 8, соответствующих передаче одной и той же последовательности сообщений. Отметим некоторые очевидные особенности представленных сигнальных последовательностей. Сигналы ФМ и ЧМ имеют постоянную амплитуду и, следовательно, 2-51 постоянную энергию. Сигналы АМ, КАМ и ФМ передаются с использованием одной несущей частоты, а для передачи ЧМ требуется несколько частот. Поэтому АМ, КАМ и ФМ относятся к узкополосным методам модуляции, а ЧМ к широкополосным. По внешнему виду сигналы АМ и КАМ близки; для АМ существует два варианта изменения фазы в момент смены сигналов: изменение на противоположную и сохранение предыдущего значения. Для КАМ это изменение возможно в более широких пределах. Последнее утверждение справедливо и для ФМ. 1 -1 1 2 3 4 5 6 7 1 2 3 4 5 6 7 1 2 3 4 5 6 7 1 2 3 4 5 6 7 2 -2 1 -1 1 -1 Рис.2.34 Примеры сигнальных последовательностей АМ, КАМ, ФМ и ЧМ (сверху вниз) Важным является сравнение видов модуляции по их энергетической эффективности. Рассмотрим значение отношения сигнал/шум требуемое для достижения фиксированного значения вероятности ошибки Pe , скажем Pe 10 5 , и исследуем изменение этого значения с увеличением числа сигналов q и связанного с ним значения числа бит, переносимых одним сигналом, m log 2 q . Эти данные представлены в таблице 2.2. 2-52 Таблица 2.2 Отношение сигнал/шум, дБ, требуемое для достижения значения Pe 10 q 4 q 8 q 16 q 32 q 64 q 128 m 2 m 3 m m 5 m 6 m 4 ЧМ 13 13.4 13.7 14.0 14.2 14.4 АМ 16.8 23.1 29.2 35.2 41.2 47.3 ФМ 13.2 18.2 24.1 30.1 36.1 42.1 КАМ 13.2 16.9 20.2 23.3 26.4 29.5 5 7 Из приведенных в таблице 2.2 данных следует, что для увеличения m на 1 при сохранении значения вероятности ошибки требуется увеличить отношение сигнал шум для АМ примерно на 6 дБ, для ФМ тоже примерно на 6 дБ, для КАМ – примерно на 3 дБ. Для ЧМ это увеличение измеряется долями дБ. На рис. 2.35 приведены эти зависимости. Из приведенных данных следует, что наибольшей энергетической эффективностью обладает ЧМ, потом идут КАМ, ФМ и АМ. 50 AM ЧМ ФМ КАМ 45 Отношение сигнал/шум, дБ 40 35 30 25 20 15 10 2 2.5 3 3.5 4 4.5 m = log2q 5 5.5 6 6.5 7 Рис.2.35. Энергетическая эффективность различных видов модуляции (отношение сигнал/шум, требуемое для достижения Pe 10 5 ) 2-53 В таблице 2.3 представлены значения отношения сигнал/шум на бит, требуемые для обеспечения вероятности ошибки на бит Pb 10 5 . При вычислении этих данных предполагалось, что модуляционное отображение построено с использованием кода Грея. Таблица 2.3 Отношение сигнал/шум на бит, дБ, требуемое для достижения Pb 10 q 4 q 8 q 16 q 32 q 64 q 128 m 2 m 3 m m 5 m 6 m 4 ЧМ 9.9 8.4 7.5 6.7 6.2 5.8 АМ 13.4 17.8 22.5 27.5 32.6 37.9 ФМ 10.0 13.0 17.4 22.3 27.5 32.7 КАМ 10.0 11.6 13.6 15.7 17.9 20.2 5 7 В графической форме эти данные представлены на рис. 2.36. 40 AM ЧМ ФМ КАМ Отношение сигнал/шум на бит, дБ 35 30 25 20 15 10 5 2 2.5 3 3.5 4 4.5 m = log2q 5 5.5 6 6.5 7 Рис.2.36. Энергетическая эффективность различных видов модуляции (отношение сигнал/шум на бит, требуемое для достижения Pb 10 5 ) 2-54 Видно, что ЧМ обладает наибольшей энергетической эффективностью. Для этого вида модуляции значение отношения сигнал/шум на бит, требуемое для обеспечения заданного уровня вероятности ошибки на бит, уменьшается при увеличении числа сигналов. Следующей по энергетической эффективности идет КАМ, а АМ как и ранее занимает последнее место. Рассмотрим теперь спектральную эффективность, или удельную скорость передачи. Эта величина определяется как V уд V / W , где V log 2 q / T m / T – скорость передачи, бит/с, а W – ширина полосы частот. Для сигналов КАМ, АМ, ФМ, полученных на основе отрезков гармоник с прямоугольными огибающими W 2 / T ; заметим, что ширина полосы в этом случае не зависит от объема сигнального алфавита. Для ЧМ сигналов с прямоугольными огибающими и несущими, выбранными с постоянным шагом по частоте, W 2/T (q 1) f , где f – частотный интервал между соседними несущими. Известно, что минимальное значение f 1 /(2T ) (в общем случае для обеспечения ортогональности сигналов ЧМ нужно чтобы выполнялось условие f l /(2T ) , где l целое). Тогда для полосы частот, занимаемой ЧМ сигналами, имеем выражение W 2 T q 1 2T q 3 2T 2m 3 . 2T В итоге V уд m , для КАМ, АМ, ФМ 2 2m , для ЧМ m 2 3 Графики для спектральной эффективности (удельной скорости передачи) для этих видов модуляции показаны на рис. 2.37. 2-55 3.5 AM, ФМ, КАМ ЧМ 3 Vуд, бит/(с.Гц) 2.5 2 1.5 1 0.5 1 2 3 4 m = log2q 5 6 7 Рис.2.37. Спектральная эффективность различных видов модуляции Из приведенного графика видно, что наименьшей спектральной эффективностью (удельной скоростью передачи) обладает ЧМ, а КАМ, АМ и ФМ по этому показателю эквивалентны. Таблица 2.4 содержит основные параметры сигналов рассмотренных видов модуляции. Таблица 2.4 Основные параметры сигналов АМ, КАМ, ФМ и ЧМ Скорость Постоянная Полоса V , бит/с амплитуда W , Гц V уд , бит/(c.Гц) Место по Место по энергетич. спектр. эффект. эффект. Размерность АМ log 2 q / T - 2/T m/2 4 1-3 1 КАМ log 2 q / T - 2/T m/2 2 1-3 2 ФМ log 2 q / T + 2/T m/2 3 1-3 2 ЧМ log 2 q / T + q 3 2T 2m 1 4 q 2m 3 2-56 2.12. Частотное разделение с использованием ортогональных несущих (OFDM) Сигналы OFDM (OFDM – Orthogonal Frequency Division Multiplexing) формируются как сумма сигналов КАМ или ФМ, передаваемых на различных несущих частотах. Общая полоса частот, отведенная для передачи, делится на N параллельных частотных подканалов, число которых на практике может лежать в пределах от нескольких десятков до нескольких тысяч. В подканале с номером n , n 0,1,...,N 1, передается сигнал вида si( n ) (t ) где si(1n ) 2 cos 2 f n t T T – длительность сигнала, fn – si(2n ) 2 sin 2 f n t , T 0 t T, (2.65) несущая частота3, используемая для передачи в n -ом частотном подканале, i 0,1,...qn 1 , qn – число сигналов, используемых в n -ом подканале. На практике все величины qn обычно равны между собой, но в общем случае они могут быть различными: например, в части подканалов может использоваться КАМ-16, а в другой части подканалов КАМ-4. Пара коэффициентов (si(1n) , si(2n) ) находится во взаимно-однозначном соответствии с индексом i и определяет i -ую точку в двумерном сигнальном созвездии КАМ или ФМ, используемом в n -ом подканале. Обозначим индекс сигнала передаваемого в n -ом подканале как in , in i 0,1,2,..., qn 1 . Пусть i – набор этих индексов (мультииндекс), то есть (i0 , i1 ,..., i N 1 ) . Тогда совокупный OFDM сигнал, соответствующий мультииндексу i , определяется как сумма сигналов в подканалах N 1 si(nn ) (t ) . si (t ) (2.66) n 0 Общее число OFDM сигналов q равно числу различных мультииндексов i , то есть 3 q q0 q1 ...q N 1 . Значение мультииндекса может рассматриваться как Эти частоты иногда называют поднесущими частотами (subcarrier) 2-57 сообщение, подлежащее передаче. Тогда очевидно, что скорость передачи (информационная скорость) равна V 1 log 2 q T 1 T N 1 log 2 qn , бит/с. n 0 Передаваемое сообщение представляет собой значение мультииндекса, то есть блок из log 2 qn бит. N 1 n 0 Он разбивается на N подблоков длиной log 2 qn , n 0,1,2,...,N 1, и n -ый подблок, то есть величина in задает номер пары (si(1n ) , si(2n ) ) , которая определяет КАМ или ФМ сигнал, передаваемый в n -ом подканале. Очевидно, что один сигнал OFDM может переносить много бит информации. Например, при числе подканалов N подканале 64 и КАM-16 в каждом сигнал OFDM переносит N log 2 q0 64 4 256 бит. Значение мультииндекса представляет собой в этом случае любую 256-битную последовательность. Несущие частоты fn выбираются так, чтобы подканалы были ортогональными, то есть, чтобы выполнялись условия T T 2 / T cos 2 f n t 2 / T cos 2 f k tdt 2 / T sin 2 f n t 2 / T sin 2 f k tdt 1, n k 0, n k и T 2 / T cos 2 f nt 2 / T sin 2 f k tdt 0 для всех n,k . Это условие достигается, если f n l0 1, и f f0 n f , где f 0 l0 / T , l0 – целое число или l / T , l – целое. Минимальный шаг по частоте достигается ортогональность подканалов, равен 1 / T . f , при котором Тогда полоса частот, занимаемая совокупным OFDM сигналом, равна W 2 / T ( N 1) f 2 / T ( N 1) / T ( N 1) / T . 2-58 Отсюда следует, что OFDM сигналы являются широкополосными4 сигналами; их спектр лежит в диапазоне от f 0 1/ T до f 0 N / T . Удельная скорость передачи (эффективность использования полосы) при использовании OFDM равна Vу д V / W 1 N 1 N 1n log 2 qn . Рассмотрим частный случай, когда во всех подканалах передается одинаковое число сигналов, то есть qn Vу д q0 , n 1,2,...,N 1 . Тогда N log 2 q0 N 1 log 2 q0 m при N 1. Последнее соотношение означает, что OFDM обладает очень высокой удельной скоростью, то есть очень эффективно использует полосу частот (ср. с данными, приведенными в Табл. 2.4). В канале с АБГШ вероятность ошибки при оптимальном приеме OFDM сигналов может быть легко оценена. Поскольку несущие частоты в подканалах выбраны так, что обеспечивается ортогональность, то искажения, возникающие из-за влияния АБГШ, независимы в различных подканалах. Поэтому вероятность ошибки (вероятность неправильного определения значения мультииндекса i на приемной стороне) легко может быть найдена следующим образом N 1 Pe (1 Pe( n ) ) , 1 n 0 где Pe(n ) - вероятность ошибки в n ом подканале, то есть вероятность ошибки КАМ или ФМ сигналов (см. соответствующие выражения в разделах о КАМ и ФМ). Формирование и прием OFDM сигналов может выполняться: 4 Напомним, что широкополосными называются сигналы, для которых WT 1. 2-59 – непосредственным путем по формулам (2.65) и (2.66); – более эффективным цифровым способом с использованием быстрого преобразования Фурье (БПФ), (Fast Fourier Transform, FFT) . Идея цифрового способа формирования OFDM сигнала состоит в том, что в цифровой форме вычисляются значения отсчетов сигнала в моменты времени t 0, T / N, 2T / N,...,( N 1)T / N , а затем с помощью цифро-аналогового преобразования и интерполяции восстанавливается сигнал в непрерывной форме. Рассмотрим этот алгоритм более подробно. Сигнал OFDM имеет вид 2 N 1 (n) ( si 1 cos 2 f n t Tn0 n s i (t ) Обозначим X i( n) si( n1) n n si(nn2) sin 2 f n t ) . js i(nn2) . Покажем, что N 1 si (t ) X i(nn ) e j 2 2 / T Re f nt (2.67) . n 0 Действительно, N 1 N 1 X i(nn ) e n 0 j 2 f nt ( si(nn1) js i(nn2) )( cos 2 f n t j sin 2 f nt ) n 0 N 1 N 1 ( si(nn1) cos 2 f n t si(nn2) sin 2 f n t ) ( si(nn2) cos 2 f n t j n 0 n 0 откуда следует выражение (2.67). Поскольку n 0,1,...,N 1, то из (2.67) следует, что fn N 1 si (t ) si(nn1) sin 2 f n t ) , f f 0 n / T , где N 1 X i(nn ) e j 2 2 / T Re f0 n f ( f 0 n / T )t Re 2 / T e j2 n 0 f 0t X i( n ) e j 2 ( n / T )t . (2.68) n 0 Обозначим N 1 X i(nn ) e j 2 xi (t ) ( n / T )t . (2.69) n 0 Функция xi (t ) принимает комплексные значения и может быть представлена в виде xi (t ) Re xi (t ) j Im xi (t ) . Тогда из равенств (2.68) и (2.69) следует, что si (t ) Re ( ( 2 / T cos 2 f 0 t j 2 / T sin 2 f 0 t )(Re xi (t ) j Im xi (t )) ) Re xi (t ) 2 / T cos 2 f 0t Im xi (t ) 2 / T sin 2 f 0t. 2-60 Последнее выражение означает, что для формирования OFDM сигнала, зависящего от значения мультииндекса i , нужно уметь вычислять значения функций Re xi (t ) и Im xi (t ) для 0 t T . Рассмотрим отсчеты функции xi (t ) в моменты t kT / N , k 0,1,...,N 1, то есть величины N 1 xi( k ) xi (t ) t X i( n ) e j 2 kT / N nk / N . n 0 Легко заметить, что комплексный вектор x i собой дискретное преобразование Xi ( X i(0) , X i(1) ,..., X i( N 1) ( xi(0) , xi(1) ,..., xi( N 1) ) представляет Фурье (ДПФ)5 комплексного вектора ) . При определенных значениях длины преобразования N , в частности когда N 2 p , p – целое, получение вектора xi из вектора Xi может быть выполнено очень эффективно с использованием быстрого преобразования Фурье (БПФ). Поэтому формирование OFDM сигнала выполняется так: – по значению мультииндекса i вычисляются величины X i(n) , n 0,1,....N 1 , (отображение КАМ или ФМ) и формируется вектор Xi ( X i(0) , X i(1) ,..., X i( N 1) ); – по вектору Xi вычисляется комплексный вектор xi (быстрое ДПФ); – по Re x i и Im x i восстанавливаются непрерывные сигналы Re xi (t ) и Im xi (t ) (цифро-аналоговое преобразование и интерполяция); – формируется OFDM сигнал как Re xi (t ) 2 / T cos 2 f 0t Im xi (t ) 2 / T sin 2 f 0t . Иллюстрация показана на рис.2.38. 5 Прямое и обратное ДПФ определяются как N 1 X (n) x (k )e k 0 j 2 nk / N и x (k ) 1 N N 1 X (n) e j 2 nk / N соответственно. n 0 2-61 2 cos 2 f 0 t T i0 КАМ (ФМ) отображение i1 КАМ (ФМ) отображение iN (si01 , si0 2 ) Re x i (si11 , si2 2 ) Формирование вектора Xi ЦАП si (t ) xi ОБПФ + 2 sin 2 f 0 t T (siN 11 , siN 1 2 ) 1 КАМ (ФМ) отображение Im x i ЦАП Цифровая обработка Рис. 2.38. Схема формирования OFDM сигнала Рассмотрим поясняющий условный пример со значениями параметров близкими к реальным (стандарт IEEE 802.11b для локальных беспроводных сетей). Пусть число подканалов N КАМ-16. f 64 и в каждом подканале используется Пусть частотный интервал между соседними несущими равен 312.5 кГц, следовательно, длительность сигнала равна T 1 / 312500 =3.2мкс. Положим для примера, что значение минимальной несущей f0 2.4 ГГц. Каждый сигнал переносит в этом случае 64 log 2 16 256 бит за время 3.2 мкс, то есть скорость передачи составляет 80 Мбит/с . Заметим, что реальная скорость передачи, обеспечиваемая стандартом, значительно меньше указанного значения из-за потерь в скорости требуемых для обеспечения работы всей системы (временные защитные интервалы, управление, помехоустойчивое кодирование и др.). На рис. 2.39 и 2.40 показаны графики, иллюстрирующие формирование OFDM сигнала с указанными параметрами для некоторого случайного информационного набора из 256 бит. 2-62 Re x i, Re xi(t) Im x i, Im xi(t) интерполированный сигнал отсчеты 1 0.5 0.5 -0.5 -0.5 -1 -1 1 2 3 t, c интерполированный сигнал отсчеты 1 1 2 3 t, c -6 x 10 Re xi(t) cos2 f0t -6 x 10 -Im xi(t) sin2 f0t 1 1 0.5 0.5 -0.5 -0.5 -1 -1 1 2 3 t, c 1 2 3 t, c -6 x 10 -6 x 10 Рис. 2.39. Компонентыsi(t)OFDM сигнала. Пример. 1 0.5 -0.5 -1 0.5 1 1.5 t, c 2 Рис.2.40. Пример OFDM сигнала 2.5 3 -6 x 10 2-63 Схема приемника OFDM сигнала показана на рис. 2.41. 2 cos 2 f 0 t T ФНЧ АЦП rc X̂ ( 0 ) X̂ (1) Формирование вектора r (t ) rc 2 sin 2 f 0t T jrs Решение КАМ (ФМ) iˆ0 iˆ1 X̂ БПФ rs ФНЧ Решение КАМ (ФМ) Xˆ ( N АЦП 1) Решение КАМ (ФМ) iˆN Цифровая обработка Рис. 2.41. Схема приема OFDM сигнала Поясним работу этой схемы. После умножения принятого сигнала на гармонические функции и НЧ фильтрации получаются низкочастотные компоненты сигнала. Они соответствуют непрерывным функциям, показанным рис. 2.39. Аналого-цифровые преобразования формируют векторы rc и rs , состоящие из N отсчетов. Из векторов rc и rs строится комплексный вектор rc Фурье результате ˆ X (БПФ). В jrs и подвергается обратному преобразованию получается комплексный вектор ( Xˆ (0) , Xˆ (1) ,..., Xˆ ( N 1) ) . По величинам Xˆ ( n ) строятся решения iˆn , n 0,1,...,N 1. 2-64 1 2.13. Тактовая синхронизация. Устройство установления тактовой синхронизации Схема оптимального приемника содержит корреляторы либо согласованные фильтры, соединенные с устройством взятия отсчетов (см. рис. 2.42) si (t ) T dt hi (t ) T б) а) Рис.2.42 Коррелятор (а) и согласованный фильтр с устройством взятия отсчетов (б). Работа этих устройств должна быть синхронизирована с поступающей из канала последовательностью: должны быть точно известны моменты начала и конца интегрирования в случае использования корреляторов или моменты взятия отсчетов при использовании приемника с согласованными фильтрами. В обоих случаях достаточным будет знание в точке приема моментов времени. T ,2T ,3T ,4T ,.... Получение этих моментов времени (“меток времени”) называется синхронизацией. Возможны следующие подходы к установлению синхронизации: 1) использование общего внешнего источника сигналов точного времени для передатчика и приемника; 2) передача меток времени по отдельному каналу; 3) получение меток времени из принятой сигнальной последовательности. Очевидно, что наиболее практически значимым является третий подход. Иллюстрация показана на рис.2.43. 2-65 r (t ) Оптимальный приемник Устройство установления синхронизации Метки времени T 2T 3T 4T 5T … Рис.2.43. Установление синхронизации по принятому сигналу Существует ряд подходов к решению задачи установления тактовой синхронизации. Рассмотрим один из них. Ограничимся случаем передачи двоичных противоположных сигналов по каналу с АБГШ. Предположим, что временной сдвиг (ошибка синхронизации) равномерно распределен на интервале [0, T ] , и на интервале наблюдения NT этот сдвиг постоянен. Возьмем на длительности сигнала n отсчетов и будем оценивать этот временной сдвиг с точностью до величины T / n , то есть будем оценивать величину m mT / n , где m 0,1,...,n 1. Обозначим значение i -го отсчета принятого сигнала на j ом интервале наблюдения как r (ij ) , j 1,2,...,N , i 1,2,..,n . Обозначим последовательность отсчетов принятой сигнальной последовательности как r (r (11) , r ( 21) ,..., r (n1) , r (12) , r ( 22) ,..., r ( n2) ,..., r (1N ) , r (2 N ) ,..., r ( nN ) ). Можно записать также, что r Обозначим также отсчеты сигнала (r (1) , r ( 2) ,..., r ( N ) ) , где r ( j ) (r (1 j ) , r (2 j ) ,..., r (nj ) ) . в пределах одного j -го сигнального интервала как s (ij ) ( m ) . Каждый отсчет выходного сигнала канала может быть записан как r (ij ) s (ij ) ( m ) n (ij ) , где n (ij ) – отсчет шума, соответствующий i -му отсчету j -го сигнала в последовательности. Все n (ij ) – независимые гауссовские случайные величины, и n (ij ) 0 , (n (ij ) ) 2 2 . Обозначим вектор отсчетов сигнальной последовательности, взятых в пределах s( j) ( m ) (s (1 j ) ( m ), s ( 2 j ) ( m ),..., s ( nj ) ( m j -го интервала, как )) . 2-66 Оптимальное решение вероятности) относительно m (решение arg max P( m m максимуму апостериорной вычисляется как  где P( по m m | r) , | r) - апостериорное распределение величины m , m 0,1,...,n 1. По формуле Байеса имеем P( Поскольку величина m | r) P( m ) w(r | w(r ) m ). распределена равномерно, то есть P( m ) 1/ n , то m очевидно, что оптимальная оценка может быть получена как  m arg max w(r | m (2.70) ). m Плотность вероятности w(r | m ) может быть записана как N w(r | w(r ( j ) | m) m ). j 1 Для плотности w(r ( j ) | m ) имеем следующее выражение (формула полной вероятности) w(r ( j ) | m ) w(r ( j ) | 0, m ) P0 w(r ( j ) | 1, m (2.71) ) P1 , где P0 , P1 – вероятности передачи нуля и единицы соответственно, w(r ( j ) | 0, m ) , w(r ( j ) | 1, m ) – условные плотности вероятностей величины r ( j ) при передаче нуля и единицы при фиксированном временном сдвиге m . При передаче противоположных сигналов в канале с АБГШ имеем n w(r ( j ) | 0, m) i 1 1 2 2 exp (r (ij ) s (ij ) ( 2 2 m s (ij ) ( 2 2 m )) 2 n K exp (r (ij ) s (ij ) ( 2 2 m )) 2 (r (ij ) s (ij ) ( 2 2 m )) 2 i 1 , и n w(r ( j) | 1, m ) i 1 где K (2 2 ) 1 n/2 2 2 exp (r (ij ) )) 2 n K exp i 1 , . При записи этих выражений учтено, что отсчеты сигналов, соответствующих передаче нуля и единицы, различаются только знаком. Далее, с учетом этих выражений из равенства (2.71) следует, что 2-67 N w(r | m) n KN P0 exp (r (ij ) s (ij ) ( 2 2 i 1 j 1 m )) 2 i 1 Полагая сигналы равновероятными, то есть P0 N w(r | m) j 1 r (ij ) s (ij ) ( n 1 exp 2 K1 (r) (r (ij ) n P1 exp m n 1 exp 2 2 i 1 m )) 2 , 1/ 2 , получим P1 ) s (ij ) ( 2 2 r (ij ) s (ij ) ( m ) (2.72) , 2 i 1 где N (r (ij ) ) 2 n K1 (r) K exp (s (ij ) ( 2 2 i 1 j 1 множитель, не зависящий от величины m m )) 2 . Используя определение функции гиперболического косинуса cosh(x) (e x e x ) / 2 , получим из (2.72) N w(r | m) K1 (r) r (ij ) s (ij ) ( n cosh 2 m ) . i 1 j 1 Поэтому, оптимальная оценка величины временного сдвига может быть получена как  m N arg max m r (ij ) s (ij ) ( n cosh m N ) arg max 2 m i 1 j 1 Рассмотрим величину Y ( j ) ( m ) n r (ij ) s ( ij ) ( m n log cosh j 1 r (ij ) s (ij ) ( 2 m ) . i 1 ) . Нетрудно заметить, что i 1 jT n Y ( j) ( ( ij ) ( ij ) m) r s ( i 1 C m) m r (t )s(t ( j 1)T ( j 1)T m )dt , m где C – некоторая константа; то есть значение пропорциональное величине Y ( j) ( m ) может быть вычислено с использованием коррелятора, похожего на показанный на рис.2.42а. Ранее отмечалось, что коррелятор может быть реализован с использованием согласованного фильтра. Пусть h(t ) s(T t ) – импульсная переходная характеристика фильтра согласованного с сигналом s (t ) . Заметим, что импульсная переходная характеристика фильтра h(t ) имеет конечную длительность. Обозначим сигнал на выходе согласованного фильтра как y(t ) . Он равен 2-68 y (t ) r (t ) h(t ) r (t1 )h(t t1 )dt1 r (t1 ) s(T t t1 )dt1 . С учетом конечной длительности импульсной переходной характеристики фильтра имеем t y(t ) r (t1 ) s(T t t1 )dt1 . t T Тогда очевидно, что Y ( j ) ( m ) Cy( jT m ) , то есть требуемое значение может быть получено как отсчет сигнала на выходе согласованного фильтра, взятый в момент jT m . Таким образом, устройство установления синхронизации должно иметь в своем составе согласованный фильтр, нелинейный элемент с характеристикой log cosh() , устройства взятия отсчетов, накопители и блок выбора максимума. Схема показана на рис.2.44. Заметим, что нелинейная функция log cosh() на практике с успехом может быть заменена более простой в реализации функцией взятия модуля | | . соотношение log cosh(x) x Основанием для такой замены является log 2 при не слишком малых x . Замыкание в моменты jT Накопление N отсчетов Замыкание в моменты h(t ) log cosh() jT 1 или | | Накопление N отсчетов Выбор максимума  m Замыкание в моменты jT n 1 Накопление N отсчетов Рис.2.44. Устройство оптимальной оценки временного сдвига 2-69 2.14. Влияние неточности тактовой синхронизации на вероятность ошибки Предположим, что синхронизация установлена с ошибкой . Оценим влияние неточно установленной синхронизации на вероятность ошибки. Как и прежде ограничимся рассмотрением двоичной передачи с использованием противоположных сигналов. Обозначим si (t ) Ai (t ) , где A0 – нормированная функция, определенная синхронизации, установленной с ошибкой на E , A1 интервале E, [ 0, T ] . (t ) При , приемник может быть описан схемой, показанной на рис.2.45. Заметим, что при 0 эта схема в точности соответствует оптимальному приемнику. (t ) r (t ) Сравнение с нулевым порогом T dt  i Рис.2.45. Оптимальный прием противоположных сигналов при неточно установленной синхронизации Рассмотрим передачу двух последовательно идущих сигналов. Их можно описать как A(1) (t ) и A( 2) (t T ) , где A (1) , A ( 2 ) – амплитуды текущего и следующего сигналов соответственно, A(1) , A( 2) E . Пусть n(t ) как обычно обозначает АБГШ. Тогда величина на выходе коррелятора может быть найдена как T T r (t ) (t )dt A(1) T (t ) (t )dt A( 2) (t T ) (t )dt n , T где n T n(t ) (t N 0 / 2 . Для )dt – гауссовская с.в. с нулевым средним дальнейшего рассмотрения требуется и дисперсией ввести некоторые обозначения. Пусть R (1) T (t ) (t ) dt (2.73) 2-70 и T R ( 2) Очевидно, что R0(1) 1 , R0( 2) 0 , RT(1) (t T ) (t T 0 , RT( 2) (2.74) ) dt . 1. Оценим вероятность ошибки. Как обычно сигналы предполагаются равновероятными, поэтому Pe (Pe (0) Pe (1)) / 2 , где Pe (0) , Pe (1) – условные вероятности ошибки при передаче нуля и единицы соответственно. Рассмотрим вероятность Pe (0) . Легко видеть, что при передаче нуля и при фиксированном значении амплитуды следующего за текущим сигнала вероятность ошибки равна Pe (0, A( 2) ) 0 | 0, A( 2) ] Pr[ Pr[ E R (1) A( 2 ) R ( 2 ) n Поскольку амплитуда A ( 2 ) равновероятно принимает значения 0 ]. E , то после усреднения по этим значениям имеем Pe (0) E ( R (1) (1 / 2) Pr[ R ( 2) ) n 0 ] (1 / 2) Pr[ E ( R (1) R ( 2) ) n 0 ]. Отсюда следует, что 1 Q 2 Pe (0) 2 E (1) (R N0 R ( 2) ) 1 Q 2 2 E (1) (R N0 R ( 2) ) . Правая часть этого выражения не зависит от номера переданного сигнала; это значит, что условная вероятность ошибки в данном случае совпадает с безусловной вероятностью, то есть Pe 1 Q 2 2 E (1) (R N0 R ( 2) ) 1 Q 2 2 E (1) (R N0 R ( 2) ) . (2.75) Вероятность ошибки, как это следует из выражения (2.75), зависит от отношения сигнал/шум и косвенно, то есть через величины R (1) и R ( 2) , от временного сдвига и формы сигналов. Рассмотрим частный случай. Пусть сигналы представляют собой противоположные прямоугольные импульсы, то есть 2-71 1 , 0 t T, T (t ) 0, иначе. Тогда с использованием определений (2.73) и (2.74), легко показать, что R ( 2) / T , R (1) ) / T . Отсюда (T Pe 1 Q 2 2E N0 1 Q 2 2E 2 1 N0 T (2.76) . Аналогичное выражение можно получить, если рассмотреть не положительное, а отрицательное значение временного сдвига . В итоге будет получена формула, совпадающая с (2.76) , в которой вместо будет выражение, ошибку учитывающее как положительную . Окончательное синхронизации (опоздание) так и отрицательную (опережение), имеет вид Pe 1 Q 2 2E N0 1 Q 2 2E 2| | 1 N0 T . Графики вероятности ошибки для различных величин отношения /T показаны на рис.2.46. Видно, что при увеличении этого отношения вероятность ошибки убывает с ростом отношения сигнал/шум все медленнее, а при /T 1 / 2 передача становится невозможной. 10 -1 10 -2 10 -3 10 -4 10 -5 10 /T = /T = /T = /T = /T = /T = -6 10 -7 10 2 0.1 0.2 0.3 0.4 0.5 4 6 8 10 12 14 16 18 E/N0 , дБ Рис.2.46. Вероятность ошибки для двоичных противоположных сигналов при различных значениях ошибки синхронизации 2-72 3. Некоторые модели каналов Ранее была рассмотрена передача сигналов по каналу с аддитивным белым гауссовским шумом. Такая модель канала является сравнительно простой, но вместе с этим важнейшей как с теоретической, так и с практической точек зрения . На практике искажения, вносимые каналом, не всегда могут быть описаны аддитивной моделью, и требуют поэтому для своего описания применения более сложных моделей. В этой части кратко излагается описание некоторых более сложных моделей мешающих воздействий, возникающих при передаче. Рассматриваются каналы со случайной фазой, каналы с замираниями и каналы с межсимвольной интерференцией. 3.1. Канал с аддитивным белым гауссовским шумом и случайной фазой Основной моделью канала, рассматривавшейся до сих пор, был канал с аддитивным белым гауссовским шумом. В этой модели сигнал на выходе канала имеет вид r(t ) s(t ) n(t ) , где s (t ) – переданный сигнал, принимающий значения из конечного сигнального множества, s(t ) {si (t )}iq 01 , n(t ) – белый гауссовский шум. Более сложный класс моделей каналов образуют каналы со случайными параметрами. В канале со случайными параметрами сигнал на выходе канала имеет вид r(t ) s(t, a) n(t ) , где a – вектор параметров сигнала, случайно изменяемых при передаче по каналу, a (a1 ,..., aL ) , L число случайных параметров, n(t ) – белый гауссовский шум. Обычно случайные параметры и шум статистически независимы. При некотором значении вектора случайных параметров, скажем при a a 0 , имеет место равенство s(t ) s(t, a 0 ) где s(t ) {si (t )}iq 01 . Иначе говоря, если значения параметров сигнала не меняются и 3-1 равны a 0 , то имеет место канал с АБГШ. Канал со случайными параметрами задан, если задано распределение вектора случайных параметров a . Обычно предполагается, что значение вектора случайных параметров не известно или не точно известно в точке приема и приемник должен быть построен с учетом этого обстоятельства. Иллюстрация приведена на рис. 3.1 s(t , a 0 ) Случайное изменение параметров r (t ) s(t, a) + n(t ) Рис. 3.1. Общая модель канала со случайными параметрами Как правило, число случайных параметров невелико, например, в модели канала со случайной фазой рассматривается только один случайный параметр – фазовый сдвиг приходящего сигнала. При рассмотрении канала со случайной фазой предполагается использование сигнала, передаваемого на одной несущей частоте (или на одной из нескольких несущих). Рассмотрим для примера передачу с использованием ЧМ, то есть 2E cos 2 f i t , 0 T si (t ) t T , i 0,1,...,q 1. . Сигнал на выходе канала со случайной фазой имеет вид r (t ) где 2E cos(2 f i t T ) n(t ) , – случайный фазовый сдвиг. Распределение случайного фазового сдвига может быть задано различным образом. Наиболее простым и распространенным является предположение о равномерном распределении фазового сдвига, то есть функция плотности вероятности величины задается как 3-2 w( ) 1 ,0 2 0, иначе. 2 , Причины случайного фазового сдвига могут быть различными; в частности, он может возникать из-за условий распространения сигнала и/или из-за нестабильного формирования сигнала в передатчике. 3-3 3.2. Оптимальный прием дискретных ЧМ сигналов в канале со случайной фазой Рассмотрим равновероятную передачу ЧМ сигналов по каналу со случайной фазой. Сигналы ЧМ имеют вид i 0,1,2,..., q 1 . 2E / T cos 2 f i t , 0 t si (t ) T, Частоты сигналов f i выбираются так, чтобы сигналы были ортогональны в усиленном смысле. Ортогональность в усиленном смысле означает, выполнение следующих условий T T 2 / T cos 2 f i t 2 / T cos 2 f k tdt 2 / T sin 2 f i t 2 / T sin 2 f k tdt 1, i k 0, i k и T 2 / T cos 2 f i t 2 / T sin 2 f k tdt 0. Это условие достигается если f i целое. Минимальный ортогональность в шаг f0 i f , где f 0 l0 / T , l0 целое, и по частоте, при котором усиленном смысле, равен 1/ T . f l /T , l – достигается Заметим, что ортогональность в обычном смысле означает лишь, что T 2 / T cos 2 f i t 2 / T cos 2 f k tdt и достигается при f 1, i k 0, i k l / 2T , l – целое. Сигнал на выходе канала со случайной фазой имеет вид r (t ) где 2E / T cos(2 f i t ) n(t ), (3.1) – случайный фазовый сдвиг, n(t ) – белый гауссовский шум. С использованием тождества cos(x y) cosx cos y sin x sin y , равенство (3.1) можно представить в виде r (t ) ( E cos ) 2 / T cos 2 f i t ( E sin ) 2 / T sin 2 f i t n(t ) . (3.2) 3-4 Функции и 2 / T cos 2 f i t i 2 / T sin 2 f i t , 0,1,2...,q 1, образуют ортонормированный базис, состоящий из 2q функций. Обозначим скалярные произведения принятого сигнала и косинуса и синуса i -й частоты, i 0,1,...,q 1, как rci T и rsi , то есть rci r (t ) 2 / T cos 2 f i tdt , rsi T r (t ) 2 / T sin 2 f i tdt . Аналогично, скалярные произведения шума и косинуса и синуса i -й частоты обозначим как nci и nsi . Далее введем векторы rc nc (nc 0 ,..., ncq 1 ) , n s (ns 0 ,..., nsq 1 ) , а также r (rc 0 ,..., rcq 1 ) , rs (rc , rs ) , n (n c , n s ) . (rs 0 ,..., rsq 1 ) и Тогда для принятого сигнала (3.2) можно получить векторное представление (3.3) r si ( ) n , где все векторы имеют размерность 2q , а s i ( ) (s i cos , s i sin ) и s i (si 0 ,..., siq 1 ) , причем ski E, k 0, k i, i. При получении представления (3.3) использовано свойство усиленной ортогональности сигналов. Обозначим условную плотность вероятности вектора r при условии передачи i -го сигнала как w(r | i) .  решение по правилу i Оптимальный приемник принимает arg max w(r | i) . Рассмотрим выражение для плотности 0 i q 1 w(r | i) . Ясно, что 2 2 w(r | i) w(r | i, ) w( )d (2 ) 1 w(r | i, )d , (3.4) где w(r | i, ) – условная функция плотности вероятности при фиксированном значении случайной фазы, w( ) – функция плотности вероятности случайной фазы, w( ) (2 ) 1 , 0 2 . Для условной плотности вероятности w(r | i, ) можно записать, что w(r | i, ) w(rc | i, )w(rs | i, ), (3.5) 3-5 где w(rc | i, ) 1 N0 w(rs | i, ) 1 N0 q/2 rc exp 2 s i cos q/2 rs exp (3.6а) , N0 2 s i sin N0 . (3.6б) , (3.7) После подстановки равенств (3.6) в (3.5) имеем w(r | i, ) где K (r) ( N 0 ) q exp( ( rc 2 K (r) exp 2 rs 2(rc , s i ) cos 2(rs , s i ) sin N0 E ) / N 0 ) – величина, не зависящая от i и . Рассмотрим скалярные произведения в показателе экспоненты в (3.7). Они равны (rc , s i ) q 1 r s и rci E k 0 ck ik q 1 (rs , s i ) r s k 0 sk ik rsi E . Поэтому показатель экспоненты в (3.7) может быть записан в виде 2 E (rci cos N0 или с использованием тождества rsi sin ) m , a cos x b sin x a2 b 2 cos(x arctan(b / a)) преобразован к виду 2 E (rci ) 2 N0 где i (rsi ) 2 cos( i ), arctan(rsi / rci ) . Тогда для плотности w(r | i, ) имеем выражение w(r | i, ) 2 E (rci ) 2 N0 K (r) exp (rsi ) 2 cos( i ) . 2 E (rci ) 2 N0 (rsi ) 2 cos( i ) d . exp( x cos( ) )d , Подставляя это выражение в (3.4), получаем w(r | i) 1 K (r) 2 2 exp Выражение вида I 0 ( x) 1 2 2 3-6 где – любое, известно как функция Бесселя первого рода нулевого порядка. График функции I 0 ( x) показан на рис.3.2. 12 I0(x) 10 8 6 4 2 0.5 1 1.5 2 x 2.5 3 3.5 4 Рис.3.2. График функции I 0 ( x) С w(r | i) использованием определения K (r ) I 0 ( (2 E / N 0 ) (rci ) 2  правилу i (rsi ) 2 ) . функции Оптимальное решение I0 ( ) имеем строится по arg max w(r | i) . Поскольку функция квадратного корня и функция 0 i q 1 Бесселя монотонно возрастают, то эквивалентное правило принятия решения имеет вид  i arg max ( (rci ) 2 0 i q 1 (rsi ) 2 ) . Схема, реализующая это правило, показана на рис. 3.3. 3-7 2 / T cos 2 f 0 t T dt ( )2 2 / T sin 2 f 0 t + T dt r (t ) ( )2 Выбор максимума  i 2 / T cos 2 f q 1t T dt ( )2 2 / T sin 2 f q 1t + T dt ( )2 Рис.3.3 Схема оптимального приемника ЧМ сигналов в канале со случайной фазой 3-8 3.3. Сигналы с ортогональными огибающими. Оптимальный прием в канале со случайной фазой Рассмотрим теперь кратко другой метод передачи сигналов по каналу со случайной фазой – передачу с использованием сигналов с ортогональными огибающими. В этом случае сигналы передаются на одной несущей частоте и имеют вид si (t ) mi (t ) 2E cos 2 f 0t , где mi (t ) – ортонормированные на интервале огибающие, [ 0, T ] i 0,1,...,q 1. В качестве огибающих могут быть использованы любые ортонормированные функции. Важно только чтобы они были низкочастотными по сравнению со значением несущей частоты f 0 . Часто в качестве огибающих используются кусочно-постоянные функции, полученные с использованием кода Адамара1 соответствующего порядка. Например, для q 8 огибающие показаны на рис.3.4. m0 (t ) 1 1 m4 (t ) -1 -1 0.2 m1 (t ) 0.4 0.6 0.8 1 1 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1 m5 (t ) -1 -1 0.2 m2 (t ) 0.2 1 0.4 0.6 0.8 1 1 1 m6 (t ) -1 -1 0.2 0.4 0.6 0.8 1 1 1 m3 (t ) m7 (t ) -1 -1 0.2 0.4 0.6 0.8 1 Рис.3.4 Ортогональные огибающие, построенные на основе кода Адамара, q 8 , T 1 . 1 Код Адамара определяется как набор векторов, совпадающих со строками матрицы Адамара. Матрица Адамара H2 1 1 порядка 1 1 n 2k может быть определена рекурсивно как Hn Hn/2 Hn/2 Hn/2 , и Hn/2 . 3-9 Огибающие, построенные с использованием кода Адамара, состоят из q элементов сигнала, или чипов (chip), длительности Tc T / q . Условие низкочастотности огибающей, упомянутое выше, состоит в данном случае в том, что f 0 1/ Tc , то есть на длительности чипа должно помещаться много периодов несущей. Принятый сигнал в отсутствие шума имеет вид r (t ) mi (t ) 2E cos(2 f 0t ) mi (t ) 2E (cos cos 2 f 0t sin sin 2 f 0t ) . В приемнике сначала выполняется низкочастотная демодуляция (перенос спектра в низкочастотную область). Эта операция выполняется следующим образом. Сначала принятый сигнал умножается на 2 cos 2 f 0 t и 2 sin 2 f 0 t и потом пропускается через фильтр низких частот, то есть вычисляются rc (t ) ( r (t ) 2 cos 2 f 0t ) НЧ и rs (t ) ( r (t ) 2 sin 2 f 0t ) НЧ . Здесь через ( ) НЧ обозначена операция низкочастотной фильтрации выражения, стоящего в скобках. Рассмотрим вычисление rc (t ) , rc (t ) ( r (t ) 2 cos 2 f 0t ) НЧ 2E 2 ( mi (t ) cos(2 f 0t ) cos 2 f 0t ) НЧ 2 E ( mi (t ) cos cos 2 f 0t cos 2 f 0t sin sin 2 f 0t cos 2 f 0t ) НЧ E ( mi (t )( cos (1 cos 4 f 0t ) sin sin 4 f 0t ) ) НЧ E mi (t ) cos . При переходе к последнему выражению учтено, что НЧ фильтр полностью подавляет составляющие удвоенной частоты. Также при выводе выражения для rc (t ) использованы тождества cos2 x (1 cos 2 x) / 2 Аналогично можно показать, что rs (t ) и cos x sin x sin 2 x / 2 . E mi (t ) sin . Далее в приемнике вычисляются скалярные произведения функций rc (t ) и rs (t ) и ортогональных огибающих, возведение в квадрат, сложение и принятие окончательного решения. Схема некогерентного приемника для сигналов с ортогональными огибающими показана на рис.3.5. 3-10 m0 (t ) T dt ( )2 + T dt 2 cos 2 f 0 t r (t ) НЧ фильтр ( )2  i m0 (t ) Выбор максимума НЧ фильтр mq 1 (t ) T dt 2 sin 2 f 0 t ( )2 + T dt ( )2 mq 1 (t ) Рис.3.5 Схема некогерентного приемника для сигналов с ортогональными огибающими. 3-11 3.4. Вероятность ошибки при оптимальном приеме в канале со случайной фазой Рассмотрим равновероятную передачу ЧМ сигналов по каналу со случайной фазой. Вероятность ошибки в этом случае вычисляется как Pe 1 q q 1 Pe (i ) , i 0 где Pe (i) – вероятность ошибки при передаче i -го сигнала. Всегда справедливо равенство Pe (i) 1 Pc (i) , где Pc (i) вероятность правильного приема при передаче i -го сигнала. Оптимальное правило принятия решения имеет вид  i arg max 0 i q 1 2 i , где 2 i (rsi ) 2 . Следовательно, (rci ) 2 q 1 Pc (i ) Pr ( 2 i 2 k )|i . k 0 k i При 2 k передаче (nck ) 2 сигнала i -го (nsk ) 2 , где 2 i nci ) 2 ( E cos nsi ) 2 , ( E sin – случайный фазовый сдвиг, nci , nsi , и nck , nsk – независимые гауссовские с.в., распределенные с параметрами (0, N 0 / 2) . При вычислении величины Поскольку величины k фиксировать значение фиксированном по i i Pc (i) поступим следующим образом. , k 0,1,...,q 1, k i , и i i независимы, то можно , найти значение условной вероятности при , то есть Pc (i, i ) , а потом усреднить полученное выражение . Пусть фиксировано. Тогда, в силу независимости величин i q 1 Pc (i, i ) , q 1 Pr[ k 0 k i k 2 i 2 k ] Pr[ 2 i (nck ) 2 (nsk ) 2 ] k 0 k i 2 q 1 1 exp k 0 k i i N0 2 1 exp i N0 q 1 . 3-12 Переход от первой ко второй строке этого равенства выполняется путем перехода к полярным координатам при интегрировании гауссовских плотностей по той же схеме как это было сделано при получении верхней границы вероятности ошибки для КАМ . Далее имеем q 1 2 Pc (i ) Pc (i, i ) i 1 exp где черта сверху означает усреднение по определяющим величину i (то есть по всем с.в., i ) . Рассмотрим выражение под чертой в правой части (3.8). Используя тождество (a b) N коэффициент, CNl (3.8) , N0 N l 0 C Nl a N l b l , где C Nl – биномиальный N!/(l! ( N l )!) , можно записать, что q 1 2 1 exp 2 q 1 i C N0 l q 1 l i . N0 l ( 1) exp l 0 (3.9) После подстановки (3.9) в (3.8) имеем 2 q 1 Pc (i) C l q 1 l i N0 l ( 1) exp l 0 q 1 nci ) 2 ( E sin N0 l (( E cos Cql 1 ( 1) l exp l 0 nsi ) 2 ) . (3.10) При усреднении в правой части (3.10) полезной оказывается следующая лемма. Лемма. Пусть x – гауссовская случайная величина , распределенная с параметрами (m, 2 ), – постоянная, такая что exp( x 2 ) 1 1 2 2 exp 2 1/(2 m2 1 2 2 ) . Тогда . (3.11) □. Доказательство этой леммы предлагается выполнить в качестве упражнения. Применяя эту лемму к усреднению правой части (3.10), получим 3-13 q 1 Cql 1 ( 1)l Pc (i) l 0 1 1 l exp l E . l 1 N0 Правая часть этого равенства не зависит от номера переданного сигнала; это значит, что и безусловная вероятность правильного приема Pc вычисляется по этой же формуле. Поскольку Pe 1 Pc , то имеем окончательное выражение для вероятности ошибки q 1 Cql 1 ( 1)l Pe l 1 1 1 1 l exp l E . l 1 N0 (3.12) Выражение (3.12) дает точное значение вероятности ошибки. Простая верхняя оценка может быть получена на основе аддитивной границы. Она имеет вид Pe q 1 exp( E / 2 N 0 ). 2 (3.13) При q 2 , то есть для двоичных сигналов, из (3.12) следует, что Pe 1 exp( E / 2 N 0 ). 2 (3.14) Заметим, что выражение (3.14) следует из равенств (3.13) и из (3.12), то есть аддитивная граница (3.13) при q 2 дает точное значение. Соотношение между точным значением вероятности ошибки (3.12) и верхней границей (3.13) иллюстрирует рис. 3.6 На рис.3.7 показаны графики вероятности ошибки для ЧМ сигналов в канале с АБГШ и в канале с АБГШ и случайной фазой. Из этих графиков следует, что в канале со случайной фазой вероятность ошибки больше и может быть компенсирована незначительным (в практически важных случаях на 0.5…0.8 дБ) увеличением отношения сигнал/шум. С увеличением отношения сигнал/шум дополнительные энергетические затраты, связанные со случайным фазовым сдвигом, быстро уменьшаются. 3-14 Pe 10 -1 10 -2 10 -3 10 -4 10 -5 10 q=2 q = 2 (аддитивная граница) q=4 q = 4 (аддитивная граница) q=8 q = 8 (аддитивная граница) q = 16 q = 16 (аддитивная граница) -6 10 -7 10 2 4 6 8 10 12 14 16 E/N0, дБ Рис.3.6 Вероятность ошибки Pe и верхняя граница вероятности ошибки при оптимальном приеме сигналов ЧМ в канале со случайной фазой Pe 10 -1 10 -2 10 -3 10 -4 10 -5 10 -6 q = 2, АБГШ q = 2, АБГШ + сл. фаза q = 8, АБГШ q = 8, АБГШ + сл. фаза 10 -7 10 2 4 6 8 10 12 14 16 E/N0, дБ Рис.3.7 Вероятность ошибки для ЧМ сигналов в канале с АБГШ и канале с АБГШ и случайной фазой 3-15 Ранее было показано, что вероятность ошибки на бит может быть вычислена как Pb 2m 1 Pe . 2m 1 Заметим, что для двоичных сигналов, то есть когда q 2 и m 1 , Pb q 1 Pb Pe , а при Отношение сигнал/шум на бит равно Eb / N 0 (1/ m)E / N0 , Pe / 2 . поэтому окончательное выражение для вероятности ошибки на бит имеет вид 2m 1 q 1 l 1 Cq 1 ( 1)l 1 exp m 2 1l 1 1 l Pb На рис. 3.8 показаны графики l mEb . l 1 N0 значений (3.15) вероятности ошибки, вычисленных по формулам (3.12) и (3.15). Pe 10 -1 -1 10 10 -2 -2 10 10 -3 -3 10 10 -4 -4 10 10 -5 -5 10 10 -6 -6 ЧМ, q = 2 ЧМ, q = 4 ЧМ, q = 8 ЧМ, q = 16 10 -7 10 Pb 10 5 10 -7 10 E/N0, дБ 15 10 ЧМ, q = 2 ЧМ, q = 4 ЧМ, q = 8 ЧМ, q = 16 5 10 15 (E/N0 )bit, дБ Рис.3.8. Вероятности ошибки для ЧМ сигналов Pe (слева) и Pb (справа) , канал со случайной фазой, некогерентный прием В заключение отметим, что выражения (3.12), (3.13) и (3.14) справедливы для передачи по каналу с АБГШ и случайной фазой при использовании не только ЧМ сигналов, но и сигналов с ортогональными огибающими. 3-16 3.5. Относительная фазовая модуляция В канале со случайной фазой нельзя использовать сигналы ФМ. Эти сигналы различаются между собой начальной фазой, а случайный фазовый сдвиг, вносимый каналом, делает их неразличимыми на выходе канала даже в отсутствие шума. В частности, в двоичной системе передачи нельзя использовать двоичные противоположные сигналы, которые обеспечивают наилучшее соотношение между отношением сигнал/шум и вероятностью ошибки в канале с АБГШ. Двоичные сигналы ЧМ в канале с АБГШ обеспечивают вероятность ошибки Pe Q( E / N 0 ) , (3.16) а в канале с АБГШ и случайной фазой Pe 1 e 2 E 2 N0 , (3.17) что незначительно уступает (3.16). Однако в канале с АБГШ и неслучайной фазой можно применить ФМ (противоположные сигналы) и вероятность ошибки при этом станет равной Pe Q( 2 E / N 0 ) , что соответствует выигрышу в 3дБ в отношении сигнал/шум по сравнению с сигналами ЧМ (см. (3.16)). Применение ФМ в канале со случайной фазой не только не дает выигрыша, но и вообще делает передачу невозможной. Однако при некоторых условиях в канале с АБГШ и случайной фазой можно получить зависимость вероятности ошибки от отношения сигнал/шум, определяемую равенством Pe 1 e 2 E N0 , (3.18) что соответствует такому же выигрышу в 3дБ по сравнению с сигналами ЧМ. Такую вероятность ошибки обеспечивает применение относительной фазовой модуляции (ОФМ) (DPSK, differential phase shift keying). 3-17 Сигналы двоичной ОФМ строятся следующим образом: при передаче символа “0” фаза текущего сигнала совпадает с фазой предыдущего сигнала, а при передаче “1” фаза текущего сигнала меняется на противоположную по сравнению с предыдущим. Рис.3.9 дает представление о различии между сигналами двоичной ФМ и двоичной ОФМ. 1 1 1 1 1 0.5 -0.5 -1 1 2 3 1 4 t/T 5 1 6 1 7 1 1 0.5 -0.5 -1 1 2 3 4 t/T 5 6 7 Рис.3.9. Примеры сигнальных последовательностей ФМ (вверху) и ОФМ (внизу) Из построения сигналов ОФМ следует, что информация передается разностью фаз двух смежных во времени сигналов в отличие от сигналов ФМ, в которых информация заключена в значении фазы текущего сигнала. Сигналы ОФМ могут применяться в канале со случайной фазой, если случайный фазовый сдвиг, определяемый каналом, меняется медленно по сравнению с длительностью сигнала. Это значит, что сдвиг на двух соседних временных позициях остается примерно постоянным, и следовательно, разность фаз двух соседних по времени сигналов остается неизменной. Рассмотрим сигналы ОФМ на двух соседних временных позициях. Легко заметить, что они представляют собой две пары сигналов с ортогональными огибающими, состоящими из двух чипов (см. рис.3.10), соответствующих 3-18 знакам амплитуды (+,+) (+,–) или (–,–) (–,+) в зависимости от значения фазы предыдущего сигнала и текущего передаваемого бита. Пред. фаза = 0, тек. бит = 0 Пред. фаза = , тек. бит = 0 1 1 0.5 0.5 -0.5 -0.5 -1 -1 0.5 1 t/T 1.5 Пред. фаза = 0, тек. бит = 1 0.5 1 t/T 1.5 Пред. фаза = , тек. бит = 1 1 1 0.5 0.5 -0.5 -0.5 -1 -1 0.5 1 t/T 1.5 0.5 1 t/T 1.5 Рис.3.10. Пары смежных ОФМ сигналов. Нетрудно заметить, что пара возможных сигналов ОФМ, соответствующих одному значению фазы предыдущего сигнала, может рассматриваться как пара сигналов с ортогональными огибающими длительности 2T ; очевидно, что энергия сигнала двойной длительности равна 2 E , где E – энергия одиночного сигнала. Отсюда следует, что прием сигналов ОФМ может быть реализован как прием двоичных сигналов с ортогональными огибающими на интервале 2T , то есть после небольшой модификации может быть использована схема, показанная на рис. 3.5. Для вероятности ошибки при использовании двоичных сигналов с ортогональными огибающими справедливо равенство (3.17), где E – энергия сигнала. Поскольку в случае ОФМ решение принимается на основе анализа сигнала двойной длительности, то есть на основе анализа сигнала, имеющего двойную энергию, то для двоичных ОФМ сигналов формула для вероятности ошибки получается путем 3-19 замены в (3.17) E на 2 E , что дает в итоге выражение (3.18). Подчеркнем в заключение, что применение ОФМ возможно только при медленно изменяющейся фазе приходящих сигналов. Заметим также, что это условие не является очень сильным ограничением и часто выполняется на практике. Кроме двоичных сигналов ОФМ широко используются четверичные сигналы ОФМ (ОФМ-4, QDPSK). В этом случае фаза текущего сигнала изменяется по сравнению с фазой предыдущего сигнала на 0 , и 3 / 2 по /2, сравнению с предыдущим в зависимости от значения поступившей на вход модулятора пары бит, принимающей значения из множества {00, 01, 10, 11}. Вероятность ошибки в этом случае вычисляется следующим образом. Пусть E / N0 – отношение сигнал/шум в канале с АБГШ и случайной фазой, очевидно, что отношение сигнал/шум на бит в этом случае равно Пусть величины a и b определены как a (1 2 / 2) и b (1 b /2 . 2 / 2) . Тогда вероятность ошибки при использовании ОФМ-4 в канале с АБГШ и случайной фазой вычисляется по формуле, которая приводится здесь без вывода, Pe 1 I 0 (ab) exp 2 Q1 (a, b) a 2 b2 , 2 где Q1 (a, b) и I 0 (ab) – Q-функция Маркума и функция Бесселя первого рода нулевого порядка, определенные соответственно как Q1 (a, b) a 2 b2 I 0 (ax)dx , 2 x exp b I 0 ( x) 1 2 2 exp( x cos y)dy . Отметим, что функция Маркума Q1 (a, b) не совпадает, несмотря на сходное обозначение, с функцией Q( ) . На рис. 3.11 приводятся графики зависимости вероятности ошибки и вероятности на бит от отношения сигнал/шум и отношения сигнал/шум на бит соответственно. Эти графики построены для ФМ-2 и ФМ-4 для канала с АБГШ и для ОФМ-2 и ОФМ-4 для канала с АБГШ 3-20 и случайной фазой. Для ФМ-4 и ОФМ-4 предполагается, что модуляционное отображение выполнено в соответствии с кодом Грея. Для ФМ-4 показана верхняя граница вероятности ошибки. Еще раз отметим, что передача с использованием сигналов ФМ возможна в канале с АБГШ, но невозможна в канале с АБГШ и случайной фазой. Pe 10 ФМ-2, АБГШ ОФМ-2, АБГШ + сл.фаза ФМ-4, АБГШ ОФМ-4 АБГШ + сл.фаза -1 ФМ-2, АБГШ ОФМ-2, АБГШ + сл.фаза ФМ-4, АБГШ ОФМ-4 АБГШ + сл.фаза -1 10 10 -2 -2 10 10 -3 -3 10 10 -4 -4 10 10 -5 -5 10 10 -6 -6 10 10 -7 10 Pb 10 -7 2 4 6 8 10 E/N0 , дБ 12 14 16 18 10 2 4 6 8 10 12 14 (E/N0 )bit, дБ Рис.3.11. Вероятности ошибки Pe (слева) и Pb (справа) для сигналов ФМ и ОФМ в канале с АБГШ и в канале с АБГШ и случайной фазой 3-21 3.6. Каналы с замираниями. Распределения Релея и Райса В канале с замираниями амплитуда приходящего на приемник сигнала случайна. Поэтому влияние канала с замираниями на передаваемый сигнал можно описать как умножение сигнала на случайный коэффициент передачи канала . Поясняющая иллюстрация показана на рис. 3.12. s (t ) r (t ) Случайный фазовый сдвиг + Случайное изменение параметров сигнала n(t ) Рис. 3.12. Простейшая модель канала модель канала с замираниями и случайной фазой В наиболее коэффициент распространенной модели случайные величины, x mx , y m y , ( x mx ) 2 функцию распределения По случайный распределен в соответствии с распределением Релея или Райса. Рассмотрим эти распределения. Пусть x и y – x2 замираний независимые гауссовские ( y my )2 2 . Требуется найти и функцию плотности вероятностей величины y2 . определению w ( ) F ' ( ) dF ( ) / d , где – F ( ) функция распределения, а w ( ) – функция плотности вероятности случайной величины . Функция распределения определяется как F ( ) Pr[ определения случайной величины F ( ) Pr[ x 2 ]. С учетом имеем y2 2 ] wx ( ) wy ( )d d , 2 2 (3.19) 2 3-22 где wx ( ) , wy ( ) – функции плотности вероятности величин x и y , определенные как wx ( ) 1 2 exp wy ( ) 1 2 exp mx ) 2 ( 2 2 my ) 2 ( 2 2 , . После подстановки этих выражений в (3.19) имеем 1 F ( ) 2 2 2 exp 2 2 mx ) 2 ( my ) 2 ( (3.20) d d . 2 2 Рассмотрим показатель экспоненты в (3.20), он равен mx ) 2 ( my ) 2 ( 2 2 mx2 my2 2mx (3.21) 2my . Заменим в (3.21) прямоугольные координаты ( , ) на полярные ( , ) , имея в виду что sin , тогда cos , mx ) 2 ( Обозначим m 2 mx2 my ) 2 ( 2 mx2 my2 2mx cos (3.22) 2my sin . m y2 и используем тождество A cos x B sin x A2 B 2 cos(x arctan(B / A)), тогда выражение (3.22) принимает вид mx ) 2 ( где { 2 ( my ) 2 2 m2 2 m cos( (3.23) ), arctan(m y / mx ) . После подстановки (3.23) в (3.20) и замены d d 2 2 } { d d , 2 } , имеем ,0 2 2 F ( ) 0 0 m2 exp 2 2 2 m cos( 2 2 ) d d , или F ( ) 2 exp 2 m2 2 2 1 2 2 exp m 2 cos( ) d d . (3.24) Интеграл вида 3-23 2 1 2 I 0 ( x) exp( x cos( - любое, ) )d , называется функцией Бесселя первого рода нулевого порядка. Заметим, что I 0 (0) 1 . Использование этого соотношения в (3.24) дает выражение для функции распределения F ( ) exp 2 2 m2 2 2 I0 m d , 2 и функции плотности вероятности w ( ) exp 2 2 m2 2 2 I0 m 2 , (3.25) 0. Плотность вероятностей (3.25) называется плотностью вероятностей Райса (Rice). Она зависит от двух параметров m и . Если m 0 , то имеем частный случай распределения Райса известный как распределения Релея (Rayleigh) 2 w ( ) 2 exp 2 2 , 0. Графики функции (3.25) для различных значений параметров m и показаны на рис.3.13. 0.7 0.7 m m m m 0.6 = = = = 0, 1, 2, 5, = = = = 1 1 1 1 0.6 0.5 0.5 0.4 0.4 0.3 0.3 0.2 0.2 0.1 0.1 2 4 6 8 m m m m 10 2 4 6 = = = = 0, 0, 0, 0, 8 = = = = 1 2 3 4 10 Рис.3.13. Плотности вероятности Райса для различных значений параметров m и 3-24 3.7. Канал с замираниями. Модель с рассеивателями Рассмотрим передачу ЧМ сигналов, i 0,1,2,..., q 1 . Частоты сигналов fi si (t ) 2E / T cos 2 f i t , t T, выбраны так, чтобы сигналы были ортогональны в усиленном смысле. Пусть был передан i -ый сигнал, на выходе канала с замираниями сигнал описывается как r (t ) где 2E / T cos(2 f i t (3.26) ) n(t ), – случайный коэффициент передачи канала, фазовый сдвиг, 0 0, – случайный 2 , n(t ) – белый гауссовский шум. Модель канала с замираниями относится к классу каналов со случайными параметрами, которыми в данном случае являются величины и . Величины и статистически независимы друг от друга и от шума. Случайный фазовый сдвиг распределен равномерно в интервале [0,2 ] , а коэффициент передачи канала распределен по закону Релея или Райса. Рассмотрим простую, но реалистичную модель, которая приводит к описанию (3.26). Пусть сигнал распространяется через передающую среду, которая может быть описана как множество рассеивателей (отражателей) (см. рис.3.14). “Облако” рассеивателей Приемник Передатчик Рис.3.14. Модель канала с рассеивателями Тогда в отсутствие шума сигнал на выходе канала с рассеивателями может быть описан как r (t ) ck si (t k ), (3.27) k 3-25 где ck – коэффициент отражения k -го рассеивателя, k – задержка, вносимая k -м рассеивателем. Подставляя в (3.27) выражение для сигнала, получаем, что r (t ) ck 2E / T cos 2 f i (t k ) ck 2E / T cos(2 f i t k где 2 fi ik ik (3.28) ), k – фазовый сдвиг, возникающий из-за задержки, связанной с k распространением сигнала до и от k -го рассеивателя. Из (3.28) следует, что r (t ) ck cos 2 E / T cos 2 f i t ik ck sin k 2 E / T sin 2 f i t ik k x 2E / T cos 2 f i t y 2E / T sin 2 f i t , (3.29) где использовано обозначение x ck cos ik (3.30) , k y ck sin ik (3.31) . k Равенство (3.29) можно тогда переписать в виде r (t ) где x2 (3.32) ), arctan(y / x) . Случайные величины x и y2 , квадратурными 2E / T cos(2 f i t компонентами коэффициента передачи. y называются Заметим, что амплитуда и энергия принятого сигнала даже в отсутствие шума случайны, в этом собственно и состоит смысл явления, называемого замираниями сигнала (fading). Поэтому можно говорить о средней энергии принятого сигнала и среднем отношении сигнал/шум. Средняя энергия принятого сигнала определяется как T T 2 E r (t )dt T 2 2 r (t )dt ( 2 E / T cos(2 f i t ) ) 2 dt T 2 ( 2E / T cos(2 f i t ) ) 2 dt 2 E (x2 y 2 ) E. (3.33) Правая часть равенства (3.32) при прибавлении всегда присутствующего шума совпадает с правой частью (3.26). Таким образом, модель с рассеивателями приводит к описанию (3.26). Для завершения рассмотрения 3-26 модели с рассеивателями осталось дать статистическое описание случайных параметров канала и показать, что при некоторых разумных предположениях это распределение будет задаваться распределениями Релея и Райса. Предположим, что а) рассеивателей много, б) они статистически независимы, и в) вклад каждого рассеивателя в суммы (3.30), (3.31) невелик. При этих предположениях, можно считать распределения величин x и y примерно гауссовскими независимо от того как были распределены образующие их слагаемые. Это следует из центральной предельной теоремы теории вероятностей. Поскольку x и y – гауссовские случайные величины, то для завершения их описания надо определить параметры их совместного распределения. Для гауссовских величин необходимо и достаточно определить только первые и вторые моменты. Для математических ожиданий имеем x ck cos ik k y ck sin ik 0, ck sin ik 0, ik k так как sin ck cos k k 0 при равномерно распределенном аргументе cos , 0 2 . Далее xy ck cos cl sin ik k ck2 cos k sin ik cos k c sin ik l il l ck cl cos ik k так как sin ck cos il l sin ik 0, il l k 0 при равномерно распределенном аргументе sin cos , 2 . И наконец, 2 x 2 ck cos ck cos ik k ck2 cos2 k cl cos ik k ck cos il l k ck cos ik k ik cl cos 1 2 il l k c cos il cl sin il ik l l ck2 , k 2 y2 ck sin k ck sin ik k cl sin ik l ck sin il k ik c 3-27 ck2 sin 2 ck sin ik k так как sin 2 cos2 k cl sin il l k 1 2 ck2 , k 1/ 2 при равномерно распределенном аргументе 2 . Введем нормировку ik k ck2 , 1. При такой нормировке средняя принятая энергия равна энергии E , см. равенство (3.33). Итак, получено, что x и y гауссовские случайные величины, и x y xy 0, x2 y2 1 / 2. Это значит, что они независимы и одинаково распределены с параметрами (0,1/ 2) . Отсюда следует, случайный коэффициент передачи канала y 2 распределен по закону Релея. x2 Более общий случай, приводящий в итоге к замираниям, распределенным по закону Райса, возникает когда x и y распределены по гауссовскому закону, независимы, имеют одинаковые дисперсии, но ненулевые математические ожидания. В этом случае можно положить, что как и прежде x 2 x y / 2 , а ( x x) 2 (y y) 2 ) / 2 , где величина (1 y2 1 , но имеет смысл доли энергии сигнала, переданной по не рассеянной (регулярной) компоненте, 1 , (см. рис.3.15). При 0 имеет место канал с релевскими замираниями (нет регулярной компоненты), а при 1 – канал с АБГШ и случайной фазой (нет рассеянной компоненты, то есть в канале нет замираний) . “Облако” рассеивателей Рассеянная компонента принятого сигнала Приемник Передатчик Регулярая компонента принятого сигнала Рис.3.15. Модель канала с рассеянной и регулярной компонентами 3-28 3.8. Вероятность ошибки при передаче ЧМ сигналов по каналу с замираниями Рассмотрим i 0,1,2,..., q 1 , передачу ЧМ сигналов si (t ) 2E / T cos 2 f i t , t T, по каналу с замираниями. Частоты сигналов f i выбраны так, чтобы сигналы были ортогональны в усиленном смысле. Пусть был передан i й сигнал; на выходе канала с замираниями сигнал описывается как r (t ) где 2E / T cos(2 f i t ) n(t ), – случайный коэффициент передачи канала, фазовый сдвиг, 0 – случайный 0, 2 , n(t ) – белый гауссовский шум. Случайный фазовый сдвиг распределен равномерно в интервале [0,2 ] , а коэффициент передачи канала распределен по закону Райса. Случайный коэффициент передачи канала может быть представлен в виде x2 гауссовские с.в. с параметрами x y величина y2 , где x и y – независимые / 2 , а ( x x) 2 (y y) 2 (1 ) / 2 , где имеет смысл доли энергии сигнала, переданной по не рассеянной (регулярной) компоненте, 0 1. Оптимальный приемник для канала с замираниями совпадает в рассматриваемом случае с оптимальным приемником для канала с АБГШ и случайной фазой, рассмотренным ранее. Вероятность ошибки при передаче по каналу с замираниями может быть вычислена как Pe Pe ( ) , где Pe ( ) – вероятность ошибки при фиксированном значении коэффициента передачи канал , черта сверху означает усреднение по случайным параметрам канала. При фиксированном значении коэффициента передачи канала принятого сигнала равна 2 энергия E . Поэтому условная вероятность ошибки Pe ( ) равна вероятности ошибки при передаче ЧМ сигналов по каналу со случайной фазой при замене E на 2 E , то есть (см. формулу (3.12) ) q 1 l q 1 Pe ( ) C ( 1) l 1 l 1 1 1 l exp l 2 E l 1 N0 .` 3-29 Отсюда следует, что q 1 Cql 1 ( 1) l Pe l 1 1 1 1 l 2 l exp E l 1 N0 (3.34) . Рассмотрим среднее в выражении (3.34). Для него можно записать, что 2 l exp E l ( x2 y 2 )E l 1 N0 exp l 1 N0 l x2 E l 1 N0 exp exp y2E . l 1 N0 l (3.35) поскольку x и y независимы. Ранее приводилась следующая лемма (см равенство (3.11) ) . Лемма. Пусть x – гауссовская случайная величина , распределенная с параметрами (m, 2 ), – постоянная, такая что 1 exp( x 2 ) 2 1 2 exp 2 1/(2 m2 1 2 2 ) . Тогда . Применяя лемму к вычислению средних в (3.35) со значениями lE / N 0 (l 1) , m exp x2 E l 1 N0 l /2 , exp 2 ) / 2 , получаем, что (1 y2E l 1 N0 l 1 l 1 1 l (1 exp )E / N0 l E / N0 . 2(1 l l (1 ) E / N 0 ) Подстановка этого выражения в (3.35) и далее в (3.34) приводит к окончательному выражению q 1 Cql 1 ( 1)l Pe l 1 1 1 1 l l (1 )E / N0 exp l E / N0 . 1 l l (1 ) E / N 0 (3.36) Рассмотрим некоторые частные случаи. Пусть q 2 , тогда Pe Для двух крайних случаев 1 2 (1 )E / N0 0 и Pe exp E / N0 . 2 (1 ) E / N 0 ) (3.37) 1 имеем соответственно 1 , 2 E / N0 (3.38) и 3-30 Pe 1 e 2 E 2 N0 . (3.39) Сравнение выражений (3.38) и (3.39) показывает, что в канале с релеевскими замираниями (при 0 ) вероятность ошибки убывает с ростом отношения сигнал/шум очень медленно (обратно пропорционально). При отсутствии замираний (при сигнал/шум 1 ) вероятность ошибки убывает с ростом отношения гораздо быстрее (экспоненциально). Примерно такие же соотношения имеют место и для недвоичных сигналов. Графики вероятности ошибки для различных значений параметров показаны на рис.3.16–3.19. Pe, = 1.0 Pb, 10 = 1.0 10 -1 -1 10 10 -2 -2 10 10 -3 -3 10 10 -4 -4 10 10 q=2 q=4 q=8 q = 16 5 q=2 q=4 q=8 q = 16 10 E/N0, дБ 15 5 10 15 (E/N0 )bit, дБ Рис. 3.16. Вероятность ошибки при передаче ЧМ сигналов по каналу с АБГШ и случайной фазой ( 1) Графики, показанные на рис. 3.16 для параметра 1 , соответствуют случаю, когда вся передаваемая энергия сосредоточена в регулярной компоненте сигнала. В этом случае замирания отсутствуют и условия передачи совпадают с условиями передачи в канале с АБГШ и случайной фазой. Вероятность ошибки при этом быстро (экспоненциально) убывает с ростом отношения сигнал/шум. Рис. 3.17 иллюстрирует другой крайний случай, когда 3-31 0, что соответствует отсутствию регулярной компоненты принятого сигнала, то есть передаче по каналу с релеевскими замираниями. Вероятность ошибки в этих условиях убывает медленно (обратно пропорционально) с ростом отношения сигнал/шум. Pe, = 0.0 Pb, 10 = 0.0 10 -1 -1 10 10 -2 -2 10 10 -3 -3 10 10 -4 -4 10 10 q=2 q=4 q=8 q = 16 10 q=2 q=4 q=8 q = 16 20 30 E/N0, дБ 40 50 10 20 30 40 50 (E/N0 )bit, дБ Рис. 3.17. Вероятность ошибки при передаче ЧМ сигналов по каналу с релевскими замираниями ( 0) . На рис. 3.18 показаны зависимости для промежуточного случая, когда 0 в частности, для 1, 0.8 . Это соответствует передаче по каналу с райсовскими замираниями. Вероятность ошибки в этом случае тоже убывает медленно, но кривая проходит ниже, чем в канале с релеевскими замираниями. На рис.3.19 показаны графики зависимости вероятности ошибки от отношения сигнал/шум для сигналов двоичной ЧМ, передаваемых в каналах без замираний и в канале с замираниями. Из графиков следует, что вероятность ошибки в канале с замираниями убывает с ростом отношения сигнал/шум очень медленно по сравнению со случаем каналов без замираний. Это иллюстрирует тот факт, что обеспечение надежной передачи по каналу с 3-32 замираниями требует больших энергетических затрат и представляет серьезную проблему Pe, = 0.8 Pb, 10 = 0.8 10 -1 -1 10 10 -2 -2 10 10 -3 -3 10 10 -4 -4 10 10 q=2 q=4 q=8 q = 16 10 q=2 q=4 q=8 q = 16 20 30 40 50 10 E/N0, дБ 20 30 40 50 (E/N0 )bit, дБ Рис. 3.18. Вероятность ошибки при передаче ЧМ сигналов по каналу с райсовскими замираниями ( 0.8) . . Pe 10 -1 10 -2 10 -3 10 -4 10 -5 10 -6 q = 2, АБГШ q = 2, АБГШ + сл. фаза q = 2, Райс. замир., = 0.9 q = 2, Рел. замир. 10 -7 10 4 6 8 10 12 14 16 18 20 22 24 E/N0, дБ Рис. 3.19. Вероятность ошибки при передаче двоичных ЧМ сигналов в различных каналах 3-33 3.9. Передача с разнесением по каналу с замираниями. Перемежение Рассмотрим передачу двоичных ЧМ сигналов t T, i si (t ) 2E / T cos 2 f i t , 0,1, по каналу с релеевскими замираниями. Частоты сигналов f 0 и f1 выбраны так, чтобы сигналы были ортогональными в усиленном смысле. Вероятность ошибки в этом случае равна Pe 1 . 2 E / N0 Это выражение показывает, что в канале с релеевскими замираниями вероятность ошибки убывает с ростом отношения сигнал/шум очень медленно (обратно пропорционально). Улучшить соотношение между величиной отношения сигнал/шум и вероятностью ошибки можно, если применить передачу с разнесением. Передача с разнесением состоит в том, что энергия передаваемого сигнала делится на L подканалам (ветвям частей и сигнал передается по L независимым разнесения). Независимость ветвей разнесения обеспечивается за счет перемежения. Ветви разнесения могут быть организованы: а) во временной области; в этом случае имеет место временное разнесение; б) в частотной области; в этом случае имеет место частотное разнесение; в) во временной и в частотной области; в этом случае имеет место частотно-временное разнесение. Во всех случаях при передаче с разнесением в L раз снижается удельная скорость передачи. Действительно, удельная скорость определяется Vу д V /W , как V – скорость передачи, W – полоса частот. При использовании двоичной ЧМ и передаче без разнесения V 1 / T , а W 3 / T , то есть Vу д 1 / 3 . При L -кратном разнесении имеем Vу д 1 /(3L) , так как при временном 3-34 разнесении скорость уменьшается в L раз, а при частотном разнесении в L раз расширяется полоса частот. Пусть сигнал, приходящий в приемник по l -ой ветви разнесения, l 1,2,...,L , имеет вид r (l ) (t ) i 0,1 . (l ) 2( E / L) / T cos(2 f i t (l ) ) n (l ) (t ) , (3.40) В этом равенстве учтено, что энергия сигнала разделена поровну между L ветвями разнесения. Обозначим через rci(l ) скалярное произведение сигнала принятого в l -й ветви разнесения и 2 / T cos(2 f i t ) , а через произведение сигнала принятого в l -й ветви разнесения и rsi(l ) 2 / T sin(2 f i t ) , i L l 1,2,...,L . Пусть приемник вычисляет величины скалярное ( (rc(0l ) ) 2 X0 0,1 , (rs(0l ) ) 2 ) , и l 1 L ( (rc(1l ) ) 2 X1 (rs(1l ) ) 2 ) и формирует решение по правилу l 1  i Приемник, 0, если X 0 X1, 1, если X 0 X1 . принимающий решение по такому критерию, называется приемником с аналоговым квадратичным сложением. Вероятность ошибки вычисляется как обычно для двоичных равновероятных сигналов Pe (Pe (0) Pe (1)) / 2. Найдем условную вероятность Pe (0) . Она определена как Pe (0) Pr[ X1 (3.41) X 0 | 0]. При передаче нулевого сигнала имеют место соотношения L L (( rc(0l ) ) 2 X0 (rs(0l ) ) 2 ) l 1 (( x (l ) E / L nc(l0) ) 2 ( y (l ) E / L ns(l0) ) 2 ) , (3.42) l 1 L L (( rc(1l ) ) 2 X1 l 1 (rs(1l ) ) 2 ) (( nc(1l ) ) 2 (ns(1l ) ) 2 ) , (3.43) l 1 где x (l ) , y (l ) – гауссовские компоненты коэффициента передачи канала в l -й ветви разнесения (l ) , nci(l ) , n si(l ) – скалярные произведения шума в l -й ветви 3-35 разнесения и cos и sin i -й частоты соответственно, i 0,1 , l 1,...,L . В релеевском канале с независимыми ветвями разнесения x (l ) , y (l ) – независимые гауссовские с.в. с нулевым средним и дисперсией 1 / 2 , nci(l ) , n si(l ) – независимые от них и независимые между собой гауссовские с.в. с нулевым средним и дисперсией N 0 / 2 . Чтобы оценить вероятность (3.41) применим границу Чернова (см. Приложение 5) Pr[ X 1 где X 0 | 0] exp( ( X 1 – параметр оценки Чернова, X0)) , 0 , черта сверху означает усреднение по всем случайным величинам, входящим в выражение. Используя определения (3.42) и (3.43), получим, что L Pe (0) exp( ( x (l ) E / L nc(l0) ) 2 ) exp( ( y (l ) E / L ns(l0) ) 2 ) l 1 L exp( (nc(1l ) ) 2 ) exp( (ns(1l ) ) 2 ) . (3.44) l 1 При записи этого выражения учтена независимость ветвей разнесения и независимость шума от случайного коэффициента передачи канала. Ранее приводилась следующая лемма (см. равенство (3.11)). Лемма. Пусть x – гауссовская случайная величина, распределенная с параметрами (m, 2 ), – постоянная, такая что exp( x 2 ) 1 1 2 2 exp 2 1/(2 m2 1 2 ) . Тогда . 2 Применяя лемму к вычислению средних в (3.44) со значениями m 0, 2 exp( , ( E / L N 0 ) / 2 , получаем, что ( x (l ) E / L nc(l0) ) 2 ) exp( ( y (l ) E / L ns(l0) ) 2 ) Далее, применяя эту же лемму со значениями exp( (nc(l0) ) 2 ) exp( (ns(l0) ) 2 ) 1 . (E / L N0 ) 1 , m 0, 1 1 N0 2 N 0 / 2 , получаем . 3-36 Здесь возникает дополнительное ограничение на параметр границы Чернова: 1 / N 0 , следующее из условия леммы. Подстановка этих выражений в (3.44) дает оценку Pe (0) где 1 (E / L 1 L 1 N0 ) 1 , N0 1/ N 0 . Отыскание значения параметра (3.45) , оптимизирующего оценку (3.45), сводится к максимизации знаменателя, то есть к решению уравнения d (1 d ( E / L N 0 ) ) (1 N0 ) 0 , или ( E / L N 0 )(1 N 0 ) (1 ( E / L N 0 )) N 0 откуда находим оптимальное значение параметра 1 E/L . 2 (E / L N 0 )N 0 Подставляя это значение в (3.45) получаем наиболее точную границу Чернова для вероятности Pe (0) L Pe (0) Упростив (3.46) 1 1 E E/L 1 1 2N0 L 2( E / L N 0 ) . (3.46) и приняв во внимание, что в данном случае условная вероятность ошибки совпадает с безусловной, имеем окончательное выражение L Pe E 4 LN 0 E LN 0 1 2 . (3.47) 2 Графики верхней границы вероятности ошибки, вычисленной по формуле (3.47), показаны на рис.3.20. Для L 1 на рис. 3.20 приведен график точного выражение для вероятности ошибки 3-37 10 -1 10 -2 10 -3 10 -4 10 -5 10 L= L= L= L= L= L= -6 10 -7 10 8 1 2 5 10 15 20 10 12 14 16 18 20 22 24 26 28 30 E/N0, дБ Рис.3.20 Вероятность ошибки при двоичной передаче с разнесением в канале с релеевскими замираниями Можно показать, что для каждого значения отношения сигнал/шум существует оптимальное число ветвей разнесения. Оно может быть найдено численно и оказывается равным L (E / N 0 ) / 3 . Если подставить это значение в (3.47), то получится выражение для оценки вероятности ошибки, оптимизированной по числу ветвей разнесения. Оно имеет вид Pe e 0.149 E N0 . Отсюда следует, что в канале с релеевскими замираниями при передаче с оптимальным разнесением вероятность ошибки убывает с ростом отношения сигнал/шум экспоненциально. Напомним, что в канале без замираний вероятность ошибки равна Pe 1 e 2 E 2 N0 . Сравнение этих выражений показывает, что в канале с релеевскими замираниями и оптимальным разнесении проигрыш в отношении сигнал/шум 3-38 составляет величину около 5.25 дБ (= 10 log10 (0.5 / 0.149 ) ) и не возрастает бесконечно, как при передаче без разнесения. Серьезным недостатком при передаче с оптимальным разнесением является сильное убывание скорости передачи (и/или увеличение полосы частот) с ростом отношения сигнал/шум. Легко показать, что удельная скорость передачи меняется как Vу д 1 /(3L) ( E / N 0 ) 1 . Это ухудшение удельной скорости передачи в L раз (т.е. в (E / N0 ) / 3 раз при оптимальном разнесении) зачастую препятствует применению оптимального разнесения на практике. На рис.3.21 приведены иллюстрирующие графики. Pe , Vуд 10 -1 10 -2 10 -3 10 -4 10 -5 10 -6 Pe при oпт. разнес. Vуд при опт.разнеc. Pe, АБГШ + сл фаза Vуд без разн. 10 -7 10 4 6 8 10 12 14 16 18 20 E/N0, дБ Рис.3.21 Вероятность ошибки и удельная скорость передачи при передаче по релеевскому каналу с оптимальным разнесением и при передаче по каналу без замираний 3-39 3.10. Сравнительная характеристика методов передачи в радиоканалах Рассмотрим передачу двоичных сигналов si (t ) , 0 t T , i 0,1, по каналам, которые могут быть заданы следующими моделями: - канал с АБГШ; - канал с АБГШ и случайной фазой; - канал с релеевскими замираниями. Эти модели могут использоваться для описания условий передачи по различным радиоканалам. В рамках перечисленных моделей могут использоваться различные виды модуляции и приема, рассмотренные в предыдущих разделах курса. В таблице 3.1 приводятся основные характеристики некоторых методов передачи применительно к перечисленным моделям. На рис.3.22 приведены иллюстрирующие графики. 10 АБГШ, ФМ АБГШ, ЧМ АБГШ + сл.фаза, ОФМ АБГШ + сл.фаза, ЧМ Замир., ЧМ Замирания, ЧМ, разнесение, L=5 Замирания, ЧМ, опт. разнесение -1 10 -2 10 -3 10 -4 10 -5 10 -6 10 -7 10 5 10 15 20 25 30 35 40 45 E/N0, дБ Рис.3.22. Зависимость вероятности ошибки Pe от отношения сигнал/шум для различных каналов и видов модуляции, q 2 . 3-40 Таблица 3.1 Основные характеристики некоторых схем двоичной передачи Канал, Вид модуляции, прием АБГШ, ФМ, когерентный прием АБГШ, ЧМ, когерентный прием Вероятность ошибки, Pe Q( 2E / N 0 ) АБГШ + сл.фаза, (медленно изменяющаяся), ОФМ, некогерентный прием Релеевские замирания, ЧМ, Некогерентный прием Релеевские замирания, ЧМ, некогерентный прием, L-кратное разнесение 1 e 2 1 e 2 Релеевские замирания, ЧМ, некогерентный прием, оптимальное разнесение, ( L (E / N0 ) / 3 ) E N0 1 2 E / N0 L E 41 LN 0 2 e 0.149E / N0 1/2 1 дБ по сравнению с ЧМ в канале с АБГШ; 4 дБ по сравнению с ФМ в канале с АБГШ 1 дБ по сравнению с ФМ в канале с АБГШ E 2 N0 E LN 0 Удельная скорость передачи, Vу д З дБ по сравнению с ФМ в канале с АБГШ Q( E / N 0 ) АБГШ + сл.фаза, ЧМ, Некогерентный прием Проигрыш в отношении сигнал/шум, дБ 2 проигрыш при , по E / N0 сравнению с ЧМ в канале без замираний проигрыш при , по E / N0 сравнению с каналом без замираний, но медленнее, чем при отсутствии разнесения проигрыш около 5.25 дБ по сравнению с ЧМ в канале без замираний 1/3 1/3 1/2 1/3 1/(3L) 1 /(E / N 0 ) 3-41 3.11. Каналы с межсимвольной интерференцией. Рассмотрим передачу по каналу с линейным фильтром, схема которого показана на рис 3.23. Входной сигнал Выходной сигнал g (t ) + АБГШ Рис.3.23 Общая схема передачи по каналу с линейным фильтром Здесь g(t ) – импульсная переходная характеристика фильтра, описывающего канал, n(t ) – аддитивный белый гауссовский шум. Межсимвольная интерференция возникает, когда сигнал проходит через линейный фильтр, частотная характеристика которого отлична от константы в полосе частот сигнала. Предположим, что для передачи используются противоположные сигналы вида s0 (t ) s(t ) , s1 (t ) s(t ) , двоичные где s (t ) – некоторая сигнальная функция, заданная на интервале [0, T ] . Рассмотрим передачу последовательности сигналов. Она может быть записана как u (l ) s(t lT ) , s(t , u) l где величина u (l ) 1 однозначно определяется значением передаваемого двоичного символа по правилу 0 1, 1 1 , а u – последовательность величин u (l ) . Положим, что длина передаваемой последовательности равна 2 N и индекс l меняется в пределах от u (u ( N) ,u( N 1) N до N 1 , то есть ..., u ( 2) , u ( 1) , u (0) , u (1) , u ( 2) ,..., u ( N 1) ) . 3-42 Обозначим сигнал на выходе фильтра канала (отклик канала на последовательность s (t , u ) ) как x(t, u) . Очевидно, что x(t, u) s(t, u) g(t ) , где – обозначение свертки, или x(t , u) s(t u (l ) s(t , u) g ( ) d u (l ) h(t lT ) , lT ) g ( )d l где h(t ) s(t l s(t ) g (t ) . Иначе говоря, функция h(t ) представляет ) g ( )dt собой отклик фильтра канала на входной сигнал s (t ) . Функция h(t ) может также рассматриваться как импульсная переходная характеристика пары “модулятор–фильтр канала”. Пример. Пусть сигнальная функция s (t ) , задана в виде прямоугольного импульса. Рассмотрим два примера канала: с относительно широкой и относительно узкой полосой, то есть с относительно слабой и относительно сильной интерференцией соответственно. На рис.3.24 приведены графики импульсной переходной характеристики канала g (t ) для двух примеров каналов. Там же показаны графики функции h(t ) для этих каналов. Канал с широкой полосой ( слабая интерференция) g(t) 10 8 0.8 6 0.6 4 0.4 2 0.2 s(t) h(t) = s(t)*g(t) 1 1 2 3 4 1 2 t/T 3 t/T 4 5 Канал с узкой полосой (сильная интерференция) 0.6 g(t) 0.5 1 0.4 0.8 0.3 0.6 0.2 0.4 0.1 0.2 1 2 3 t/T 4 s(t) h(t) = s(t)*g(t) 1 2 3 t/T 4 5 Рис.3.24 Примеры импульсной переходной характеристики канала g (t ) и импульсного отклика пары “модулятор-фильтр канала” h(t ) . 3-43 Видно, что при слабой интерференции функция h(t ) слабо отличается от сигнальной функции s (t ) . Иными словами, широкополосный канал вносит небольшие линейные искажения, приводящие к слабой межсимвольной интерференции.□ Сигнал на выходе канала с интерференцией может быть записан как N 1 r (t ) x(t , u) n(t ) l u (l ) h(t lT ) n(t ), t , (3.48) N где n(t ) – аддитивный белый гауссовский шум (АБГШ) со спектральной плотностью мощности N 0 / 2 . Пример (продолжение). На рис.3.25 и 3.26 показано влияние фильтра канала на переданную последовательность x(t, u) в случае слабой и сильной интерференции соответственно. Входная сигнальная последовательность 1 0.5 -0.5 -1 t/T 5 10 15 20 25 30 20 25 30 20 25 30 Отклики канала на отдельные сигналы из последовательности 1 0.5 -0.5 -1 t/T 5 10 15 Отклик канала на сигнальную последовательность 1 0.5 -0.5 -1 t/T 5 10 15 Рис.3.25. Влияние фильтра канала на передаваемую последовательность. Случай слабой интерференции. 3-44 Входная сигнальная последовательность 1 0.5 -0.5 -1 t/T 5 10 15 20 25 30 20 25 30 20 25 30 Отклики канала на отдельные сигналы из последовательности 1 0.5 -0.5 -1 t/T 5 10 15 Отклик канала на сигнальную последовательность 1 0.5 -0.5 -1 t/T 5 10 15 Рис.3.26. Влияние фильтра канала на передаваемую последовательность. Случай сильной интерференции. Каналы со слабой и с сильной интерференцией определены так же, как в начале примера (см. рис. 3.24). Видно, что в канале со слабой интерференцией отклик канала практически совпадает последовательностью (см. рис.3.25). с входной сигнальной В канале с сильной интерференцией различие между входной последовательностью и откликом на нее становится очень заметным. Отметим, что графики, приведенные на рис.3.25 и 3.26 , не содержат аддитивного шума. □ 3-45 3.12. Оптимальный прием в канале с межсимвольной интерференцией Рассмотрим задачу построения оптимального приемника для канала с интерференцией. Поскольку при прохождении по каналу с интерференцией символы сигнальной последовательности оказывают взаимное влияние, то естественным становится рассмотрение оптимального приема последовательности сигналов, а не одиночного сигнала, как это делалось ранее. Обратимся вновь к равенству (3.48). Нетрудно заметить, что число различных функций конечно x(t , u) и равно числу различных последовательностей u , то есть равно 2 2 N . Пусть x(u) и r – коэффициенты разложения функций x(t , u) и r (t ) по некоторому ортогональному базису, размерность которого ограничена Решение по сверху величиной 2 2 N . максимуму правдоподобия относительно последовательности u формируется по правилу u) = arg max w(r | x(u)), где w(⋅ | ⋅) – условная плотность вероятности, u задающая аддитивный шум, действующий в канале. Для канала с АБГШ это правило может быть переписано 2 2 ) u = arg min r − x(u) = arg min ( x(u) − 2( x(u), r ) ) . u u в виде Используя свойства разложения ∞ сигналов по ортогональному базису, можно записать, что x(u) = ∫−∞ x 2 (t , u)dt и 2 ∞ ( x(u), r ) = ∫ x(t , u)r (t )dt . Тогда −∞ ∞ ⎛∞ 2 ⎞ ) ⎜ u = arg min⎜ ∫ x (t , u)dt − 2 ∫ x(t , u)r (t )dt ⎟⎟. u −∞ ⎝ −∞ ⎠ (3.49) Рассмотрим по отдельности интегралы из правой части (3.49). ∞ ∞ N −1 N −1 −∞ −∞ k = − N j =− N 2 ∫ x (t , u)dt = ∫ ∑ u ( k ) h(t − kT ) ∑ u ( j ) h(t − jT ) dt = = N −1 ∞ N −1 ∑ ∑u k =− N j =− N (k ) u ( j) ∫ h(t − kT )h(t − jT )dt = −∞ N −1 N −1 ∑ ∑u k =− N j =− N (k ) hk − j u ( j ) = uHu T , где 3-46 hk h(t kT)h(t j jT )dt hj k , (3.50) а H – матрица 2 N 2 N с элементами hk j , или в явном виде H [hk j ] h0 h1 h2 ... h2 N h1 h2 h0 h1 h1 h0 ... h2 N ... h2 N ... ... ... ... ... ... h0 h2 N h2 N 1 2 h2 N 3 1 2 3 . Величины hi называются коэффициентами межсимвольной интерференции. Далее имеем N 1 k где r ( k ) N 1 u ( k ) h(t kT)r (t )dt x(t , u)r (t )dt N k r (t )h(t kT )dt, и (r ( N) ,r( N 1 u ( k ) r (t )h(t kT)dt N 1) N r ( k )u ( k ) k ( , u) N ,..., r ( N 1) ) . Для того, чтобы дать интерпретацию величины r (k ) рассмотрим свертку r (t ) и некоторой функции c (t ) , то есть, выражение вида r (t ) * c(t ) r ( )c (t )d . Легко видеть, что если положить c(t ) h( t ), то можно записать, что r (k ) r (t )h(t kT)dt r (t ) * h( t ) t kT . Это значит, что величины r (k ) представляют собой отсчеты сигнала на выходе фильтра, согласованного с h(t ) , взятые в моменты k T . Оптимальное решение относительно последовательности u , основанное на рассмотрении принятой последовательности , принимается по правилу  u arg max2 N ( uHu T u { 1} 2( , u) ) . (3.51) Схема приемника, реализующая прием последовательности, переданной по каналу с межсимвольной интерференцией, согласно (3.51), показана на рис.3.27. 3-47  u r (k ) r (t ) Формирование последовательности отсчетов h( t ) Вычисление  u (k ) {r } t Фильтр, согласованный с функцией h(t ) arg max2 N ( uHu T 2( , u)) u { 1} kT Рис.3.27. Схема оптимального приема последовательности при передаче по каналу с межсимвольной интерференцией Для величин hi , определенных равенством (3.50), справедливо равенство h i . Предположим, что hi hi 0 при i L , где L N . Это означает, что интерференция распространяется на конечное число соседних символов. При таком предположении матрица H имеет вид H h0 h1 ... h1 h0 h1 ... ... ... ... ... ... ... .. h1 h0 h1 ... ... h1 h0 h1 ... ... h1 h0 h1 ... ... h1 h0 h1 .... .... h1 h0 h1 ... ... h1 h0 h1 ... ... h1 h0 h1 ... ... ... ... ... ... ... ... h1 h0 h1 ... ... h1 h0 h1 ... ... ... ... ... ... ... h1 h0 h1 ... h1 h0 hL 2 hL 1 hL 2 hL 1 hL hL 2 hL 1 2 hL 2 hL 1 ... hL 1 hL 2 hL hL 2 hL 1 ... ... 1 ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... hL 2 hL 1 hL 2 hL 1 hL 2 hL 1 hL 2 hL 1 hL 2 hL 1 hL 2 hL 1 hL 2 hL hL 2 hL 1 ... ... ... ... ... hL ... ... ... ... ... ... ... ... hL 2 hL 2 hL 1 ... .... ... ... ... hL 1 hL 2 1 hL 2 hL 1 hL 2 1 hL 2 hL 1 hL 2 3-48 Ввиду симметричности матрицы H квадратичная форма uHu T в (3.51) может быть представлена в виде удвоенной суммы слагаемых, относящихся к верхней треугольной матрице, сложенной с суммой слагаемых по диагонали, то есть N 1 uHu T k N j N 1 u ( k ) hk j u ( j ) N N 1 2 k k 1 N j N 1 u ( k ) hk j u ( j ) N k (u ( k ) ) 2 h0 N N 1 N 1 (u ( k ) ) 2 h0 k Поскольку u (k ) 0 при k N , и hi 0 при i (u ( k ) ) 2 h0 2u ( k ) N 1 uHu T k k N hi u ( k i ) . i 1 L , то L 1 2r ( k ) u ( k ) 2( , u) N k N u (k ) 2 N hi u ( k i) i 1 N 1 m(r ( k ) ; u ( k ) , u ( k 1) ,..., u ( k k L 1) ), (3.52) N где использовано обозначение L 1 m(r ( k ) ; u ( k ) , u ( k 1) ,..., u ( k L 1) 2r ( k ) u ( k ) ) (u ( k ) ) 2 h0 2u ( k ) hi u ( k i) . (3.53) i 1 Из формулы (3.52) следует, что  u N 1 arg max2 N u { 1} k m(r ( k ) ; u ( k ) , u ( k 1) ,..., u ( k L 1) ). (3.54) N Максимизация в правой части равенства (3.54) соответствует максимизации суммы слагаемых, каждое из которых зависит от текущего значения отсчета на выходе согласованного фильтра r (k ) , текущего значения переданного символа u (k ) , и L 1 предыдущих значений переданных символов u (k 1) ,..., u (k L 1) . Пример (продолжение). Вычислим величины h0 , h1 ,..., hL 1 для каналов с сильной и слабой интерференции. На рис. 3.28 они показаны в графической форме. Из этих графиков следует, что можно принять L 1 для канала со слабой интерференцией и L 3 для канала с относительно сильной интерференцией. 3-49 hi, слабая интерференция hi, сильная интерференция 1 1 0.8 0.8 0.6 0.6 0.4 0.4 0.2 0.2 2 4 6 2 4 i 6 i Рис.3.28. Коэффициенты интерференции для каналов с относительно слабой и относительно сильной интерференцией Заметим, что значение L 1 означает отсутствие интерференции. Матрицы H для этих двух случаев имеют вид H h0  h0 0  h0        h0 и H h0 h1 h2  h1 h0 h1 h2  h2 h1 h0 h1 h2  h2 h1 h0 h1 h2           h2 h1 h0 h1 h2  h2 h1 h0 h1  h2 h1 h0 соответственно. Отсюда следует, что выражение (3.53) принимает вид m(r ( k ) ; u ( k ) , u ( k 1) ,..., u ( k L 1) ) m(r ( k ) ; u ( k ) ) 2r ( k ) u ( k ) (u ( k ) ) 2 h0 2r ( k ) u ( k ) h0 для канала со слабой интерференцией, и 3-50 m(r ( k ) ; u ( k ) , u ( k −1) ,..., u ( k − L +1) ) = m(r ( k ) ; u ( k ) , u ( k −1) , u ( k − 2 ) ) = = 2r ( k ) u ( k ) − (u ( k ) ) 2 h0 − 2u ( k ) (h1u ( k −1) + h2 u ( k −2 ) ) = 2r ( k ) u ( k ) − h0 − 2u ( k ) (h1u ( k −1) + h2 u ( k −2 ) ) для канала с сильной интерференцией. □ Назовем набор предыдущих L − 1 значений (u ( k − L +1) ,..., u ( k −1) ) состоянием некоторого конечного автомата. Состояния (u ( k − L+1) ,..., u ( k −1) ) и (u ( k − L + 2) ,..., u ( k ) ) являются, очевидно, смежными во времени. Нетрудно заметить, что величина m(r ( k ) ; u ( k ) , u ( k −1) ,..., u ( k − L +1) ) , зависящая от величин u ( k ) , u ( k −1) ,..., u ( k − L +1) , соответствует переходу (u ( k − L+1) ,..., u ( k −1) ) → (u ( k − L + 2) ,..., u ( k ) ) . Пример (продолжение). Для рассматриваемого случая, когда L = 3 имеются следующие переходы (u ( k −2) , u ( k −1) ) → (u ( k −1) , u ( k ) ) . Поскольку величины u (l ) = ±1 для всех l , то пары величин, или состояния, (u ( l −1) , u ( l ) ) могут принимать одно из четырех значений: (+1,+1), (+1,–1), (–1,+1) и (–1,–1). Все возможные переходы из некоторого состояния в смежное с ним, то есть переходы вида (u ( k −2) , u ( k −1) ) → (u ( k −1) , u ( k ) ) , изображены на рис. 3.29. (u ( k −1) , u ( k ) ) (u ( k −2 ) , u ( k −1) ) ( +1,+1) ( +1,+1) ( −1,+1) ( −1,+1) ( +1,−1) ( +1,−1) ( −1,−1) ( −1,−1) Рис.3.29. Возможные переходы (u ( k −2) , u ( k −1) ) → (u ( k −1) , u ( k ) ) , L = 3 Переходы, показанные на рис.3.29, относятся к случаю, когда имеется четыре состояния, то есть, для L = 3 . В общем случае число состояний равно 2 L −1 . □ Если изобразить последовательность переходов, то получится граф, называемый решеткой. Каждому переходу, или ребру, (u ( k − L +1) ,..., u ( k −1) ) → (u ( k − L + 2 ) ,..., u ( k ) ) поставим в соответствие в решетке значение m(r ( k ) ; u ( k ) , u ( k −1) ,..., u ( k − L +1) ) и назовем его метрикой ребра. Любой путь в решетке, начинающийся в начальном узле, соответствует последовательности величин 3-51 u (l ) , l .. 2, 1,0,1,2,... . Поэтому максимизация в правой части (3.54) может быть интерпретирована как поиск пути с максимальной накопленной метрикой в решетке с 2 L 1 состояниями, аналогичной кодовой решетке сверточного кода. Отыскание последовательности, имеющей максимальное значение метрики (3.54), может быть выполнено с использованием алгоритма Витерби. Пример (окончание). Для двух рассматриваемых случаев имеем решетки следующего вида (см. рис.3.30). … … (а) (u ( k 2) ,u ( k 1) ) +1+1 -1+1 … … +1-1 -1-1 (б) Рис.3.30. Решетки для каналов со слабой (а) и сильной интерференцией (б). Для канала со слабой интерференцией (практически без интерференции) “решетка” имеет только одно состояние. Это означает, что зависимости от предыдущих символов нет, и оптимальный прием состоит в одиночном приеме каждого сигнала. В этом случае понятие решетки вообще не нужно использовать для описания процедуры приема. В канале с относительно сильной интерференцией решетка имеет четыре состояния, задающие четыре возможных значения пары предыдущих символов (u (k 2) , u (k 1) ) , то есть (+1,+1), (+1,–1), (–1,+1) и (–1,–1). Алгоритм оптимального приема в этом случае может быть реализован с использованием алгоритма Витерби. Метрикой ребра, соединяющего узлы (u (k 2) , u (k 1) ) и (u ( k 1) , u ( k ) ) , будет значение, вычисляемое по формуле (3.54).□ 3-52 4. Приложения Приложение 1 Метод ортогонализации Грама – Шмидта Метод ортогонализации Грама – Шмидта позволяет ортогональный базис по множеству функций (сигналов). строить Пусть имеется множество сигналов {si (t )} , i = 0,1,..., q − 1 . Требуется построить множество ортонормированных функций (базис) {ϕ j (t )} , j = 1,2,..., D . Не теряя общности, можно считать, что si (t ) ≠ 0 для всех i . Это условие означает, что среди сигналов нет тождественно равных нулю. Построение базиса можно описать в виде алгоритма. Исходными данными для этого алгоритма служат сигналы s0 (t ),..., sq−1 (t ) , а в результате формируется множество ортонормированных функций {ϕ j (t )} , (базис) j = 1,2,..., D , D ≤ q . Алгоритм построения ортонормированного базиса представлен ниже: ϕ1 (t ) ← s0 (t ) / s0 (t ) ; D ← 1; for i = 1,2,..., q − 1 D ψ (t ) ← si (t ) − ∑ ( si (t ),ϕ j (t ) ) ϕ j (t ); j =1 if ψ (t ) ≠ 0 D ← D + 1; ϕ D (t ) ← ψ (t ) / ψ (t ) ; end end Поясним этот алгоритм. В качестве первой базисной функции выбирается любой сигнал, например, s0 (t ) , деленный на норму этого сигнала. Этим достигается выполнение условия ϕ1 (t ) = 1 . Далее в цикле последовательно рассматриваются остальные сигналы и формируются базисные функции. Для этого вычисляется вспомогательная функция ψ (t ) как разность очередного 4-1 сигнала и его разложения по построенным к этому моменту базисным функциям. Если функция (t ) не равна тождественно нулю, базисная функция вычисляется как (t ) . (t ) / то очередная Процесс оканчивается, если исследованы все сигнальные функции. В результате выполнения алгоритма формируется D q базисных функций. Равенство D q выполняется только в случае, если все сигналы из множества {si (t )} , i 0,1,...,q 1 , оказываются линейно независимыми. Очевидно, что все построенные таким образом функции j 1,2,...,D , D q , будут нормированными. Нетрудно показать, что j (t ) , они при этом будут ортогональными. Рассмотрим пример. Пусть сигнальное множество содержит следующие четыре s1 (t ) функции, заданные ) , s2 (t ) 4 cos(2 (3 / T ) на интервале [ 0, T ] , / 4) , s3 (t ) 3cos(2 (3 / T ) s0 (t ) 2 sin(2 (3 / T )) , (3 / 2) cos(2 (3 / T ) 5 / 6) , и T – параметры. Графики этих сигналов показаны на рис.П.1.1 для 3 /8 . значений T 1 и где s 0(t) s 1(t) 4 4 2 2 -2 -2 -4 -4 0.2 0.4 0.6 0.8 1 0.2 0.4 s 2(t) 4 2 2 -2 -2 -4 -4 0.2 0.4 0.6 0.8 1 0.8 1 s 3(t) 4 0.6 0.8 1 0.2 0.4 0.6 Рис.П.1.1. Графики сигнальных функций s0 (t ), s1 (t ), s2 (t ), s3 (t ) 4-2 Последовательно выполняя шаги алгоритма, получаем: 1. Выражение для функции 1 T поскольку s0 (t ) 1 (t ) имеет вид (t ) s0 (t ) / s0 (t ) s0 (t ) 2 dt 2 / T sin( (П.1.1) (3 / T )t ), 2T . 2. Далее, применяя тождество cos(a b) cosa cosb sin a sin b к выражению для сигнала s1 (t ) , легко вычисляем, что ( s1 , 1 ) T s1 (t ) 1 (t )dt 2 2T sin . Отсюда следует, что разностная функция на этом шаге алгоритма равна (t ) s1 (t ) (s1 , 1 ) 1 (t ) Нетрудно вычислить, что (t ) (t ) / (t ) T (t ) 3 / 8 . Отсюда следует, что 2 4 cos( 4( cos( (t ) (3 / T )t (t ) 2 dt ) 4sin sin( (3 / T )t ). 6T cos . Далее будем считать, что 0 , и поэтому (3 / T )t 3 / 8) sin(3 / 8) sin( 2T cos 3 / 8 (3 / T )t )) (П.1.2) . 3. Рассмотрим функцию s2 (t ) и определим вид функции (t ) на этом шаге алгоритма. Функция (t ) для этого шага алгоритма определяется как (t ) s2 (t ) (s2 , 1 ) 1 (t ) (s2 , 2 ) 2 (t ) . (П.1.3) Используя выражения (П.1.1) и (П.1.2), после некоторых по сути несложных, но громоздких преобразований получаем, что (s2 , 1 ) 3 T / 2 и (s2 , 2 ) Подстановка этих значений в (П.1.3) в итоге приводит к равенству 3 T /2. (t ) 0 . Это равенство означает, что рассмотрение функции s2 (t ) не влечет увеличения числа базисных функций. 4. Осталось рассмотреть последнюю сигнальную функцию Разностная функция в этом случае равна (t ) s3 (t ) (s3 , 1 ) 1 (t ) (s3 , Здесь после вычислений получаем, что (s3 , 1 ) 3 6T / 8 и (s3 , 2 ) итоге вновь оказывается, что s3 (t ) . 2 ) 2 (t ) . 3 2T / 8 , и в (t ) 0 . Выполнение алгоритма на этом шаге заканчивается. 4-3 Рассмотрев таким образом сигнальные функции s0 (t ) , s1 (t ) , s2 (t ) и s3 (t ) , получаем, для их представления достаточно иметь две базисные функции и 2 1 (t ) (t ) , заданные равенствами (П.1.1) и (П.1.2) соответственно. Графики базисных функций показаны на рис.П.1.2. (t) (t) 1 2 4 4 3 3 2 2 1 1 -1 -1 -2 -2 -3 -3 -4 0.2 0.4 0.6 0.8 -4 1 0.2 0.4 0.6 0.8 1 Рис.П.1.2. Графики ортонормированных базисных функций 1 (t ), 2 (t ) Координаты сигнальных точек, соответствующие сигналам s0 (t ) , s1 (t ) , s2 (t ) s2 и s3 (t ) , (3 T / 2, 3 T / 2) , равны s3 ( 2T ,0) , s0 (3 6T / 8, 3 2T / 8) . ( 2 2T sin 3 / 8, 2 2T cos3 / 8) , s1 Множество сигнальных точек (сигнальное созвездие) для этих функций, полученное с использованием построенного базиса, показано на рис. П.1.3. 3 2 s1 1 s0 s3 -1 s2 -2 -3 -3 -2 -1 1 2 3 Рис.П.1.3. Множество сигнальных точек s0 , s1 , s 2 , s3 4-4 Приложение 2 Сигналы с непрямоугольными огибающими Двумерные сигнала, в частности сигналы КАМ и ФМ, представимы в виде si (t ) si1 1 (t ) si 2 где 1 (t ) , задающие 2 (t ) 2 (t ) 2 (П.2.1) (t ), – ортонормированные функции, si1 , si 2 – коэффициенты, конкретный сигнал. В частности, если 1 (t ) 2 / T cos 2 f 0t , 2 / T sin 2 f 0t , 0 t T , то сигнал si (t ) имеет вид отрезка гармонической функции длительности T с постоянной амплитудой. В общем случае функции 1 (t ) m(t ) cos 2 f 0t , образом, что Пусть M ( f ) 1 2 (t ) и 1 (t ) и 2 (t ) могут быть заданы как (t ) m(t ) sin 2 f 0t , где m(t ) – огибающая, выбранная таким 2 (t ) образуют ортонормированный базис, t . m(t ) , тогда спектр сигнала si (t ) равен Si ( f ) si1 (M ( f 2 f0 ) M ( f f 0 )) si 2 (M ( f 2j f0 ) M ( f f 0 )) . Очевидно, что спектр сигнала сосредоточен около несущей частоты f 0 , а его форма и ширина полосы частот определяются видом функции однозначно определяемой огибающей m(t ) . M( f ) Выбор огибающей m(t ) в виде кусочно–постоянной функции на интервале [0, T ] приводит к спектру вида sin x / x . Ширина полосы частот при этом равна W 2 /T . При другом выборе огибающей возможно сокращение полосы до величины 1 / T . В частности, это достигается путем применения огибающей вида sin x / x . В последующем рассмотрении используется функция sinc(x), которая связана с функцией sin x / x . Функция sinc(x) определена как sinc(x) sin x /( x) . Определим также функцию прямоугольного импульса 4-5 1, x rect( x) 1/ 2 0, в противном случае Графики этих функций показаны на рис. П.2.1 sinc(x) rect(x) 1.2 1.2 1 1 0.8 0.8 0.6 0.4 0.6 0.2 0.4 0.2 -0.2 -0.4 -5 x 5 -1 -0.5 x 0.5 1 Рис. П.2.1. Графики функций sinc(x) и rect(x) Рассмотрим некоторые свойства этих функций. 1. Четность функций. sinc(x) sinc( x) , rect(x) rect( x) . 2. Частные значения. sinc(0) 1, sinc(k ) 0 для k 3. Преобразование Фурье sinc(x) 1, 2, 3,... rect(y) . Доказательство. Вычисляя обратное преобразование Фурье от функции rect(y) , получаем 1/ 2 rect( y)e j 2 xy dy e j 2 xy dy 1/ 2 e j 2 xy j2 x 1/ 2 ej 1/ 2 x e 2j j x 1 x sin x x sinc(x) . □ 4. Произведение двух rect( ) функций: rect(x) rect(x) rect(x) . 5. Свертка двух sinc() функций: sinc(x) sinc(x) sinc(x) . Доказательство. Обозначим преобразование Фурье функции ( x) ( y) , то есть ( y) Пусть (y) ( y) . По определению sinc(x1 ) sinc(x x1 )dx1 . Используя теорему о свертке для преобразования Фурье и свойства 3 и 4, получаем ( y) ( x) sinc(x) sinc(x) . ( y) и sinc(x) rect(y) , то ( y) rect(y) rect(y) rect(y). Поскольку (x) = sinc(x) . □ 4-6 6. Автокорреляция функции sinc(x) : sinc(x) sinc(x x1 )dx sinc(x1 ) . Доказательство. Используя четность функции sinc() и свойство 5, получаем требуемое утверждение. □ 7. Функции k интервале ( , ( x) sinc(x k ) , k – целое, образуют ортонормированный базис на ) , то есть k ( x) l ( x)dx kl . Доказательство. k ( x) l ( x)dx sinc(x k ) sinc(x l )dx sinc(x) sinc(x k l )dx sinc(l k ) kl .□ 8. Связь с функцией интегрального синуса Si( ) . Функция интегрального синуса t определена как Si( t ) sin x / xdx . График функции Si( ) показан на рис. П.2.2. Si(x) 2 1.5 1 0.5 -0.5 -1 -1.5 -2 -30 -20 -10 x 10 20 30 Рис.П.2.2. График функции Si( x) t Выполняются равенства 1 sinc(x)dx Si( t ), sinc(t ) d 1 Si( t ) . dt Доказательство. t t sinc(x)dx sin x dx x x x dx y t 1 y 1 dy 1 sin y dy y 1 Si( t ). □ 9. Спектр отрезка функции sinc(x) . Пусть функция s (t ) определена как 4-7 ⎧sinc(t ), | t |< Ts / 2, s (t ) = ⎨ ⎩0, | t |≥ Ts / 2 . Этот сигнал представляет собой отрезок функции sinc(⋅) длительности Ts . Найдем спектр этой функции Легко S ( f ) ↔ s (t ) . заметить, что s (t ) = sinc(t ) rect(t / Ts ) , − ∞ < t < ∞ . Тогда используя теорему о свертке и учитывая, что rect(t / Ts ) ↔ Ts sinc( fTs ) , sinc(t ) ↔ rect( f ) , получаем, что ∞ f +1 / 2 −∞ f −1 / 2 S ( f ) = rect( f ) ∗ Ts sinc( fTs ) = Ts ∫ sinc( xTs ) rect( f − x)dx = Ts y = xTs = dy = Ts dx = dx = (1 / Ts )dy ( f +1 / 2 )Ts ∫ sinc( xT )dx = s 1 ∫ sinc( y)dy = π (Si(( f + 1 / 2)πT ) − Si(( f − 1 / 2)πT )). s s (П.2.2) ( f −1 / 2 )Ts Здесь в последнем переходе использовано свойство 8. Графики функций s (t ) и S ( f ) для различных значений Ts показаны на рис. П.2.3. Видно, что ростом значения Ts форма спектра приближается к прямоугольной, и в пределе спектр равен rect( f ) . □ 1.5 1.5 1.5 s(t), Ts = 5 s(t), Ts = ∞ s(t), Ts = 15 1 1 1 0.5 0.5 0.5 -0.5 -10 t -0.5 10 1.5 -10 t -0.5 10 1.5 S(f) 1 1 0.5 0.5 0.5 2 -0.5 -2 10 S(f) 1 f t 1.5 S(f) -0.5 -2 -10 f 2 -0.5 -2 f 2 Рис. П.1.3. Графики функций s (t ) и S ( f ) 4-8 Для формирования сигналов, si (t ) , определенных равенством (П.2.1) следующих с периодом T и занимающих полосу W 1/ T , выберем функции 1 (t ) и 2 (t ) следующим образом 1 2 где t , f 0 W / 2. (t ) (t ) (П.2.3) 2W sinc(Wt ) cos 2 f 0t , (П.2.4) 2W sinc(Wt ) sin 2 f 0t , Покажем, что 1 и (t ) 2 образуют (t ) ортонормированный базис 1. Ортогональность. Поскольку нечетная, то Следовательно, их 1 (t ) 2 нечетная (t ) – функция. 0. □ (t )dt 1 – 2 (f) 1 (t ) . Найдем выражение для 1 ( f ) . Поскольку W 1 rect( f / W ) , то sinc(Wt ) 1 2 (f) (t ) – четная функция, а произведение 1 (t ) 2 (t ) 2. Норма. Пусть 1 1 f f0 2W rect W W f f0 2W rect W W f f0 1 rect 2W W rect f f0 . W (П.2.5) Учитывая, что f 0 W / 2 и rect(x) 2 rect(x) , получаем, что откуда следует, что Для 2 (f) 2 (f) 1 2j 2 2 1 (f) 1 (t ) 2 dt f f0 1 rect 2W W 2 1 ( f ) df rect f f0 2 , W 1. (t ) имеем f f0 2W rect W W f f0 2W rect W W j f f0 1 rect 2W W rect f f0 W , (П.2.6) и 2 (f) 2 f f0 1 rect 2W W rect f f0 W 2 . 4-9 Следовательно 2 1. □ 2 (t ) 2 dt Поскольку, функции 2 ( f ) df 1 (t ) и 2 (t ) имеют бесконечную длительность, то при передаче сигналов вида (П.2.1) с периодом следования T 1/ W , неизбежно их перекрытие, иначе говоря, возможна межсимвольная интерференция. Для того, чтобы исключить влияния перекрытия сигналов во временной области должны выполняться условия ортогональности сдвигов функций 1 (t ) и 2 (t ) . Это значит, что для целых ненулевых k должны выполняться условия: 1) 1 (t ) 1 (t k / W )dt 0, 2) 2 (t ) 2 (t k / W ) dt 3) 0, 1 (t ) 2 (t k / W )dt 0. Докажем выполнение этих условий. Доказательство условия 1. Обозначим свертку Пусть 11 11 (f) 1 ( f ) – преобразование Фурье функции (f) Поскольку f f0 1 rect 2W W 2 11 (t ) 11 rect 11 (t ) четности функции 1 1 2 f0 W (t ) 1 ( x) 1 (t x)dx . (t ) . По теореме о свертке f f0 1 rect 2W W rect f f0 W . ( f ) и учитывая, что f rect получаем, что rect f 11 11 f0 W f 1 (We j 2 2W f0 W f 0t We j 2 We f0 sinc(Wt ), (П.2.7) j 2 f0 sinc(Wt ), (П.2.8) j 2 f 0t sinc(Wt ) We sinc(Wt )) sinc(Wt ) cos 2 f 0t. В силу (t ) имеем (t ) 1 (t k / W )dt 1 (t ) 1 (k / W t )dt 11 (kW ) sinc(k ) cos(2 f 0 k / W ) 0. □ Доказательство условия 2. Поступая аналогично предыдущему пункту, обозначим свертку Фурье функции 22 22 (t ) 2 ( x) 2 (t x)dx. Пусть 22 ( f ) – преобразование (t ) . По теореме о свертке 4-10 22 (f) 2 (f) f f0 1 j rect 2W W 2 rect f 2 f0 W f f0 1 rect 2W W Далее, принимая во внимание нечетность функции 2 rect f f0 W . (t ) и используя равенства (П.2.7) и (П.2.8), имеем 2 (t ) 2 (t k / W )dt 2 (t ) 2 (k / W t )dt 22 Доказательство условия 3. Пусть преобразование Фурье функции 12 (f) 1 (f) j 2 12 (kW ) sinc(k ) cos(2 f 0 k / W ) 0. □ 12 (t ) 1 ( x) 2 (t x)dx и 12 (f) – (t ) . По теореме о свертке (f) 1 f f0 rect 2W W rect f f0 W 1 f f0 rect 2W W j rect f f0 W f f0 1 rect 2W W Применяя обратное преобразование Фурье к функции 12 rect f f0 W . ( f ) , получаем с использованием равенств (П.2.7) и (П.2.8), что 12 (t ) j 1 (We j 2 f 0 sinc(Wt ) We 2W j 2 f0 sinc(Wt )) sinc(Wt ) sin 2 f 0t , и тогда 1 (t ) 2 (t k / W )dt 1 (t ) 2 (k / W t )dt 12 (k / W ) 0. □ Итак, получено, что сигналы вида (П.2.1), где базисные функции 2 1 (t ) и (t ) , определены равенствами (П.2.3) и (П.2.4), обладают следующими свойствами: – спектр сигналов, как следует из выражений (П.2.5) и (П.2.6), строго прямоугольный, локализован, около частоты f 0 и ширина его равна W . 4-11 – несмотря на то, что последовательно передаваемые сигналы перекрываются во времени (интерферируют), их влияние друг на друга в силу ортогональности сдвигов базисных функций отсутствует; минимальный временной сдвиг, при котором обеспечивается ортогональность, равен T 1/ W ; величина T имеет смысл периода следования сигналов. Поскольку на практике сигналы не могут иметь бесконечную длительность, то оценим влияние конечной длительности базисных функций 1 (t ) и 2 (t ) . Для этого рассмотрим функции вида ~ (t ) 1 1 (t ), иначе 0, ~ (t ) 2 2 Ts / 2 t Ts / 2 (t ), Ts / 2 t Ts / 2 иначе 0, , . Очевидно, что Пусть m(t ) ~ (t ) rect(t / T ) 2W sinc(Wt ) cos 2 f t , 1 s t , ~ (t ) rect(t / T ) 2W sinc(Wt ) sin 2 f t , 2 s t . 2W rect(t / Ts ) sinc(Wt ) и M ( f ) – преобразование Фурье функции m(t ) , m(t ) . По аналогии с выводом равенства (П.2.2) имеем M( f ) M( f ) 2W Ts sinc( fTs ) 2 Ts sinc(xTs ) rect(( x W y f ) / W )dx sinc((Wy f )Ts )dy (x x Wy 2 Ts sinc(xTs ) rect(( f W x) / W )dx f ) /W f 2W Ts sinc((Wy f )Ts ) rect( y )dy dx Wdy u (Wy 1/ 2 2W Ts 1 rect( f / W ) W f )Ts du WT s dy 1/ 2 dy du WT s 2 W 1 ( f W / 2 )Ts sinc(u )du ( f W / 2 )Ts 2 ( Si(( f W W / 2) Ts ) Si(( f W / 2) Ts ) ). То есть 4-12 M( f ) 1 2 ( Si(( f W W / 2) Ts ) Si(( f W / 2) Ts ) ) . (П.2.9) Используя свойства преобразования Фурье, получаем окончательно, что (f) 1 (M ( f 2 (f) 1 (M ( f 2j ~ 1 ~ 2 f0 ) M ( f f 0 )) , f0 ) M ( f f 0 )) , где функция M ( f ) определена равенством (П.2.9). Рассмотрим иллюстрирующий пример. Пусть несущая частота f 0 1800 Гц, модуляционная скорость Vмод 2400 Бод, длительность сигнала Ts = 0.004 с = 4 мс. Графики функций ~1 (t ) и ~2 (t ) и их амплитудных спектров показаны на рис. П.2.4 f0 =1800 Гц, W = 2400 Гц, T = 1/W с,T s = 0.004 с (t) 1 (t) 50 2 -50 -2 -1.5 -1 -0.5 0.5 1 1.5 2 t, c -3 x 10 0.02 | | 0.015 1 2 (f)| (f)| АЧХ канала (300..3400 Hz) 0.01 0.005 500 1000 1500 2000 2500 3000 3500 4000 4500 5000 f, Гц Рис. П.2.4. Графики функций ~1 (t ) и ~2 (t ) и их амплитудных спектров 4-13 Приложение 3 О моделировании передачи сигналов заданных отсчетами во временной области Пусть сигнал на выходе канала с АБГШ со спектральной плотностью мощности N 0 / 2 задается выражением (П.3.1) r (t ) si (t ) n(t ), где 0 t Ts , Ts – длительность сигнала, i 0,1,...,q 1 . Каждый сигнал si (t ) может быть представлен как линейная комбинация базисных ортонормированных функций D si (t ) sij j (t ) , (П.3.2) j 1 где D – размерность сигнального пространства. Отношение сигнал/шум определяется как E N0 1 1 N0 q q 1 (П.3.3) Ei , i 0 где Ei – энергия i -го сигнала. Для моделирования во временной области передачи по каналу с шумом, заданному выражением (П.3.1), представим принятый сигнал в виде последовательности отсчетов, взятых с интервалом r (l ) si(l ) t , то есть n(l ) , (П.3.4) где r (l ) r (l t ) , si(l ) sl (l t ) – отсчет сигнала на выходе канала и отсчет переданного сигнала соответственно, l 1,2,..., N s , Ts / Ns , а случайная t величина n (l ) учитывает влияние шума. Для канала с АБГШ n (l ) представляет собой гауссовскую случайную величину, и n (l ) 0, (n ( l ) ) 2 2 . При моделировании величин n (l ) требуется определить значение дисперсии отсчета 2 и связать его с отношением сигнал/шум (П.3.3). Рассмотрим получение этой зависимости. 4-14 Для дискретизированного сигнала можно указать разложение аналогичное равенству (П.3.2) D si( l ) D si (l t ) sij j (l t ) sij j 1 где (l ) j j (l ) j (П.3.5) , j 1 (l t ) – отсчет базисной функции. Выберем число отсчетов N s так, чтобы с приемлемой точностью выполнялись условия N (l ) k (l ) j t kj l 1 для всех N Ei l 1 j, k 1,2,...,D . ( si(l ) ) 2 t Энергия 1, k j 0, k j (П.3.6) дискретизированного . C использованием равенств показать, что Ei D (П.3.5) сигнала равна и (П.3.6) несложно 2 j 1 ij s . Ts Случайная величина n j , определенная как n j n(t ) j (t )dt, где n(t ) – белый гауссовский процесс, имеет гауссовское распределение с параметрами 0 и nj n 2j ( N 0 / 2) j (t ) 2 (П.3.7) ( N 0 / 2) . Для базисной функции, заданной отсчетами, имеем Ts nj Ns n(t ) (l ) n(t ) l 1 ( l 1) l j (l t )dt n(t ) l 1 ( l 1) t l Ns t (l ) j dt l 1 t Ns t (l ) j (l ) j n(t )dt ( l 1) t (l ) , (П.3.8) l 1 n(t )dt – гауссовская случайная величина с нулевым средним и t ( l 1) l Ns t j (t )dt где l t дисперсией 2 (П.3.9) ( N0 / 2) t . При достаточно большом числе отсчетов N s , то есть, при малой длительности интервала t дискретизации, с приемлемой точностью выполняется равенство Ts nj Ns n(t ) j n(l ) (t )dt j (l t ) t , (П.3.10) l 1 4-15 где n(l ) – гауссовские случайные величины, определенные в равенстве (П.3.4). Из равенств Следовательно, (П.3.7), (П.3.8), (П.3.9) и (П.3.10) следует, что n(l ) 2 (n ( l ) ) 2 2 / 2 t ( N 0 / 2) / t (l ) t , откуда следует, что N0 / 2 2 t . . Тогда из формулы (П.3.3) получаем, что E N0 1 2 t 1 q q 1 Ei i 0 1 1 2 q q 1 Ns ( si(l ) ) 2 . i 0 l 1 Это значит, что для моделирования передачи с отношением сигнал/шум E / N0 нужно назначить 2 1 1 q q 1 Ns ( si( l ) ) 2 i 0 l 1 и использовать гауссовские псевдослучайные величины n (l ) с дисперсией 2 для моделирования выхода канала по формуле (П.3.4). 4-16 Приложение 4 Точное выражение для вероятности ошибки для КАМ В этом разделе выводится точное выражение для вероятности ошибки при передаче с использованием КАМ по каналу с АБГШ со спектральной плотностью мощности N 0 / 2 . Рассматривается случай, когда число сигналов q 2m , где m – четное, то есть q 4,16,64,256... и т.д. В этом случае сигнальное созвездие представляет собой полную решетку (см. рис.2.21) и имеются три типа конфигурации решающих областей как показано на рис. П.4.1. На рис. П.4.1 символом обозначено минимальное евклидово расстояние между сигналами (сигнальными точками). Заметим, что существуют конфигурации решающих областей, полученных путем поворота конфигурации типов 1 и 2 на 90, 180 и 270 градусов. Они, очевидно, эквивалентны в канале с АБГШ конфигурациям типа 1 и типа 2 соответственно и поэтому отдельно не рассматриваются. Тип 1 /2 Тип 2 /2 /2 Тип 3 Рис. П.4.1. Типы решающих областей Точка в сигнальном пространстве, соответствующая принятому сигналу, записывается как r s n , где s – сигнальная точка соответствующая переданному двумерному сигналу, n (n1 , n2 ) – гауссовский случайный вектор, определяемый шумом. Случайные величины n1 и n2 (компоненты вектора n ) 4-17 независимые и одинаково распределенные гауссовские случайные величины с нулевым математическим ожиданием и дисперсией N 0 / 2 . Рассмотрим вероятности ошибки при условии, что переданный сигнал имеет решающую область, относящуюся к одному из показанных на рис. П.4.1 типов. Для трех указанных типов имеем следующие выражения для условных вероятностей ошибки; они получены как вероятности выхода точки, соответствующей принятому сигналу из решающей области, соответствующей переданному сигналу, Pe (тип 1) 1 Pr[ / 2 n1 Pe (тип 2) 1 Pr[ / 2 n1 ]Pr[ Pe (тип 3) 1 Pr[ / 2 n1 / 2] Pr[ / 2 n2 ], (П.4.1) / 2 n2 ], / 2] Pr[ / 2 n2 / 2]. Очевидно, что Pr[ / 2 n1 ] Pr[ / 2 n2 ] /2 1 e N0 x2 N0 dx 1 /2 1 e N0 x2 N0 dx 1 Q 2N0 , (П.4.2) и /2 Pr[ / 2 n1 / 2] Pr[ / 2 n2 / 2] /2 где Q( x) x (2 ) 1/ 2 С учетом того, что 1 e N0 x2 N0 dx 1 2Q 2N0 , (П.4.3) exp( u 2 / 2) du. Обозначим для удобства записи p Q( / 2 N 0 ) . 6 E /(q 1) (см. равенство (2.39)) , получаем, что p Q 3E 1 . N0 q 1 (П.4.4) Подставляя (П.4.2) и (П.4.3) в (П.4.1) получаем Pe (тип 1) 1 (1 2 p)(1 p) 3 p 2 p 2 , Pe (тип 2) 1 (1 p) 2 Pe (тип 3) 1 (1 2 p) 2 2p p2 , (П.4.5) 4 p 4 p2 , где вероятность p определена равенством (П.4.4). 4-18 Найдем теперь вероятности передачи сигналов, относящиеся к различным типам. Полагая равновероятную передачу всех сигналов, нетрудно видеть, что P(тип 1) 4( q 2) / q , P(тип 2) 4 / q , (П.4.6) P(тип 3) 1 P(тип 1) P(тип 2) 1 4 / q 4 / q. Безусловная вероятность ошибки вычисляется как Pe (тип 1) P(тип 1) Pe (тип 2) P(тип 2) Pe (тип 3)P(тип 3) , Pe и окончательно, подставляя в это выражение правые части (П.4.5), (П.4.6) и (П.4.4), после несложных преобразований получаем. 4( q 1) Q q Pe 3E 1 N0 q 1 q 3E 1 . N0 q 1 ( q 1)Q (П.4.7) На рис.П.4.2 показаны графики зависимости вероятности ошибки и ее верхних границ в зависимости от отношения сигнал/шум для q 16 и q 64 . Видно, что точность верхних границ возрастает с увеличением числа сигналов q . Особенно точной оказывается граница, вычисленная по формуле (2.42). Pe , КАМ-16 -1 -1 10 -2 10 -3 10 -4 10 -5 10 10 -2 10 -3 10 -4 10 -5 10 -6 -6 10 10 -7 10 10 Pe , КАМ-64 10 10 Точное значение (П4.7) Приближение (2.42) Менее точное приближение (2.43) -7 10 12 14 16 18 E/N0 , дБ 20 22 24 10 Точное значение (П4.7) Приближение (2.42) Менее точное приближение (2.43) 12 14 16 18 20 22 24 26 28 E/N0 , дБ Рис.П3.2. Графики вероятности ошибки и двух верхних границ вероятности ошибки для КАМ-16 (слева) и КАМ-64 (справа) 4-19 Приложение 5 Граница Чернова Граница, или неравенство, Чернова дает оценку сверху для вероятности большого уклонения случайной величины. Эта граница широко используется для оценки вероятности ошибки в различных условиях и упоминается практически в каждой монографии или учебнике по теории связи, теории кодирования и теории информации. Пусть Z – некоторая случайная величина. Требуется оценить вероятность P Pr[Z A] , где A – некоторая константа. По определению эта вероятность равна P A wZ ( x)dx , где wZ ( ) – функция плотности вероятности случайной величины Z . Непосредственное вычисление этой вероятности может представлять собой проблему. Например, это может быть потому, что получить явное выражение для функции плотности вероятности wZ ( ) затруднительно или невозможно. Граница Чернова позволяет сравнительно просто вычислить верхнюю оценку этой вероятности. Для построения границы Чернова для вероятности P рассмотрим функцию единичного скачка, определенную как e( x ) 1, x 0 0, x 0 (П.5.1) Тогда нетрудно заметить, что поскольку e( x A) 1, если x A , и принимает нулевые значения во всех остальных случаях, то P wZ ( x)dx e( x A) wZ ( x)dx e( Z A), (П.5.2) A черта сверху в (П.5.2) как обычно обозначает операцию усреднения. Для функции e(x) , определенной равенством (П.5.1), справедливо неравенство e( x) exp( x) и, следовательно, e( x A) exp( ( x A)) для любого значения параметра 0 (см. рис. П.5.1). 4-20 e(x-A) exp( (x-A)) 1 A Рис. П.5.1. Функция единичного скачка e( x A) и ее верхняя граница exp( ( x A)) , Подстановка этого неравенства в (П.5.2) приводит к выражению P e( x A) wZ ( x)dx exp( ( x A)) wZ ( x)dx e A exp( x) wZ ( x)dx e A g z ( ), (П.5.3) где функция g Z ( ) называется производящей функцией моментов случайной величины Z ; она определена следующим равенством gz ( ) exp( x) wZ ( x)dx exp( Z ) . (П.5.4) В общем случае интеграл в правой части выражения (П.5.4) может расходиться, если значение параметра наибольшее значение параметра слишком велико. Обозначим через , при котором интеграл в (П.5.4) сходится. Таким образом, можно записать, что P e значение параметра A g z ( ) , где 0 . Поскольку сможет быть выбрано любым в указанном интервале, то его можно назначить таким, чтобы граница стала наиболее точной. Поэтому окончательное выражение общее выражение для границы Чернова принимает вид P Pr[ Z A] min e A gz ( ) . (П.5.5) Отдельно рассмотрим частный случай когда случайная величина Z представляет собой сумму нескольких независимых одинаково 4-21 распределенных случайных величин, то есть Z L l 1 l u величины ul независимы и одинаково распределены. где случайные В этом случае с использованием определения (П.5.4) получаем, что L L g z ( ) exp( Z ) exp ul l 1 L L exp( ul ) l 1 exp( ul ) l 1 gu ( ) gu ( ) L , (П.5.6) l 1 где gu ( ) exp( u) – производящая функция моментов случайной величины u . Собирая вместе выражения (П.5.5) и (П.5.6), получаем границу Чернова для суммы независимых одинаково распределенных случайных величин P Pr[ L u l 1 l A] min e A gu ( ) L . (П.5.7) Вычисление границ (П.5.5) и (П.5.7) в ряде практических случаев оказывается значительно более простой задачей, чем вычисление точного значения вероятности P . 4-22 Литература 1. Возенкрафт Дж., Джекобс И. Теоретические основы техники связи. – М.: Мир, 1969. 2. Финк Л.М. Передача дискретных сообщений. – М.: Советское радио, 1970 3. Стейн С., Джонс Дж. Принципы современной теории связи и их применение к передаче дискретных сообщений. – М.: Связь, 1971 4. Теория электрической связи., ред. Кловский Д.Д.,– М.: Радио и связь, 1999. 5. Прокис Дж. Цифровая связь. – М.: Радио и связь , 2000 6. Скляр Б. Цифровая связь. Теоретические основы и практическое применение. – М.-СПб-Киев: Издательский дом “Вильямс”, 2003. 4-23
«Основы теории цифровой связи» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Помощь с рефератом от нейросети
Написать ИИ
Получи помощь с рефератом от ИИ-шки
ИИ ответит за 2 минуты

Тебе могут подойти лекции

Смотреть все 493 лекции
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot