Справочник от Автор24
Поделись лекцией за скидку на Автор24

Теория электрической связи

  • ⌛ 2012 год
  • 👀 425 просмотров
  • 📌 369 загрузок
  • 🏢️ Санкт-петербургский национальный исследовательский университет информационных технологий, механики и оптики
Выбери формат для чтения
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «Теория электрической связи» pdf
В.А. Григорьев, О.И. Лагутенко, О.А. Павлов, Ю.А. Распаев, В.Г. Стародубцев, И.А. Хворов ТЕОРИЯ ЭЛЕКТРИЧЕСКОЙ СВЯЗИ КОНСПЕКТ ЛЕКЦИЙ Санкт-Петербург 2012 МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ САНКТ-ПЕТЕРБУРГСКИЙ НАЦИОНАЛЬНЫЙ ИССЛЕДОВАТЕЛЬСКИЙ УНИВЕРСИТЕТ ИНФОРМАЦИОННЫХ ТЕХНОЛОГИЙ, МЕХАНИКИ И ОПТИКИ ТЕОРИЯ ЭЛЕКТРИЧЕСКОЙ СВЯЗИ КОНСПЕКТ ЛЕКЦИЙ Санкт-Петербург 2012 Теория электрической связи. Конспект лекций: В.А. Григорьев, О.И. Лагутенко, О.А. Павлов, Ю.А. Распаев, В.Г. Стародубцев, И.А. Хворов / под общ. ред. В.А. Григорьева. – СПб: НИУ ИТМО, 2012. – с. 148 Издание посвящено базовой дисциплине в системе подготовки бакалавров: Теории электрической связи. Для решения задач анализа систем связи приведены необходимые сведения, содержащие описание моделей сообщений, сигналов, помех, методы формирования и преобразования сигналов. Рассмотрены преобразования сигналов в типовых функциональных узлах систем связи, излагаются основные закономерности и методы анализа потенциальной помехоустойчивости и пропускной способности каналов связи. Изложены основы теории информации и безызбыточного кодирования сообщений, основные модели каналов электросвязи, принципы многоканальной связи и распределения информации. Рассмотрены вопросы оценки эффективности систем связи и основы помехоустойчивого кодирования и его применение в системах связи. В написании принимали участие: В.А. Григорьев – лекции 1 – 22, О.И. Лагутенко – лекции 2, 5, 9, 10, 21, 22, О.А. Павлов – лекции 1 – 22, Ю.А. Распаев – лекции 7 – 9, В.Г. Стародубцев – лекции 12, 21, И.А. Хворов – лекции 7 – 10, Е.В. Григорьева – лекция 21, В.О. Аксенов – лекция 13, К.В. Красовский – лекция 6. Издание предназначено для студентов, обучающихся по направлению 210700 «Инфокоммуникационные технологии и сети связи». Рекомендовано к печати Ученым советом факультета ИКТ от 18 октября 2012 года, протокол №7. В 2009 году Университет стал победителем многоэтапного конкурса, в результате которого определены 12 ведущих университетов России, которым присвоена категория «Национальный исследовательский университет». Министерством образования и науки Российской Федерации была утверждена программа его развития на 2009–2018 годы. В 2011 году Университет получил наименование «СанктПетербургский национальный исследовательский университет информационных технологий, механики и оптики»  Санкт-Петербургский национальный исследовательский университет информационных технологий, механики и оптики, 2012  Авторы, 2012 3 СОДЕРЖАНИЕ ВВЕДЕНИЕ ............................................................................................. 6 Лекция 1 Общие сведения о системах связи ................................................. 8 1.1 Основные понятия и определения ..................................................... 8 1.2 Этапы развития систем электросвязи................................................ 8 1.3 Принципы построения систем передачи информации ................... 10 Лекция 2 Системы связи. Каналы связи ..................................................... 14 2.1 Обобщённые структурные схемы систем передачи информации . 14 2.2 Характеристики систем передачи информации.............................. 15 Лекция 3 Основные модели сообщений, сигналов и помех...................... 19 3.1 Модели источников сообщений и математические модели сообщений........................................................................................ 19 3.2 Модели сообщения с ограниченной спектральной плотностью. Теорема Котельникова .................................................................... 20 3.3 Преобразование сообщений в системе передачи информации...... 21 3.4 Преобразование сообщений в передатчиках СПИ ......................... 22 Лекция 4 Преобразования непрерывных сообщений в передатчиках систем связи ................................................................................... 24 4.1 Цифровые системы........................................................................... 24 4.2 Аналоговые системы модуляции..................................................... 24 4.3 Аналитические модели сигналов..................................................... 26 Лекция 5 Модели сигналов и помех ............................................................. 29 5.1 Геометрические модели сигналов (АМ, ЧМ, ФМ) ......................... 29 5.2 Общая классификация помех........................................................... 30 5.3 Характеристики сигналов и помех как случайных процессов....... 32 5.4 Многомерный закон распределения белого шума с ограниченной верхней частотой ............................................................................. 34 5.5 Распределение огибающей и фазы случайного процесса .............. 34 Лекция 6 Модели каналов связи................................................................... 37 6.1 Модели каналов связи, общие сведения ......................................... 37 6.2 Модели непрерывных каналов связи .............................................. 38 6.3 Прохождение сигналов через каналы с детерминированными характеристиками ............................................................................ 39 Лекция 7 Дискретные каналы связи............................................................ 41 7.1 Классификация дискретных каналов............................................... 41 7.2 Модель дискретного канала без памяти.......................................... 43 7.3 Недвоичный симметричный канал .................................................. 44 Лекция 8 Модели потоков ошибок в дискретных каналах ...................... 46 8.1 Общая характеристика моделей потоков ошибок .......................... 46 8.2 Модель потока ошибок в дискретном канале связи без памяти .... 47 8.3 Модель потока ошибок для канала с двумя состояниями.............. 48 8.4 Независимые ошибки ....................................................................... 48 4 Лекция 9 Основные положения теории информации ............................... 49 9.1 Энтропия как количественная мера степени неопределённости ... 49 9.2 Информационные характеристики источников сообщений .......... 50 9.3 Понятие информации ....................................................................... 53 9.4 Информация в сложной системе...................................................... 53 Лекция 10 Устранение избыточности .......................................................... 55 10.1 Теорема кодирования для канала без помех ................................. 55 10.2 Кодирование источников сообщений с равновероятными символами ........................................................................................ 55 10.3 Кодирование источников сообщений с неравновероятными независимыми символами............................................................... 56 10.4 Кодирование источников со статистически зависимыми символами ........................................................................................ 58 Лекция 11 Кодирование в каналах с помехами.......................................... 59 11.1 Теорема Шеннона для каналов с помехами .................................. 60 11.2 Первая теорема Шеннона............................................................... 61 11.2.1 Прямая теорема Шеннона .................................................. 61 11.2.2 Обратная теорема Шеннона ............................................... 63 11.3 Вторая теорема Шеннона ............................................................... 63 11.4 Теорема Шеннона для непрерывных каналов .............................. 64 Лекция 12 Помехоустойчивое кодирование и его применение в системах связи ............................................................................ 66 12.1 Общая характеристика помехоустойчивого кодирования ........... 66 12.2 Кодирование помехоустойчивыми кодами................................... 73 12.3 Декодирование помехоустойчивых кодов .................................... 74 12.4 Применение помехоустойчивых кодов в системах связи ............ 77 Лекция 13 Информационные характеристики каналов связи ................ 89 13.1 Энтропия непрерывных случайных величин ................................ 91 13.2 Случайная величина с максимальной энтропией ......................... 92 13.3 Энтропия непрерывного случайного сигнала............................... 93 Лекция 14 Оптимальный приём сообщений............................................... 94 14.1 Критерии минимума среднего риска............................................. 94 14.2 Критерии и правила принятия решения ........................................ 95 14.3 Синтез оптимального приёмника двоичных сообщений ............. 97 Лекция 15 Потенциальная помехоустойчивость источников сообщений .................................................................................... 100 15.1 Потенциальная помехоустойчивость приёма двоичных сообщений...................................................................................... 100 15.2 Помехоустойчивость приёма сигнала с амплитудной, частотной и фазовой модуляцией, кривые помехоустойчивости ................. 102 15.3 Согласованный фильтр ................................................................ 104 15.4 Потенциальная помехоустойчивость приёма недвоичных сообщений...................................................................................... 106 5 Лекция 16 Проблема априорной недостаточности .................................. 109 16.1 Сущность синхронизации, виды синхронизации ....................... 109 16.2 Оценка помехоустойчивости приёма при неидеальной синхронизации ............................................................................... 110 16.3 Построение дискриминаторов для оценки параметров сигналов ......................................................................................... 111 16.4 Синтез приёмника с неизвестной амплитудой сигнала.............. 111 Лекция 17 Помехоустойчивость некогерентного приёма сигнала ........ 113 Лекция 18 Принципы построения дискриминаторов ............................. 115 18.1 Оптимальная оценка параметров сигнала................................... 115 18.2 Байесовы оценки по критерию минимума среднего риска ........ 116 18.3 Оценка параметра сигнала в зашумлённом канале измерения .. 117 18.4 Оценка амплитуды радиоимпульса ............................................. 117 18.5 Оценка неэнергетических параметров радиоимпульса .............. 119 18.6 Дискриминаторы оценки параметров сигналов.......................... 120 Лекция 19 Разнесение приёма и передачи................................................. 123 Лекция 20 Передача непрерывных сообщений ........................................ 128 20.1 Источники непрерывных сообщений .......................................... 128 20.2 Непосредственная передача сообщений ..................................... 129 20.3 Оптимальная оценка непрерывных параметров сигнала ........... 130 20.4 Оптимальный приём непрерывных сообщений.......................... 131 Лекция 21 Эффективность систем связи................................................... 133 21.1 Помехоустойчивость систем аналоговой передачи сообщений при малых помехах........................................................................ 133 21.2 Показатели эффективности систем связи ................................... 135 21.3 Предел Шеннона........................................................................... 135 21.4 Методы модуляции....................................................................... 137 Лекция 22 Сложные сигналы...................................................................... 142 22.1 Применение сигналов сложной формы....................................... 142 22.2 Разновидности сигналов сложной формы................................... 143 22.3 Понятие о хороших корреляционных свойствах сигналов сложной формы ............................................................................. 144 22.4 Способы обработки сигналов сложной формы........................... 146 РЕКОМЕНДУЕМАЯ ЛИТЕРАТУРА.............................................. 148 6 ВВЕДЕНИЕ Человечество с давних времён мечтало расширить свои возможности по передаче информации от одного человека другому на любые расстояния без потери качества. Естественные возможности передачи информации человеком ограничены по способам: передача речи, знаков (руками, пальцами и пр.), и по дальности: речь можно передать на небольшое расстояние, так как звук в воздухе быстро затухает и даже использование направленных средств увеличивает дальность передачи речи не более чем до нескольких сотен метров. Зрение человека позволяет различать знаки, которые показывает другой человек, также на незначительном расстоянии, ограничиваемом несколькими сотнями метров. Возможности передачи информации с помощью речи сильно ограничены природой. В частности, скорость распространения звука в воздухе составляет 330 м/с, поэтому уже на расстоянии 1 км задержка передачи речи составит 3 с, на расстоянии 10 км – 30 с. Если представить, что с использованием такой системы связи ведут диалог два абонента, то они должны ждать ответа по полминуты. Для сравнения, скорость распространения электромагнитных волн составляет 300 000 км/с и задержка сигнала на расстоянии 10 км составляет около 33 мкс. Пропускная способность такого канала тоже не выдерживает критики, так как человек использует только небольшую часть звуковых частот: от 30 Гц до 10 кГц (органы речи формируют сигналы в этой полосе частот, а органы слуха могут воспринимать звуки только в этой полосе). Да и сама речь человека сильно избыточна, т. е. использует много лишних звуков, которые не несут никакой информации. Поэтому звуковые волны для передачи информации на большие расстояния не используются. Однако сегодня звуковые волны широко используются в системах обработки электрических сигналов (ультразвук в твёрдых телах в полосе частот до 2 ГГц). Возможна передача с помощью звука сообщений на короткие расстояния. Из-за невозможности передачи информации на большие расстояния с помощью естественных средств человек стал искать способы расширения своих возможностей по передаче информации за счёт использования различных физических процессов и явлений. Человек использует для передачи информации свет, звук, электричество, электромагнитные волны. Наиболее впечатляющих результатов по передаче информации на большие расстояния человек добился при использовании электромагнитных колебаний различной природы (радиоволны и световые волны). Сегодня возможна передача голоса, изображений, различных данных на расстояния в тысячи километров с высокой скоростью, позволяющей не только решать задачу общения людей друг с другом, но и решать задачи управления сложными техническими и технологическими комплексами и системами, распределенными по всей поверхности нашей планеты и вне её пределов. 7 Основы современной теории электрической связи были заложены в фундаментальных работах В.А. Котельникова по теории потенциальной помехоустойчивости и К. Шеннона по теории информации. Отдельные вопросы теории связи рассматривались в более ранних работах X. Найквиста, в которых сформулирована и доказана теорема отсчётов, в работе Р. Хартли, где была введена логарифмическая мера количества информации. В создании и развитии статистической теории связи большую роль сыграли работы А.Я. Хинчина по корреляционной теории стационарных случайных процессов, А.Н. Колмогорова и Н. Винера по интерполированию и экстраполированию стационарных случайных последовательностей, А. Вальда по теории статистических решений. Современная теория связи позволяет достаточно полно оценить различные системы по их помехоустойчивости и эффективности и тем самым определить, какие из них являются наиболее перспективными. Она достаточно чётко указывает не только возможности совершенствования существующих систем связи, но и пути создания новых, более совершенных систем. В настоящее время речь идёт о создании систем, в которых достигаются показатели эффективности, близкие к предельным. Одновременное требование высоких скоростей и верности передачи приводит к необходимости применения систем, в которых используются многопозиционные сигналы и мощные корректирующие коды. Наиболее совершенная система связи должна быть саморегулирующей (адаптивной) системой. Знания и умения по дисциплине являются базовой частью общепрофессиональной подготовки к самостоятельной инженерно-эксплуатационной деятельности. 8 Лекция 1 ОБЩИЕ СВЕДЕНИЯ О СИСТЕМАХ СВЯЗИ 1.1 Основные понятия и определения Электросвязь – способ связи, при котором сообщения передаются при помощи электрических сигналов. Радиосвязь– способ связи, при котором сообщения передаются при помощи радиосигналов. В теории электрической связи изучается процесс передачи информации. Под информацией понимают совокупность сведений о состоянии той или иной системы, о каких-либо событиях, явлениях и т. д. Для передачи информации используется какой-либо язык. Язык характеризуется совокупностью символов, знаков и правил. Совокупность физических элементов (знаков, символов) содержащих информацию называют сообщением. Сообщения передают:  с помощью физического носителя (письмо, диск, флеш-память и пр.);  с помощью физических процессов (свет, звук, электрические сигналы, электромагнитные волны). В ТЭС мы будем изучать процессы передачи информации с помощью электрических сигналов и электромагнитных волн. Для передачи информации необходимо выполнить следующие действия: 1) преобразовать сообщение в электрический сигнал; 2) передать электрический сигнал по среде передачи; 3) преобразовать электрический сигнал в сообщение. Под системами передачи информации (СПИ) будем понимать совокупность технических средств, предназначенных для передачи информации и характеризуемых определённым способом преобразований сообщения в электрический сигнал на передающей стороне и преобразованием электрического сигнала в сообщение на приёмной стороне. Каналом связи называется совокупность технических средств, предназначенных для передачи электрического сигнала (отображающего сообщение). 1.2 Этапы развития систем электросвязи Наиболее яркие моменты истории развития электросвязи можно проследить на системах подвижной радиосвязи. Практически у каждого человека сегодня есть персональный коммуникатор (сотовый телефон, смартфон, планшетный компьютер, компьютер со встроенным радиомодемом). Такая возможность имеется благодаря труду огромного количества учёных и инженеров, которые разработали и создали сети подвижной радиосвязи от нулево- 9 го поколения до четвёртого, и которые трудятся над созданием сетей пятого поколения (рис. 1.1). Нулевой период до 1980 г Связь «точка – точка», связь через ретранслятор: система «Алтай» Первое поколение с 1980 по 1990 Аналоговые системы связи NMT, AMPS 2G: CDMA 800 Цифровые системы связи GSM, DAMPS DECT, Iridium, GS 3G: IMT 2000, UMTS, HSPA, HSDPA, CDMA 450 Системы радиосвязи с расширенным спектром 4G: Когнитивные, адаптивные системы радиосвязи совместно с проводными сетями Сети на основе концепции SoftRadio, полная адаптация Второе поколение с 1990 по 2000 Третье поколение с 2000 по 2010 Четвёртое поколение с 2010 по 2020? Пятое поколение 2020? Рис. 1.1. Этапы развития сети подвижной радиосвязи Системы спутниковой связи являются наиболее дорогими и сложными с точки зрения реализации, но позволяют решать задачи доставки сигналов КА БКР телеметрия КИС ОКИК КИС УС ЦОТИ ЦУ КА – космический аппарат; БКР – бортовой комплекс радиосвязи; КИС – командноизмерительная система; ОКИК – отдельный командно-измерительный комплекс; УС – узел связи; ЦУ – центр управления; ЦОТИ – центр обработки телеметрической информации Рис. 1.2. Схема построения сети телевизионного и радиовещания 10 сразу на огромные территории на поверхности Земли. Поэтому на их основе строят сети телевизионного и радиовещания и системы региональной и глобальной связи (рис. 1.2). В рамках модели открытых информационных систем (рис. 1.3) мы будем заниматься физическим и канальным уровнями, отвечающих за формирование, обработку, прием сигналов и обмен сообщениями. уровни прикладной представительский сеансовый транспортный сетевой канальный физический прикладной представительский сеансовый транспортный сетевой канальный физический Рис. 1.3. Модель открытых информационных систем 1.3 Принципы построения систем передачи информации Системы электрической связи являются важнейшим классом систем передачи информации, в которых полезные сообщения передаются с помощью электрического сигнала. Полезные сообщения S(t) такие, как, например, речь, данные, видеоизображения и пр. отображаются однозначным образом в множество электрических сигналов {uS(t)} на передающей стороне (при помощи акустоэлектрических и светоэлектрических преобразователей). На приёмной стороне множеству полученных электрических сигналов u *S (t ) сопоставляют возможные сообщения s*(t) и, тем самым, восстанавливают сообщение, передаваемое от одного абонента к другому. Сложность передачи сообщений заключатся в том, что передаваемый uS(t) и принимаемый u *S (t ) электрические сигналы отличаются друг от друга из-за того, что кроме полезного сигнала в канале связи действуют мешающие колебания [шум n(t), помехи от других источников сигналов, от других технических средств, генерирующих электромагнитные колебания и пр.]. Поэтому в общем случае u *S (t )  uS(t), что приводит к неоднозначности восстановления на приёмной стороне переданного сообщения. Разница (t) = u *S (t ) – uS(t) представляет собой электрические колебания совокупности шума n(t) и помех П(t): (t) = n(t) + П(t). Простейшим примером системы передачи сообщений (информации) является акустическая система передачи речи от одного человека (абонента) 11 к другому (абоненту). Система образована «передатчиком» (речевой тракт, включая гортань, голосовые связки, полости носа и рта, язык, губы и зубы), каналом передачи акустических волн и приёмником (слуховым аппаратом, включая ушные раковины, барабанные перепонки и часть мозга, выполняющую детектирование и обработку сигналов). Каждому сообщению соответствует свой акустический сигнал (слово, предложение и пр.). Слова формируются из алфавита, а сообщение – из слов (алфавита слов). При передаче речи от одного абонента к другому в полнейшей тишине на небольшом расстоянии громкость речи (мощность генерируемых акустических волн) может быть минимальна, но при этом будет обеспечен правильный приём сообщений, так как нет шума и затухания волн, т. е. u *S (t ) = uS(t),поэтому канал является идеальным. Если расстояние между собеседниками увеличивать, то постепенно громкость речи необходимо будет также увеличивать, а на расстояниях в несколько десятков метров придётся кричать для того, чтобы передать те же сообщения. Если в тракте передачи присутствует шум, например, разговор других людей, шум двигателя, технических устройств (например, пылесоса, звонка и пр.), то даже при небольшом расстоянии требуется говорить громко. При этом чем громче шум, тем громче должен быть голос. Если стоять рядом с самолётом с работающими двигателями, то придётся кричать, чтобы хоть что-то разобрать. Из приведённого примера можно сделать следующие важные выводы. 1. Для передачи сообщений служит алфавит (слова, буквы), ставящий в соответствие сообщению сигналы. Сигналов должно быть столько, чтобы возможной оказалась передача всех сообщений. Сигналы должны различаться. 2. При передаче сообщений важнейшей характеристикой является соотношение мощности полезного сигнала и мешающего шума. Однако если сообщения передаются сигналами с малым отличием, то даже при небольшом шуме их различить будет сложно. Например, различить двух близнецов, если показывают фотографии одного, а затем второго человека, очень трудно, а двух разных людей, даже если фотографии искажены, значительно проще, и чем больше различие, тем проще различить (например, африканец и европеец). Поэтому основной целью теории электрической связи (ТЭС) является нахождение такого множества сигналов {uS(t)}, чтобы передача сообщений происходила с минимальными искажениями и с минимумом затрат. Обобщённая структурная схема системы передачи информации (СПИ) приведена на рис. 1.4. В структуру СПИ входят источник сообщения (ИС), кодер источника (КИ), кодер канала (КК), модулятор (М), канал связи (КС), демодулятор (Дм), декодер канала (ДкК), декодер источника (ДкИ), получатель сообщения (ПС). 12 y(t) = uS(t) + П(t) ИС КИ КК М {uS(t)} {S(t)} КC Дм ДкК ДкИ {S(t)} П(t) ПС Рис. 1.4. Структурная схема системы передачи информации Основной целью построения систем передачи информации является наиболее точное воспроизведение передаваемого сообщения S(t) на приёмной стороне S*(t). Погрешности воспроизведения присутствуют из-за искажений сигналов в элементах СПИ и действия помех. Влияние помех и искажений можно минимизировать выбором параметров сигналов и элементов СПИ (КИ, КК, М, Дм, ДкК, ДкИ). Общую задачу, решаемую в ТЭС для СПИ, можно сформулировать следующим образом: найти такие операторы формирования (передачи) и обработки (приёма) сигналов, чтобы различие между передаваемым и принимаемым сигналами было минимальным:  (S  *  S )W ( S * , S )dSdS *  ( S *  S )  min ,  (1.1) S ,S * где  – вектор параметров элементов СПИ и сигнала;  S ,S * – область существования S и S* в пространстве сигналов; W(S, S*) – функция распределения вероятностей сигналов S и S*. Левая часть в формуле (1.1) является функцией параметров СПИ, т. е. 2 (S *  S )  f ( ) , (1.2) поэтому для нахождения параметров, обеспечивающих минимальную погрешность воспроизведения, можно воспользоваться известными методами математического анализа. В частности, известно, что минимум функции достигается в точках, где f/  0 .Однако для нахождения функции f ( ) требуется решение задачи преобразования исходного сообщения S(t) в принимаемое S*(t) и нахождение функции совместного распределения вероятностей W(S, S*). (1.3) Если представить получаемое сообщение как результат последовательного преобразования исходного сообщения в преобразователях соответствующих элементов СПИ, то решение задачи может быть представлено следующим образом S * (t )  LДкИ {LДкК {LДм {LКС (n(t ), LМ {LКК {LКИ ( S )}})}}}, (1.4) т. е. необходимо найти преобразование процесса S(t) в преобразователях Li и на основании этого определить характеристики выходного процесса S*(t). В общем случае эта задача очень сложна. Поэтому решают последовательно ряд вспомогательных задач, в которых определяют преобразования соответствующих сигналов. Как правило, центральное место занимает задача 13 передачи множества сигналов {u S i (t )} по каналу связи, преобразования сигналов в канале связи и приёма в приёмнике (демодуляторе). Остальные задачи нахождения преобразований в КИ, КК, ДкК и ДкИ используют полученные результаты в качестве исходных данных. 14 ЛЕКЦИЯ 2 СИСТЕМЫ СВЯЗИ. КАНАЛЫ СВЯЗИ 2.1 Обобщённые структурные схемы систем передачи информации Линия связи – это совокупность технических средств, служащих для организации на единой технической основе одного или нескольких каналов связи. Классификация СПИ:  по количеству каналов: одноканальные, многоканальные;  по виду сообщений: аналоговые, дискретные, цифровые. Одноканальная аналоговая СПИ предназначена для передачи сообщений по одной линии связи и имеет вид, показанный на рис. 2.1. ИС s(t) КИ xs( t) М Ген u s(t) КC y(t) помехи Дм x*s (t) ДкИ s *(t) ПС Ген Рис. 2.1.Структурная схема одноканальной аналоговой СПИ На рис. 2.1 обозначено: ИС – источник сигнала; КИ – кодер источника, в нём происходит преобразование сообщения в электрический сигнал; КС – канал связи (конкретная физическая среда), на выходе которого действует сигнал y(t) = us(t)+n(t); М – модулятор, предназначен для согласования параметров электрического сигнала на выходе КИ с параметрами КС; ДМ – демодулятор, служит для обратного преобразования (по сравнению с модулятором) сигнала из канала связи в сигнал сообщения; ДКИ – декодер источника, преобразует сигнал сообщения в удобный для восприятия абонентом вид; ПС – получатель сообщения. Одноканальная дискретная СПИ показана на рис. 2.2. КИ s(t) КК xs(t) М us(t) КС y(t) ДМ x*s(t) ЗАС ИС ДИК s*(t) ДКИ ЗАС Ген помехи Ген ПС {si} УС Рис. 2.2. Структурная схема одноканальной дискретной СПИ В КИ происходит кодирование сообщений (устраняется избыточность), сообщение преобразуется электрический сигнал. При необходимости производится безызбыточное кодирование и каждому сообщению ставится в соответствие кодовая комбинация si   x1i , x2i , , xni  . 15 В кодере канала (КК) кодовая комбинация преобразуется в комбинацию с избыточными элементами. Для согласования параметров кода со статистикой помех на КС, т. е. применяется помехоустойчивое кодирование. Модулятор сигналам ставит в соответствие канал, т. е. согласует параметры сигнала с параметрами канала связи. Демодулятор преобразует входной сигнал из канала связи y(t) в последовательность символов. Декодер источника (ДКИ) совершает обратное преобразование последовательности символов, поступающей из декодера канала (ДКК) в сообщение. Устройство синхронизации (УС) согласует процесс передачи и приёма (по времени, частоте и другим параметрам). Многоканальная СПИ (дискретная) предназначена для передачи множества сообщений по одной линии связи и представлена на рис. 2.3. ИС1 ИСп КИ1 КИп КК1 ККп УФКС УФКС У Ф М С КК УВКС1 ДКК М КС ДМ Ген УВКС2 Ген УС ДКК ДКК ДКИ ДКИ ПС1 ПС2 Рис. 2.3. Структурная схема многоканальной СПИ Устройство формирования канального сигнала (УФКС) формирует сигнал одного канала за счёт внесения изменений, позволяющих выделить сигнал на приемной стороне. Чаще всего используется принцип ортогонализации сигналов по частоте, времени, коду, поляризации, пространству и комбинации. Устройство выделения канального сигнала (УВКС) позволяет выделить сигнал отдельного канала за счёт информации об ортогональных признаках, которая определяется протоколом обмена и способом передачи. 2.2 Характеристики систем передачи информации Функциональные характеристики:  пропускная способность – максимальная скорость передачи информации при фиксированных условиях;  вид среды распространения сигнала: с использованием направляющих систем (проводная связь, ВОЛС, волноводы), без использования направляющих систем (радиосвязь, оптическая связь, ультразвуковая связь); 16  параметры передатчика: мощность излучения, полоса частот сигнала, вид сигнала и способ его формирования, стабильность частоты и номиналы частот и пр.;  параметры приёмника: тип обрабатываемого сигнала, чувствительность (реальная, пороговая), избирательность, показатели качества приёма информации, необходимая полоса частот;  параметры полезного сигнала: вид модуляции, способ отображения информации на параметры сигнала (маппирование);  достоверность передачи информации (вероятность правильного приёма на бит, байт, пакет; отношение сигнал/шум, распознаваемость речи);  вид модуляции сигналов: класс излучения. Характеристики надёжности:  надёжность – свойство средства связи функционировать без отказов;  долговечность – свойство средства связи функционировать без отказов некоторый промежуток времени с заданной вероятностью;  ремонтопригодность – способность ремонта при отказах;  коэффициент готовности (Kг) – вероятность безотказной работы в заданный момент времени;  время наработки на отказ – интервал времени, за который наступает отказ. Характеристики совместимости:  экологическая совместимость – способность не наносить недопустимого ущерба окружающей среде;  электромагнитная совместимость – способность не создавать недопустимых помех другим техническим средствам и не воспринимать помехи со стороны других технических средств;  эргономическая совместимость – способность удобного взаимодействия с человеком;  безопасность – способность не причинять недопустимого вреда человеку и биологическим объектам. Характеристики устойчивости:  помехоустойчивость – способность противостоять вредному влиянию непреднамеренных помех;  помехозащищённость – способность противостоять вредному влиянию преднамеренных помех;  разведзащищённость – способность противостоять раскрытию факта работы средства связи;  имитостойкость – способность противостоять раскрытию структуры сигнала и формированию сигнала, подобного полезному;  устойчивость к механическим и климатическим воздействиям – способность работать без отказов в условиях допустимых воздействий механических и климатических факторов; 17  устойчивость к специальным воздействиям – способность функционировать без отказов в условиях воздействия специальных воздействий;  массогабаритные и стоимостные характеристики. Пропускная способность СПИ – это максимальная скорость передачи информации, которая возможна при заданной достоверности. Достоверность – это характеристика верности передачи информации, определяемая в соответствии с критериями достоверности: вероятностные критерии Pош – зависимость средней вероятности 1 0,5 ошибки на бит от отношения сигнал/шум 10–2 E  (рис. 2.4) – Pош  f  c  . Здесь Ec – энергия 10–4  N0  –6 сигнала; N0 – спектральная плотность шума, 10 h02 2 N0 = KБT, КБ= 1,3810–23 Вт/Гц; К – постоянная 10 10 Больцмана, КТ = –174 дБВт/Гц при 17С Рис. 2.4. График зависимости (290 К). средней вероятности ошибки на бит от отношения энергетические критерии: сигнал/шум – отношение сигнал/шум по мощности P 2 hс/ш  2c ; 2ш = N0F; Eс = PcT, ш где T – время; – энергетическое отношение сигнал/шум P 2 h02  2c Tc Fc  hс/ш B, ш где F – полоса частот, занимаемая сигналом; B = Tc Fc – база сигнала. Выигрыш от обработки сигнала в приёмном устройстве: 2 hс/ш вых g 2 hс/ш вх – показатель качества обработки, хорошо когда g > 1; – артикуляционный критерий (применяется для передачи речевых сигналов) – разборчивость речи. (ГОСТ 51061 слоговая и фразовая разборчивость). Основная задача заключается в минимизации Pош  min. Помехоустойчивость – это способность СПИ противостоять вредному влиянию помех. Помехозащищённость – это способность СПИ противостоять вредному влиянию преднамеренных помех. Вероятность помехозащищённости: Рпмз = 1 – Робн Ризм Рнр , 18 где Робн – вероятность обнаружения; Ризм – вероятность измерения; Рнр – вероятность нарушения работы; Робн Ризм – скрытность; Рнр – помехоустойчивость; Рскр = 1 – Робн – вероятность скрытной работы. Скрытность подразделяется на:  э н е р г е т и ч е с к у ю , которая характеризует способность противостоять мерам, направленным на обнаружение сигнала разведывательным приёмным устройством;  с т р у к т у р н у ю , которая характеризует способность противостоять мерам, направленным на раскрытие структуры сигнала: us(t) + (t); T T  (u S (t )  П(t ))u S (t )dt   u S (t )u S (t )dt ;  и н ф о р м а ц и о н н у ю , которая характеризует способность СПИ противостоять мерам, направленным на раскрытие сигнала передаваемой информации;  к р и п т о с т о й к у ю , которая характеризует трудность расшифровки передаваемых сообщений (ЗАС)ПРД 110 110 ПРМ 011 011   101 101 101 101 011 011 110 110;  и м и т о с т о й к у ю , которая характеризует трудность создания помех, похожих на передаваемые сигналы. 19 Лекция 3 ОСНОВНЫЕ МОДЕЛИ СООБЩЕНИЙ, СИГНАЛОВ И ПОМЕХ 3.1 Модели источников сообщений и математические модели сообщений Источники сообщений генерируют сообщения, которые преобразуются в электрические сигналы, которые передаются по каналу связи. Источники сообщений бывают непрерывными и дискретными. Непрерывные источники сообщений генерируют бесконечное множество сообщений. Дискретные источники сообщений генерируют дискретное множество сообщений. Дискретные источники могут быть источниками с независимыми символами и зависимыми символами, равномерным распределением символов и неравномерным распределением символов (табл. 3.1). Таблица 3.1 Классификация источников сообщений Вид источника сообщений Распределение символов 1. Непрерывные марковские; немарковские. 2. Дискретные с равномерно распределенными независимыми символами; с неравномерно распределенными независимыми символами; с неравномерно распределенными зависимыми символами; 3. Цифровые с равномерно распределенными независимыми символами; с неравномерно распределенными независимыми символами; с неравномерно распределенными зависимыми символами; Все сообщения являются случайными процессами S(t). Случайным параметром у сообщения всегда является информационный параметр S(t) = f(t, u). Для задания сообщений используются два вида моделей: явные и косвенные. В явном виде сообщения задаются с помощью дифференциальных уравнений, разностных уравнений, алгебраических, в виде функций времени dS (t ) d n S (t ) dn(t ) d m n (t ) a  a0 S (t )  a1  ...  an  b  b n ( t )  b  ...  b 1 2 m dt dt dt n dt m где S(t) – сообщение; n(t) – белый шум. В косвенном виде сообщения описываются функцией распределения вероятности и всеми остальными способами описания случайных величин. Белый шум – это специальный случайный процесс, у которого корреляционная функция определяется дельта – функцией (): B() = ()N0 / 2, 20  где  ()d  1 .  В спектральной области дифференциальное уравнение можно переписать в виде: a+S(j)(a0+a1(j)+...+an(j)n) = b0+N0/2(b1+b2(j)+...+bm(j)m–1); B( j) S ( j)  N () , A( j) где S(j) – спектральная плотность мощности сообщения;  1 R ()  S ( j) cos d – корреляционная функция; B()/A() – ампли2  тудно-частотная характеристика формирующего фильтра с коэффициентами (ai, bi), N() – спектральная плотность шума. На входе фильтра действует гауссовский шум, на выходе получаем речь за счёт преобразования. Поэтому можно сопоставить коэффициенты дифференциального уравнения отрезку речи. 3.2 Модели сообщения с ограниченной спектральной плотностью. Теорема Котельникова Если спектральная плотность сообщения S(t) удовлетворяет ограничениям S (), f  F , S ()   0, то для S(t) справедливо следующее представление RFT S (t )   S ( t  i t ) i 1 sin 2F (t  it ) F , 2F (t  it )  sin 2F(t  it) F – функция Котельникова (рис. 3.1). 2F(t  it)  Функции Котельникова ортогональны и S(t) для них выполняется соотношение: S(it) 1, i  j; 1T S(2FTt)  i (t ) j (t )dt   ,  S(0) T0 0, i  j. S(2t) t при t  1/2F. t Теорему Котельникова называют 0 S(t) T теоремой отсчётов. Рис. 3.1.Модель сообщения Так как функции ортогональны, то с ограниченной спектральной плотностью коэффициенты можно получить следующим образом: T T 1 * 1 2 FT * Ck   S (t )k (t )dt    S (t )i (t )k (t )dt  S (kt ) , T0 T 0 i 1 где fi (t)  21 т. е. значения коэффициентов ряда совпадают со значениями дискретных отсчётов, взятых через равные интервалы времени. Для случайных процессов: – P(|S(t)–S*(t)| > )  0 – сходимость по вероятности; – N = 2B = 2FT, где B – база сигнала, N – количество отсчётов. Для независимых и некоррелированных x(t) отсчётов функция распределения W(x1, x2,...,xn) = W(x1) W(x2)... W(xn), если функции распределения одинаковы, N то W   W ( xi ) . i 1 t 2t nt = T Для того чтобы перейти от непрерывных Рис. 3.2. Дискретные процессов к дискретным (рис. 3.2), используют отсчёты разностные уравнения, которые позволяют дискретный процесс записать в явном виде во времени: 1S(0) + 2S(t) + 3S(2t) = 1n(t) + 2n(2t). Цифровые сообщения получают из дискретных с помощью процесса квантования, общее число уровней квантования обозначают M = 2k, например: 1 2  3   x1 , x2 ,..., xn , M   m k  M  2 k , xi  [1; m] ,    256 где M  1, 256 – позиционный код; m – основание кода, это количество разных символов в алфавите. Каждое цифровое сообщение появляется на выходе источника сообщения в соответствии со значениями вероятностей 1   P (1)   2  .     P ( 2)        k    P( M ) 2  3.3 Преобразование сообщений в системе передачи информации Основной целью анализа СПИ является определение полученного сообщения по переданному сообщению, т. е. требуется найти функцию преобразования исходного сообщения в получаемое: S*(t) = f(S(t)). За счёт декомпозиции эту задачу представляют в виде последовательности преобразований (рис. 3.3): S*(t) = LДКИ(LДКК(LДМ( xS* )(у(nш, n(t), us(t, LM(LKK(LКИ(S(t)))))), где у(nш, n(t), us ) – сигнал на выходе канала связи КС. t 22 y(t) = uS(t) + П(t) ИС КИ КК КC М {uS(t)} {S(t)} Дм ДкК П(t) ДкИ ПС {S(t)} Рис. 3.3.Последовательность преобразования функции исходного сообщения Каждый элемент СПИ имеет функцию передачи, которая зависит от своих параметров и сообщения S*(t): f(S(t), КИ,..., ДКИ). Описание функций преобразования начнём с КС. Чаще всего канал связи характеризуют функцией изменения мощности сигнала в зависимости от его протяжённости, например для проводной связи:  РПРМ = 10– lРПРД где  – погонное затухание, дБ/км, значение которого зависит от несущей частоты и от физических свойств среды распространения (провода). Для радиосвязи прямой видимости справедливо (рис. 3.4): 2 РПРМ = РПРДGПРДGПРМ ПРД ПРМ , 16 2 R 2 где  – потери в антенно-фидерном тракте;  – дли N0  на волны,  = c/f; R – расстояние от передатчика до ПРД ПРМ приемника; G – КНД антенны (для носимых G = 1), n(t) G  l/(/2); – длина волны сигнала, l – геометричеРис. 3.4. Радиосвязь ская длина антенны. прямой видимости Если антенна плоская, то G  4S/2, где S – площадь поверхности апертуры антенны. Примечание: Мощность сигнала принято выражать в относительных единицах (дБм): Р= 10 lg(P / 1 мВт).Например: 30 дБм  1 мВт103 = 1 Вт; 6 дБм  1 мВт100,6 = 4 мВт; –10 дБм  1 мВт10–1 = 100 мкВт; Мощность шума определяется выражением 2ш = КБTF,где F – полоса частот; T – температура. 3.4 Преобразование сообщений в передатчиках СПИ Каждому сообщению Si(t) ставится в соответствие один из сигналов на выходе передатчика (ПРД): S1 S2 SM ПРД uS1 uS2 uSM Совокупность слов и знаков образуют пакет символов (или «телеграмму»), который подлежит передаче и может содержать значительное количе- 23 ство символов, например сообщение более 1000 символов (SMS,e-mail). Кодер источника (КИ) преобразует последовательность символов сообщения в символы нового алфавита значности m (рис. 3.5). Цель перекодирования в КИ – преобразование исходного избыточного сообщения в новое с идеальными свойствами: отсутствие избыточности, независимость символов и равномерное распределение символов. Идеальный источник (дискретный), у которого символы независимы и равновероятны реализуется совокупностью КИ и источника сообщений (рис. 3.6). x  1,...,m S1 S2  SM S1 S2 S3 S4 КИ ПРД uS1 uS2 uS3 uS4 S1 – <00> S2 – <01> S3 – <10> S4 – <11> m=2 Рис. 3.5. Преобразование Рис. 3.6. Преобразование последовательности символов сообщения последовательности символов в символы нового алфавита значности m сообщения в идеальном источнике Например, если исходный алфавит содержит четыре буквы, а алфавит на выходе КИ содержит две буквы, то каждой букве исходного алфавита необходимо сопоставить две буквы алфавита КИ: uS1(t) = Ae jt, uS2(t) = Ae j(t): S1 – <000> S2 – <011> S3 – <101> S4 – <110> На рис. 3.7 приведена последовательность результатов преобразований сообщения в двоичный сигнал с фазовой модуляцией. КИ S1 S3 S2 t КК 0 0 1 0 1 t Мвх 0 0 0 1 0 1 0 1 1 t Мвых t S1 S2  SM КИ КК М Ген Рис. 3.7. Последовательность результатов преобразований сообщения в двоичный сигнал с фазовой модуляцией 24 Лекция 4 ПРЕОБРАЗОВАНИЯ НЕПРЕРЫВНЫХ СООБЩЕНИЙ В ПЕРЕДАТЧИКАХ СИСТЕМ СВЯЗИ 4.1 Цифровые системы Цифровые системы содержат (рис. 4.1): ПП – первичный преобразователь, в котором преобразуются звуковые или оптические сигналы в электрические сигналы, Д – дискретизатор, преобразует непрерывный электрический сигнал в последовательность непрерывнозначных отсчётов, Кв – квантователь непрерывнозначных отсчётов, ПК – перекодировщик (КИ – для дискретных), КК – преобразует безызбыточные комбинации в избыточные с применением помехоустойчивого кодирования. S(t) XS(t) ПП аналого– цифровой преобразователь XS(ti ) Д Кв t 1...M КИ ПК КК М uSi(t) Рис. 4.1. Цифровая система передачи информации В кодере канала применяются: блочное, свёрточное кодирование, перемежение, турбокоды. Кодер канала выполняет подготовительные операции для применения многократной и относительной модуляции в модуляторе. Меняя параметр кратности модуляции m можно изменять полосу частот 1 t (рис. 4.2). Полоса частот уменьшается при многоuS2(t) кратной модуляции. T T При абсолютной модуляции информация заРис. 4.2.Увеличение ключена в абсолютном значении информационного кратности модуляции параметра, при относительной – в разностном (относительном значении информационного параметра) V(i) = 100101 V (i) = 0 1 11 0 0 1. 4.2 Аналоговые системы модуляции 1) Амплитудная модуляция (АМ) 2) Фазовая модуляция (ФМ) 3) Частотная модуляция (ЧМ) 4) Однополосная модуляция (ОМ) 1) Сигнал с амплитудной модуляцией гармоническим сигналом задан выражением 25  m X (t )  uS (t )  A1  AM S cos  m t  cos(t  ) . A   Структурная схема передатчика с амплитудной модуляцией содержит источник сообщения неэлектрической природы, преобразователь неэлектрического сигнала в электрический (КИ) и модулятор (рис. 4.3). S(t) ИС XS(t) S(t) КИ БП М БП fн fн Ген Рис. 4.3. Структурная схема передатчика с амплитудной модуляцией f Рис. 4.4. Качественное изображение спектра сигнала с амплитудной модуляцией Качественное изображение спектра сигнала с амплитудной модуляцией приведено на рис. 4.4. 2) Сигнал с частотной модуляцией может быть задан для случая гармонического сообщения в виде t      u S (t )  A cos t   xS (t )dt  = A cos t  sin t  , M     где  – девиация частоты; /m = mf – индекс частотной модуляции. FЧМ  2mf FM, FM = M / 2. Форма спектра сигнала сильно зависит от индекса модуляции (рис. 4.5). S(t) mf >>1 f н–mfFM fн fн+mfFM f Рис. 4.5.Форма спектра сигнала 3) Сигнал с фазовой модуляцией может быть задан аналогичным выражением us(t) = Acos(t + kФМxs(t)). При ЧМ и ФМ амплитуда сигнала не меняется (это хорошее свойство). Фаза связана с частотой линейным преобразованием, поэтому сигналы взаимно обратимы t    (t )dt . 4) При однополосной модуляции(ОМ) используют одну из боковых полос и несущую частоту –fн (рис. 4.6). 26 S(t) mf  0,5 fн f fн f SAM(t) SOM(t) f Рис. 4.6.Процесс формирования сигнала с однополосной модуляцией Аналитически сигнал с ОМ может быть представлен через квадратурные составляющие u S (t )   x S (t ) cos t  ~ x S (t ) sin t A . Две квадратурные составляющие, xs и ~ x S ,отличающиеся на /2, связаны линейным преобразованием Гильберта 1  x S (t ) ~ x S ()  dt ,  2 0 t   U (t )  x S2 (t )  ~ x 2 (t )   ~ u S (t )  U (t ) cos n t  (t )  . x S (t ) (t )  arctg   x S (t ) 4.3 Аналитические модели сигналов Сигналы могут быть заданы как функции времени и некоторых параметров x(t) = f(t, c). Пространство функций или сигналов будем понимать как совокупность функций, подчиняющуюся общим правилам в линейном пространстве: 1.Сумма сигналов принадлежащих пространству тоже принадлежит пространству: x1(t) + x2(t) = x3(t)  X. 2. Существует набор независимых ортогональных функций {i(t)} – базис, через которые может быть выражена любая другая функция из пространства:  x(t )   ci  i (t ) . i 1 3. Расстояние между функциями определяется нормой разности D(x1, x2) =||x1 – x2||. 4. Для нормы справедливо выполнение неравенства: ||x1 + x2||  ||x1|| + ||x2||. 27 5. Расстояние от начала координат до сигнала определяется выражением: 1T D   x 2 (t )dt = ||x||; T0 6. Скалярное произведение двух сигналов определяется выражением: 1T ( x1 , x 2 )   x1 (t ) x 2 (t )dt . T0 * Если сигналы комплексные, то x2 (t ) тоже принадлежит линейному пространству функций. К базисным функциям применяются требования:  независимость базисных функций (они не могут быть выражены через сумму других базисных функций);  ортогональность T  E , i  j , E  const ;  ( t )  ( t ) dt    i j 0, i  j. Отсюда коэффициенты разложения в ряд равны T ci  k  x(t )i (t )dt , где k – нормирующий коэффициент. Если E = 1, то базис ортонормированный. Процедура ортогонализации Грамма-Шмидта позволяет получить ортонормированные функции из набора независимых функций: Шаг 1. Выбираем произвольную функцию 1(t) и находим для неё нормированную функцию  (t ) 1 (t )  T 1 . 2  1 (t )dt Шаг 2. Выбираем вторую функцию 2(t)и находим для неё нормированную функцию , ортогональную первой функции T     2  1 (t )  1 (t ) 2 (t )dt  ; 2 (t )   T 2  1 (t ) 2 (t )  dt Шаг 3. Далее повторяем процедуру до перебора всех функций  3  a11  a22  ; 3 (t )  T 2   3  a11  a2 2  dt T T a1    31 (t )dt ; a2    32 (t )dt . 28 В линейных пространствах существует бесконечное количество ортогональных базисов. Рассмотрим наиболее существенные для теории связи базисы. Базис Котельникова определяется ортогональными функциями  1 F sin 2F (t  it )  . i (t )   , t   2F (t  it )  2 F  Базис синусоидальных функций. Синусоидальные функции ортогональны, но не ортонормированны: {sin t, cos t}, t  [0,T]. С учётом того, что T T 2 sin  tdt  ,  2 получим ортонормированный базис с учетом нормирующего значения:  sin t cos t  ,  ,  T /2 T /2 тогда справедливо представление  sin( t  i ) cos(t  i ) x (t )   ai  bi . T 2 T 2 i 1 Базис Уолша. Функции составляются по матрицам Уолша: H 1 1  H H2   , H4    . 1  1 H  H     29 Лекция 5 МОДЕЛИ СИГНАЛОВ И ПОМЕХ 5.1 Геометрические модели сигналов (АМ, ЧМ, ФМ) Информацию могут переносить амплитуда, фаза, длительность, задержка сигналов (рис. 5.1). Тогда сигналы будут с разными значениями параметров. T us(t) A(t), (t) tз А t 0 н Рис. 5.1. Параметры модуляции радиосигнала Для двоичного сигнала с АМ справедливо представление (рис. 5.2) u s1 (t )  A cos( n t  ) rect T (t ),  u s 2 (t )  0. us(t) C2 Asin  АМ A 2 D1, 2  e t Acos  C1 T Рис. 5.2. Двоичный АМ сигнал Ортогональные базисные функции записываются как 2 2 sin  n t  1 (t ) , cos  n t   2 (t ) .   Тогда координаты в двумерном пространстве определим как T T  u s1 (t )1 (t )dt  e1 ;  us1 (t )2 (t )dt  e2 , где C1 = Asin; C2 = Acos. Расстояние между двумя АМ сигналами по мощности равно: 1T D1, 2P  us1 (t )  u s 2 (t ) 2 dt – мощность;  T0 D1, 2 AM  Энергетическое расстояние: A2  PAM . 2 30 A2T D1, 2     E – энергия. 2 Для сигналов с ЧМ (рис. 5.3) выполняется свойство ортогональности при различии частот не менее   2 / T : u1  A rectT te j1t ; u2  A rectT te j ( 1  )t . Расстояние между двумя ЧМ сигналами (рис. 5.4) равно: T u s2 AM (t )dt T D1,2   (u1  u 2 ) 2 dt  2 E . Для ортогональных сигналов справедливо: T  u S1u S 2 dt  0 тогда, когда начальные фазы совпадают 1 = 2. Для ортогональных сигналов в усиленном смысле совпадение начальных фаз не обязательно: 4   и  1   2. T Для фазовой модуляции выражения для сигналов записываются в виде: u1  Arect T te jnt ; u21  Arect T te jnt e j . Расстояние между сигналами равно (рис. 5.5): T D1, 2   (u S 1  u S 2 ) 2 dt  4 E  2 E . S(t) uS1 sin cos uS2 uS2 uS1 cos f1 f f2 Рис. 5.3. Спектр двоичного ЧМ сигнала uS1 sin Рис. 5.4. Ортогональные сигналы на фазовой плоскости uS2 Рис. 5.5. Двоичные сигналы ФМ Наибольшее расстояние между сигналами достигается при двоичной фазовой модуляции: D12, 2 E 2E 4E =  h02 – для АМ;  2h02 – для ЧМ;  4h02 – для ФМ. N0 N0 N0 N0 Каждое увеличение расстояния вдвое даёт уменьшение вероятности ошибки на порядок. 5.2 Общая классификация помех Помехи воздействуют на системы связи через различные каналы (рис. 5.6) и приводят к снижению качества передачи информации. 31 S(t) ИС КИ КК М nn(t) ПСП вн. шумы КС ПРМ помехи Рис. 5.6. Модель системы передачи информации при воздействии помех Сигнал – это физический процесс, отображающий передаваемое сообщение, все параметры которого известны, кроме информационных. Помеха – это электрические колебания, параметры которых не известны и не связаны с процессом передачи информации. Существует множество помех, которые классифицируются по различным признакам (рис. 5.7). по происхождению ПОМЕХИ по характеру Внутренние (собственные, внутрисистемные) по ширине спектра воздействия Аддитивные Сосредоточенные Мультипликативные Узкополосные Внешние непреднамеренные преднамеренные природные индустриальные Импульсные Рис. 5.7. Классификация помех Внутрисистемные:  по основному каналу,  побочные. Самые сильные помехи – по соседнему каналу и по зеркальному каналу приема. Внутрисистемные помехи имеют такую же структуру как и полезный сигнал. Внешние:  по природному фактору:  тепловой шум атмосферы,  тепловой шум Солнца,  тепловой шум Луны,  тепловой шум звёзд,  грозовые разряды,  метеориты.  индустриальные: любые помехи, которые происходят от технических средств, созданных человеком. Есть допустимое и недопустимое воздействие. Очень много помех попадает в средства связи по проводам питания и управления. 32 Собственные помехи. Плотность распределения мгновенных значений W(uп) при гауссовском законе распределения амплитуд:  u п2  1 W(uп) = exp 2  ; 2  2  и при законе Рэлея для огибающей:  U п2  Uп W(Uп) = 2 exp 2  ,   2  где Uп – значение огибающей. При равномерном законе для фазы W(п) = = 1/2. Аддитивные помехи y(t) = х(t) + n(t), где х(t) – сигнал; n(t) – флуктуационная помеха. Мультипликативные помехи y(t) = (t)х(t); y(t) = (t)х(t–) + n(t), где (t) – мультипликативная помеха. Сосредоточенные помехи – это помехи, у которых ширина спектра совпадает с шириной спектра сигнала (Fn  Fc). Заградительные помехи – это помехи, у S(f) заградительные сосредоточенные которых ширина спектра шире спектра сигнала (рис. 5.8). Узкополосные помехи – это помехи, у которых ширина спектра намного уже ширины f Sc(t) спектра сигнала (Fn< 1 – закон Райса. Линейный канал со случайной передаточной функцией и гауссовским шумом: t y (t )   G (t , )u (t  )d  N (t ) , где G(t, ) – случайная импульсная реакция. Многолучёвый канал с замираниями (рис. 6.2): n y (t )   (t )u (t   i )  n(t ) i 1 или n y (t )   ki (t )[u (t  i ) cos i  u(t  i ) sin i ]  N (t ) дБм i 1 При m > 1 – закон распределения Райса:  x2  z 2 x  xz  2  2x e I  .  2x  Каналы со сложной аддитивной помехой: флуктуационной, сосредоточенной, импульсной W ( x)  LУП y (t )  u s (t )   u УП (t )  i 1 замирание Рис. 6.2. Многолучёвый канал с замираниями LШП  u ШП (t )  N (t ) . i 1 6.3 Прохождение сигналов через каналы с детерминированными характеристиками Простейшим преобразованием является линейное: y (t )  kx(t  ) , 40 задержка распространения сигнала  приводит к задержке приёма информации, но не к её потере. Для узкополосного сигнала: x (t )  A(t ) cos(0 t   (t )) , где A(t) и Ф(t) – медленно меняющиеся функции; y (t )  kA(t  ) cos(0 (t  )  (t  ))  kA(t ) cos(0 (t )   (t )  ) , где  = 0 – фазовый сдвиг в канале. При прохождении сигналов через каналы с детерминированными характеристиками необходимо решить две задачи: – найти корреляционную функцию Ry(t) на выходе канала связи; – найти многомерную функцию распределения Wn(t). Преобразование в линейных цепях происходит в соответствии с линейным уравнением:  y (t )   g () x(t  )d ,  поэтому      R y ()  M   g (t ) x(t  t )dt  g (t ) x (t     t )dt         Rx () g (t1  1 ) g (t2   2 )d1d 2 или   R y ( )   Rx ()Rg (  )d .  Если параметры канала связи зависят от времени, то  y (t )   g (t, ) x(t  )d ,  где g(t, ) – импульсная характеристика и  K (t , j)   g (t, )e  j d .  Задача нахождения Wn(t) на выходе линейного преобразователя очень сложна даже в случае одномерного распределения. Основные закономерности линейного преобразования: случайный процесс с гауссовским законом распределения остаётся гауссовским, негауссовский – нормализуется. 41 Лекция 7 ДИСКРЕТНЫЕ КАНАЛЫ СВЯЗИ 7.1 Классификация дискретных каналов В дискретном канале передают дискретное множество сигналов (рис. 7.1). На выходе канала, в общем случае, наблюдаемых сообщений на одно больше. Если число входных сообщений x = m, то число выходных y = m + 1, учитывая символ стирания. x(t) T x1 x2 x3 ... xm t Y(t) T y1 y2 yl ... ym t Рис. 7.1. Последовательности символов на входе и выходе дискретного канала Скорость модуляции – это скорость выдачи символов в канал связи за одну секунду. Значения y выбираются из множества y  {x1, ..., xm,}. Символ стирания  применяется, если мы не уверены в точности сигнала.     x = b – вектор входной последовательности; y = B – вектор выход ной последовательности. Векторошибки E :   E = ( y – x )modm. Допустим передаётся последовательность: 110010  101010 0 1 1 0 00 Каналы с памятью могут быть заданы уравнениями: y(ti) = F(x(ti), x(ti–1), ..., x(ti–m)), где m – объём памяти. Простейший канал с памятью задаётся уравнением: x(i) = a(i)x(i – 1), эта зависимость влияет на спектр сигнала в КС и на корреляционную функцию сигнала в КС. Каналы без памяти задаются уравнением: y(ti) = F(x(ti)). 42 Если помех нет, то x1 соответствует y1, если есть помехи, то появляются ошибочные решения x1  y2 или x1  ym.  КС Преобразования в дискретном канале осуществляxm ym ются в рамках входного и выходного алфавитов (рис. 7.2): c {p(x1) p(x2)... p(xm)}, {p(y1) p(y2)... p(ym), p(c)}. n - ошибки Модель преобразования задаётся переходными веРис. 7.2. Модель роятностями: P(yi/xi) – вероятность правильного решения; дискретного канала P(yi/xj) – вероятность ошибки; P(c/xi) – вероятность стирания. Получаем матрицу переходных вероятностей:  P( y1 / x1 ) P ( y1 / x2 )  P ( y1 / xn )   P( y / x ) P ( y / x )  P ( y / x )  2 1 2 2 2 n           P( yn / x1 ) P ( y n / x2 )  P ( y n / xn )  P(c / x1 ) P (c / x2 )  P (c / xn )  . По диагонали размещаются вероятности правильного приёма qi x1 y1 m m (i = 1, m ),  = ym+1, Pош ( j )   P( yi / xi ) , Pош   P( xi ) Pош (i )  P0 – средняя веi 1 i 1 роятность ошибки, безусловная вероятность. P(yj) находим из формулы Байеса m P ( xi ) P( yi / xi ) P( x ) P( yi / xi ) P ( yi )  , P ( y j )   P( xi ) P( yi / xi ) , P ( xi / y j )  m i . P ( xi / yi ) i 1  P( xi ) P( yi / xi ) i 1 Можно задать характеристику в виде смешанных вероятностей {P(xi, yi)}:  P( x1 , y1 ) P ( x2 , y1 )  P ( xm , y1 )   P( x , y ) P ( x , y )  P ( x , y )  2 2 m 2   1 2  .       P( x1 , y1m ) P ( x2 , y m )  P ( xm , y m )  P( x1 , c ) P ( x2 , c )  P ( xm , c )  Чтобы найти P(x1, y1) надо рассчитать m m m P ( x1 )   P ( x1 , yi ) , P ( yi )   P ( x j , yi ) , P ( x2 )   P( x2 , yi ) , j 1 i 1 P ( xi / y j )  P( xi , y j ) P( y j ) , P ( y j / xi )  i 1 P( xi , y j ) P ( xi ) . Объём памяти для хранения такой матрицы необходим m(m+1);  m2; = m2+m. 43 Модель дискретного канала (рис. 7.2) содержит множество возможных сигналов на входе и распределение выходного сигнала при заданном входном. Для входных сигналов достаточно указать число m различных символов и длительность передачи символа T. Скорость модуляции связана с длительностью символа соотношением Vм = 1 / T. В общем случае для каждой кодовой комбинации (КК) b1…bn должна быть указана вероятность того, что на выходе канала появится реализация  B1* … Bn* . Всего кодовых комбинаций – mn , вектор ошибок mod m ( B n  b n )  E n . Дискретные каналы классифицируют по различным признакам. Различают дискретные каналы без памяти, в которых сигналы на выходе канала зависят только от переданных в данный момент времени сигналов: B n (t )  F (b n (t )) . Существуют дискретные каналы с памятью – это каналы, в которых текущий символ на выходе зависит от k предыдущих: B n (t )  F (b n (t ), b n (t  ),, b n (t  k)) . Разновидностью каналов без памяти являются каналы со стиранием, в которых может быть принято решение о ненадёжности и стирании текущего символа. 7.2 Модель дискретного канала без памяти Входной алфавит сигналов {b} = bk, k  1, m и их априорные вероятности p(х1)…p(хm). Выходной алфавит сигналов y1, y2, … , ym, ст. Скорость модуляции Vм = 1 / T. Матрица переходных вероятностей: p ( x1 ) x1   y1 p ( y1 )  ? p ( x2 )  x2       ym p( y m )  ?   ст p ( ст )  ?  P( y1 / x1 ) P ( y 2 / x1 )  P( y m / x1 ) P( / x1 )   P ( y / x ) P ( y / x )  P ( y / x ) P ( / x )  1 2 2 2 m 2 2   .           P( y1 / x m ) P ( y 2 / x m )  P( y m / xm ) P( / xm ) q = p(yi/xi) – вероятность правильного приёма; p( xm ) xm  y 2 p( y2 )  ?   m Pj   p ( yi / x j ) – вероятность ошибки; i 1 i j 44 m P   p j p ( x j ) P(y2/x1) – полная вероятность ошибки. i 1 Вероятность p(yi) находим из формулы Байеса p( xi , y j )  p( y j ) p( xi / y j )  p( xi ) p( y j / xi ) , где p(xi, yj) – апостериорная вероятность; p(xi) – априорная вероятность; p(yj / xi) – функция правдоподобия; p ( xi ) p ( y j / xi ) ; p( y j )  p ( xi / y j ) p ( xi ) p ( y j / xi ) p ( xi / y j )  p( y j ) ; m p ( y j )   p ( xi ) p ( y j / x i ) i 1 p ( xi / y j )  p ( xi ) p ( y j / xi ) m .  p ( xi ) p ( y j / xi ) i 1 Если вероятности pij не меняются во времени, канал считается стационарным. 7.3 Недвоичный симметричный канал Частный случай канала без памяти – симметричный канал, у которого матрица переходных вероятностей  q mp01 mp01  mp01 p  ст  p0  p0 p0  m 1 q m 1  m 1 pст  ,         p  p p  m 01 m 01 m 01  q pст  где q = p(yj / xi);p0 = (m – 1)p(yj / xi); p = p(ст / xi). Справедливо соотношение q + p0 + pст = 1, поэтому для задания канала достаточно задать две вероятности – q и pст. Вероятность ошибки по одному символу m 1 p m 1 p P0  (m  1) 0   0 ,  p0 P( xi ) . m  1 i 1 m  1 i 1 Группа событий на выходе полная: m 1  P( xi )  1 , pст+p0+q = 1. i 1 На приёмной стороне достаточно хранить две вероятности q и p0, pст = 1–p0–q. Pош = P(yi/xj), i  j – условная вероятность. 45 Двоичный несимметричный канал Несимметричность – это следствие замираний и инерционности приёмника. Двоичный симметричный канал x1 1 – p0 p0 p0  1  p0  p  ; q + p = 1. 1  p  0 0 Полная вероятность ошибки p(x1)p+p(x1)(1-p) = Pош . y1 p0 x2 1 – p0 y2 Двоичный симметричный канал со стиранием p0 pст  1  p0  pст  p0 1  p0  pст pст   Для получения вероятностей стирания, ошибки и правильного приема требуется провести вероятностный анализ при известных пороговых значениях и распределениях вероятностей шума (рис. 7.3). uS(t) 1 t –1 y(t) t   w(u)du  q1  Uпор(1) t () Uпор(–1) U пор U пор w(u ) du  pст  U пор Uпор(1) t Uпор(–1) Рис. 7.3. Определение вероятностей ошибки и правильного приёма для двоичного симметричного канала со стиранием 46 Лекция 8 МОДЕЛИ ПОТОКОВ ОШИБОК В ДИСКРЕТНЫХ КАНАЛАХ 8.1 Общая характеристика моделей потоков ошибок Вектором ошибки называют поразрядную разность (по mod m) между принятой кодовой комбинацией Bn и переданной bn: mod m ( B n  b n )  E n , тогда B n  mod m ( E n  b n ) . Вектор ошибок в дискретном канале играет ту же роль, что и помеха в непрерывном канале. Смысл ошибок особенно понятен на примере двоичных каналов (m = 2). В дискретных каналах различают – r-кратные ошибки (каналы с независимыми ошибками); – пакеты ошибок (зависимые или группирующиеся ошибки). Пакеты – это последовательность нескольких искажённых символов: B = b + e, если е = 0 – ошибки нет, если е = 1 – есть ошибка. Число ошибочных элементов определяет вес вектора ошибок ||E||. Пример. Вектор ошибок ||E|| = 3; длина групп ошибок L = 5. bn = 1 1 0 001 0 1 1  Е = 0 1 10 01 000 Bn = 1 0 10 0001 1 Поток ошибок E т = [0 1 0 0 1 0 1 1 0 0000]. пакет ошибок (пачка ошибок) Группа ошибок, ограниченная двумя крайними ошибочными элементами, называется пакетом (пачкой) ошибок (рис. 8.1). h2c/ш t E 0000110010000 t Рис. 8.1. Формирование пачки ошибок в канале связи Длина L пачки ошибок – важный параметр, так как его используют при выборе помехоустойчивых кодов. 47 Если провал качества канала длительный, то мы можем потерять информацию. Зависимые ошибки за счёт метода перемежения преобразуют в независимые: 0 000  1 0 0 1 0 000|| E || = 4 – позиции.  E т = [0 1 0 0 1 0 1 1 0 00000] E т – длина кодового слова = 14 = l. Универсальной модели потока ошибок не существует. В настоящее время можно выделить две группы моделей: – независимые ошибки; – групповые ошибки. Для переданного слова B = с n буквами и известной Рош в одном символе общая вероятность появления r ошибок Рош сум слова из n букв определяется выражением: Pr  Cnr Pr (1  P ) n  r . Вероятность ошибки приёма слова без помехоустойчивого кодирования равна (ошибки независимы) поэтому равна: n i Pош слова   cni Pош (1  Pош ) n i  1  (1  Pош ) n . i 1 8.2 Модель потока ошибок в дискретном канале связи без памяти Если ошибки независимы, тогда различные сочетания ошибок кратности r имеют вероятность (биномиальный закон, рис. 8.2) p n ( r )  C nr p r (1  p ) n  r ; C nr  n! , r!( n  r )! так как p << 1, то наибольшей вероятностью обладают ошибки малой кратности. p(r) r 0 1 2 3 L0 Рис. 8.2. Распределение по биномиальному закону Вероятность того, что будут ошибки кратности r > L0, описывается формулой  P( r  L0 )   C nr p n (1  p ) n  r . rL 48 8.3 Модель потока ошибок для канала с двумя состояниями Существует два состояния для канала связи (рис. 8.3): h2(t) h12 h22 t Рис. 8.3. Состояния канала связи – хорошее (p << 1); – плохое (pош > p). 8.4 Независимые ошибки Для характеристики независимых ошибок часто используется пуассоновская модель (p << 1). Вероятность r-кратных ошибок ( np) r Pn ( r )  exp( np) . r! Пример. Если для дискретного канала связи h = 10–2, то вероятность искажения кодовой комбинации из пяти символов 5 P   Cni p i (1  p) i . i 1 Вероятность ошибки рош = 1 – (1 – р)5; вероятность правильного приёма рпр. приёма = (1 – р)5. В результате получаем 5 (5 p) r P exp(5 p) . r ! r 1 49 Лекция 9 ОСНОВНЫЕ ПОЛОЖЕНИЯ ТЕОРИИ ИНФОРМАЦИИ 9.1 Энтропия как количественная мера степени неопределённости Методы количественного определения информации были предложены К. Шенноном в 1948 году и привели к построению теории информации. Требования к определению количества информации: – количество информации должно быть аддитивной мерой; – количество информации о достоверном событии равно нулю; – количество информации не должно зависеть от содержания. Определение информации должно основываться на параметре, характеризующем сообщение bi из ансамбля. Таким параметром является вероятность p(bi), т. е. количество информации должно быть функцией p(bi). Если b1 и b2 независимые сообщения, то p(b1, b2) = p(b1)p(b2), а i(b1, b2) = i(b1) + i(b2), то f(p(b1)p(b2)) = f(p(b1)) + f(p(b2)): 1 f(x) = log x; i(b)  log . p(b) Один бит – это количество информации, содержащееся в сообщении о событии, происходящем с вероятностью 0,5 (т. е. системы с двумя состояниями). Количество информации больше в менее вероятном сообщении. Если передаётся последовательность зависимых сообщений, то используется условная информация 1 , i ( a n | a n 1 , a n  2 ,  , a1 )  log p ( a n | a n 1 , a n  2 ,  , a1 ) где an – случайная величина. Для характеристики всего ансамбля сообщений используется энтропия:   m 1 1 . H ( A)  M     p ( a i ) log log( 1 / p ( a )) p ( a )   i 1 i Энтропия является основной характеристикой источника сообщений. Свойства энтропии (рис. 9.1): 1. Энтропия неотрицательна: H(A) = 0; Н 1 p(ai) = 1;p(aj) = 0. 2. Энтропия аддитивна, т. е. еслиa1, a2, …, an, то HА, А, …, А = nH(A). p(a1) 0,5 3. Если в ансамбле K = mn различных соРис. 9.1. Зависимость общений, то H(A)  log K. энтропии от вероятности Равенство достигается при равновероятном распределении. Для двоичного источника без состояния для системы из двух состояний памяти: k = 2; H(A)  max; p(a1) = p(a2) = 0,5; H(A) = log 2 = 1 бит. 50 9.2 Информационные характеристики источников сообщений Основные характеристики: – энтропия источника – H(X); – избыточность источника – R; – производительность источника – Vист. Энтропия источника Энтропия алфавита источника [бит/элемент] N 1 H ( X )   p( xi ) log p ( xi ) i 1 Источник сообщений передаёт последовательность символов (рис. 9.2), которая является случайным сигналом (аналогом являются телеграммы). Буквы передаются в фиксированные моменты времени. Таких сообщений может быть много, в общем случае M = mN. Нас интересует энтропия на символ. X(t) xN x3 x 2 x1 t сообщение Рис. 9.2. Последовательность символов (телеграмма) Рассмотрим случай равновероятных статистически независимых букв. Тогда, так как p(xi / xi – 1) = p(xi), вероятность появления одной телеграммы (сообщения) 1 p1  p 2    p M  N . m Отсюда средняя энтропия на телеграмму M 1 1 H N ( X )   p i log  log  log m N  N log m , pi pi i 1 поэтому энтропия на одну букву равна H N(X ) H(X )   log m , N т. е. равна энтропия алфавита источника. Так как log M = NH(X), то M = 2NH(X). Эта формула носит общий характер, так как для источников сообщений с неравновероятными и статистически зависимыми буквами число различных сообщений будет равно M = 2NH(X), где H(X) – энтропия на одну букву. Пример. Энтропия русского алфавита при равновероятных буквах h = log 32 = 5. Энтропия источника при неравновероятных буквах. Рассмотрим длинные сообщения, такие, чтобы статистические частоты появления букв оказались близки к вероятности их появления N >> 1: 51  A1 pˆ ( A1 )  N  p ( A1 );   pˆ ( Am )   Am N  p( Am );   PN  P  i  p ( Ai )      ;  N  lim PТ  0 . N  i  p ( Ai ) будет существенной, встречаться N будут, но с очень малой вероятностью. Поэтому можно считать, что все сообщения длины N будут разделены на высоковероятные, в которых  i  p( Ai ) и маловероятные, в которых i  p( Ai )   . N N Маловероятными сообщениями пренебрежём, так как их появление практически невозможно. Найдём число высоковероятных сообщений, вероятности их появления и среднюю энтропию на букву. Буква Ai встречается в сообщении длиной Ni = Np(Ai) раз. Вероятность такого события для одной буквы p ( Ai ) Np ( Ai ) , поэтому вероятность появления высоковероятного сообщения из независимых букв Сообщения, в которых   m PN   p ( Ai ) Np ( Ai ) i 1 Так как каждая из букв встречаются в любом из сообщений примерно Np(Ai) раз, то все сообщения равновероятны. Общее количество сообщений 1 1 . M   m PN  p( Ai ) Np ( Ai ) i 1 Энтропия на одно сообщение m 1 H N ( x )  log M  log m  p( Ai ) Np ( A ) i    Np ( Ai ) log p( Ai )  i 1 i 1 m   N  p ( Ai ) log p( Ai )  NH ( x) , i 1 откуда M н  2 NH н ( x ) . Отношение неравновероятных сообщений к равновероятным: 52 M н 2 NH н ( x ) N ( H ( x)H р ( x) .  NH ( x )  2 н Mр 2 р Пример. Для русского алфавита Hн(x) = 4,42; N = 1000. Тогда Mн  21000( 4,425)  2 580  10174 , Mр т. е. число возможных сообщений составляет ничтожно малую часть от общего числа. Статистически зависимые символы. Например, в русском языке вероятность появления в сообщении буквы зависит от того, какие буквы стоят на других местах. Наличие статистических связей между буквами уменьшает энтропию на букву и число сообщений. Если учитывать зависимость только двух соседних букв, то для сообщения длиной N m m H ( A1 , A2 )   p ( Ai , A j ) log p ( Ai , A j )  H ( x1 )  H ( x 2 | x1 ) ; i 1 j 1 1) если буквы независимы, то H(A1, A2) = H(A1) + H(A2) и энтропия на букву H ( A1 )  H ( A2 ) ; 2 2) если буквы сильно зависимы, то H(x1 / x1)  0, тогда H ( A1 ) H зав ( x )   H незав ( x ) 2 Если есть зависимость от двух и более предшествующих букв, то m m m 1 H ( A1 , A2 ,  , Ak )      p ( Ai1 , Ai2 ,  , Aik ) log p () i1 1 i2 1 ik 1 Очевидно, что H ( x ) H 2 ( x) H зав ( x)  k   H незав ( x ) . k 2 Для русского языка Hзав(x) = 2. Число практически возможных сообщений M зав  2 NH зав ( x ) ; Hзав(x) < Hнезав(x) < Hр(x); Mзав < Mнезав < Mр. H незав ( x)  Избыточностью источника называют величину H  H ист H H ист H ; N  N 0  N  N ист  NR . R  max  1  ист  1  H max H max H max N log m Производительностью источника называют среднее количество информации, выдаваемой источником в единицу времени [бит/с]: Vист = VM H(x), где VM – скорость модуляции, Бод; H(x) – энтропия на символ. 53 9.3 Понятие информации Информация вводится как степень уменьшения неопределённости знаний о состоянии некоторой системы в результате проведения некоторого опыта (эксперимента). Если до опыта неопределённость в знаниях об измеряемой величине X равна Hарг(x), а в результате опыта неопределённость уменьшается и становится Hарs(x), то получаемая в результате опыта информация I = Hарг(x) – Hарs(x). Очевидно, что максимум информации будет тогда, когда Hарs(x) = 0. Чем больше начальная неопределённость, тем большее количество информации получим (рис. 9.3). р(х) Xmax x Рис. 9.3. Распределение вероятностей наблюдаемой величины Количество получаемой информации зависит от вероятности наступившего исхода. Частная информация I k  log 1 . pk Частная информация является случайной величиной, поэтому используют мат. ожидание m I   pk log pk . k 1 9.4 Информация в сложной системе Рассмотрим сложную систему (X, Y), где X и Y – две статистически зависимые случайные величины. Над величиной Y проводится опыт, на основании которого снижается неопределённость относительно значения X. Количество информации относительно X, получаемое из опыта над случайной величиной Y, определяется как уменьшение исходной неопределённости IY(X) = H(X) – H(X / Y) или m m m 1 I Y ( X )   p ( xi ) log    p ( y j ) p ( xi / y j ) log p ( xi / y j ) . p ( x ) i i 1 i 1 j 1 а) Пусть X и Y независимы, тогда H(X / Y) = H(X) 54 и IY(X) = H(X) – H(X) = 0, т. е. опыт не уменьшает неопределённость относительно X. б) Величины X и Yзаданы функциональной зависимостью y = f(x), тогда H(X / Y) = 0 и IY(X) = H(X) – 0 = H(X)  max. В промежуточном варианте 0  IY(X)  H(X). Опыт над Y необходимо ставить так, чтобы энтропия была минимальной H(X / Y): IY(X) = H(X) – H(X / Y) = H(Y) – H(Y / X) = IX(Y) = I(X, Y); m m n 1 I ( X , Y )   p ( xi ) log    p ( y j ) p ( xi / y j ) log p ( xi / y j )  p ( x i ) i 1 j 1 i 1 n m m n p ( xi , y j ) 1    p ( y j / xi ) p ( xi ) log    p ( xi , y j ) log  p ( x ) p ( y ) i i j 1 i 1 i 1 j 1 n m p ( xi , y j )   1    p( xi , y j ) log  log p ( xi ) p ( y i )   j 1 i 1 n m p ( xi , y j )   p ( xi , y j ) log  I ( X ,Y ) . p ( x ) p ( y ) i i j 1 i 1 Пример. Существует канал связи (рис. 9.4.). X Канал Y IY(X) H(X) помехи H(X / Y) потери Рис. 9.4. Канал связи СимволыА1…Ат y1, …, ym p(A1)…p(Am) p(y1)…p(ym); p(Ai)  p(yi); Iy(A) = H(A) – Hy(A). m 1 а) H ( A)   p( Ai ) log , если помех нет, то H(A / Y) = 0, тогда p ( A ) i i 1 Iy(A) = H(A). б) Если помехи есть, то Hy(A)  0, тогда Iy(A) = H(A) – Hy(A) < H(A); Iy(A) = H(y) – H(Y / A). Если Y = n + A, где n – шум, то H(Y / A) = H((т + A) / A) = H(n), т. е. IY(A) = H(Y) – H(n), где H(n) – энтропия шума. 55 Лекция 10 УСТРАНЕНИЕ ИЗБЫТОЧНОСТИ 10.1 Теорема кодирования для канала без помех Если в канале нет помех, то потери информации не будет. Здесь необходимо решить задачу максимизации скорости передачи сообщений. Если источник имеет N различных символов, а основание кода равно m, то длина кодовой группы равна числу кодовых символов. Пусть длина i-й кодовой группы ni сопоставляется сообщению Ai, вероятность которого p(Ai). Средняя длина кодовой группы n n   ni p( Ai ) i 1 зависит от того, как закодировано сообщение. Вообще говоря, необходимо, чтобы n  min. Информация на символ кода максимальна, если символы кода равновероятны и независимы, тогда она равна log m. Минимальная длина i-й кодовой группы i-го сообщения находится как log(1 / p ( Ai ))  log p ( Ai )  ni    , log m  log m  где log m – информация на символ кода; log p(Ai) – информация i-го сообщения. Тогда   p ( Ai ) log p ( Ai ) H ( x)  log p ( Ai ) . n   ni p( Ai )   p( Ai )   log m log m log m 10.2 Кодирование источников сообщений с равновероятными символами Задача. Пусть имеется источник сообщений А1, А2, …, АМ; p(A1) = p(A2) = … = p(AМ); энтропия на сообщение H(A) = log N. Необходимо найти оптимальный код, т. е. код, каждый символ которого несёт максимальное количество информации. Оптимальным в этом смысле будет равномерный код. Так как код равномерный, то все кодовые комбинации будут иметь одинаковую длину H ( A) log N . n  log m log m Если log N – целое число, проблем нет. Если по каналу в секунду пеlog m редаётся VM символов кода или VM / n кодовых комбинаций, то 56 VM VM H ( A)  log N  V M log m . n (log N / log m) Если n – дробное число, то его необходимо округлять до большего целого числа n. VM Так как n > n, то V   c , т. е. скорость передачи ин(log N / log m ) формации меньше пропускной способности канала. Однако мы можем довести скорость передачи информации до уровня пропускной способности за счёт блочного кодирования. Пример. Пусть N = 10, если кодировать каждый символ в отдельности двоичным кодом, то n = log 10 / log 2 = 3,32 = 4. Применим блочное кодирование с числом символов в блоке 2, тогда Nбл = 100 = 102 и длина кодовой комбинации на два символа log 102 / log 2 = 6,64 = 7, тогда на один символ n = 7 / 2 = 3,5. При длине блока 3 символа log 103 / log 2 = 9,96 = 10 и n = 3,33. При увеличении длины блока  : n  3,32. Следовательно, блочное кодирование позволяет увеличить скорость передачи информации. Докажем это в общем виде  logN k  k log N n    , 0 <  < 1;  бл    log m log m   n k log N  log N  n   бл      ; k k log m k log m k  lim  0 , k  k тогда log N , n log m т. е. за счёт блочного кодирования может быть уменьшена длина кодовой комбинации до теоретического предела. Блочное кодирование ведёт к запаздыванию получения информации и усложнению приёмника. Vmax  10.3 Кодирование источников сообщений с неравновероятными независимыми символами Задача. Пусть имеется источник сообщений А1, А2, …, АN; p(A1), p(A2), N … p(AN); энтропия источника H ( A)   p( Ai ) log p( Ai )  log N . i 1 57 Если выбрать равномерный код, то V V Vn  M H ( A)  Vmax  M log N , n n т. е. для неравновероятных символов равномерный код переносит меньшую информацию, чем пропускная способность, т. е. он не оптимален. Скорость передачи информации можно увеличить путём укорочения длины кодовых комбинаций. Это следует из того, что типичных последовательностей намного меньше, чем нетипичных: M тп  2 NH ( A)  2 N log m . n Коэффициент сжатия k сж  нн . nр Каким должен быть код, чтобы n / nрн  1 ? Ясно, что он должен состоять из КК с независимыми символами (и равновероятными). Шеннон и Фано построили следующий вариант такого кода. Пример. Номера разложения Код 1 2 3 4 A1 0,25 I I 00 A2 0,25 II 01 A3 0,125 II I 100 A4 0,125 I 101 A5 0,0625 II I 1100 A6 0,0625 II I II 1101 A7 0,0625 II I 1110 A8 0,0625 II 1111 8 H m ( A) m   p ( Ai ) log p ( Ai )  2,75 ; i 1 m=2 8 n   ni p (ni )  2,75 , i 1 т. е. n  H m (A) – код оптимален. При таком способе кодирования от неравновероятных символов 1 и 0 переходят к равновероятным. На рис. 10.1 изображено топологическое дерево. Здесь никакая КК не может быть началом другой. 1 10 00 01 11 111 1111 100 1110 100 101 1100 1101 Рис. 10.1. Топологическое дерево 58 Декодирование сообщений проводится движением от вершины дерева, пока не дойдём до окончания. Если вероятности сообщений не являются степенями двойки, то разбиение на целые n невозможно, т. е. нельзя найти оптимальный код. Для получения оптимального кода снова необходимо применить блочное кодирование. Тогда будет M = 2NH(A) равновероятных сообщений: NH ( A) n H ( A) ; n N  nN  log m N log m – это оптимальный код. 10.4 Кодирование источников со статистически зависимыми символами Здесь также необходимо рассматривать блоки по N символов, тогда n H ( A) NH зав ( A) ; n  N  зав , M зав  2 NH зав ( A )  2 N log m ; n N  N log m log m т. е. мы получили оптимальный код. Но блочное кодирование приводит к усложнению приёмника. Способ кодирования Хаффмена Элементы алфавита источника располагают в порядке убывания вероятностей. Два нижних элемента объединяют в новый элемент, который занимает место в алфавите согласно своей вероятности. Этот процесс продолжают до тех пор, пока вероятность двух последних элементов не станет равна единице. При каждом объединении «0» присваивается элементу, занимающему верхнюю позицию в паре объединяемых элементов и «1» – нижнему элементу. Пример. x1 x2 x3 x4 0010 x5 0011 x6 x7 x  x8 7 0,25 0,25 0,125 0,125 0,0625 0,0625 0,0625 0,0625 x1 x2 x3 x4 x7 0000 x5 x6 0001 x6 x1 x2 00 x6 x3 01 x3 1 1 x3 x1 0,5 x2 x3 x1 0,5 x1 x2 x3 x4 000 x6 x 0,25 001 x7 6 10 11 010 011 0000 0001 0010 0011 x1 x2 x3 x4 x5 x6 x7 x8 x1 x2 x6 010 x3 x3 011 x4 0,25 59 Лекция 11 КОДИРОВАНИЕ В КАНАЛАХ С ПОМЕХАМИ Информационные характеристики КС:  скорость передачи V;  пропускная способность V = VM(H(x) –H(x/y)) = Vп – Vпотерь, где (H(x) –H(x/y)) – информация, которая переносится в КС одним символом; VМ – скорость модуляции; H(x/y) – потери; H(x) – энтропия КС; Vп = VМH(x) – скорость передачи информации по КС; Vпотерь = VМH(x/у). Пропускная способность – это максимальная скорость передачи информации по КС, где максимум берётся по всем возможным законам распределения сообщений на выходе ИС c  maxV . { p ( xi )} Равномерный закон распределения дает максимум, если нет помех, если они есть, то - почти максимум. Задача Шеннона: p(x1) ДСК p(x2) q p p q p = p(y2/x1) = p(y1/x2); q = 1–p; 1 1 H ( x)  p( x1 ) log  p( x2 ) log – источника. p( x1 ) p ( x2 ) 1 1 H ( x / y )  p log  q log . p q  1 1 1 1 V  VM  p ( x1 ) log  p ( x2 ) log  p log  q log  . p ( x1 ) p ( x2 ) p q  V V  0;  0; p( x1 ) p( x2 ) p(x1) = p(x2) = 1/2. Тогда:  1 1 C  Vmax 1  p log  q log  , p q  где C – пропускная способность. Для недвоичного симметричного ИС, пропускная способность будет (рис. 11.1): 60   q  p m 0 m 1    C VM q 0,5 1 Рис. 11.1. Зависимость пропускной способности двоичного канала p0 m 1 p0 m 1 q q p ( x1 )       q  p( x2 ) ,  p( xm ) m 1 ; Hmax(x) = log m; p ( x ) i 1 i 1 H ( x / y )    p ( xi ) p ( y j / xi ) log ; p ( y j / xi ) H ( x)   p( xi ) log q , i  j ;  m 1 1  p ( y j / xi )   p 0 C  Vmax  log m  p 0 log  q log  . p0 q   m  1 , i  j. 11.1 Теорема Шеннона для каналов с помехами Наличие шума в информационной системе приводит к нарушению соответствия между входным и выходным сигналами (рис. 11.2): Y(t) = X(t) + n(t), так как сигнал, передаваемый по СПИ, в которой присутствует шум, искажается. В дискретной форме влияние шума проявляется в случайной подмене одних символов другими. Однако, несмотря на такие случайные искажения, соответствие обычно не разрушается полностью. Это обеспечивает возможность работы СПИ даже при наличии сильных шумов. x КС КИ КК ИС y КС ПС Si n Рис. 11.2. Модель канала связи На практике помехи присутствуют в линиях и каналах связи всегда. В частности, в военных системах связи наличие помех является нормальным режимом работы (в условии постановки преднамеренных помех). При рассмотрении вопросов передачи информации в условиях шума были получены наиболее важные результаты теории информации, которые можно назвать крупными научными открытиями. К ним относятся: – первая теорема Шеннона (прямая и обратная); – вторая теорема Шеннона. 61 Из первой теоремы следует, что как бы ни был сильным шум, можно создать условия, при которых возможна передача информации при сколь угодно малой вероятности ошибки. Из второй теоремы следует, что не потребуется до бесконечности понижать скорость передачи при повышении требований к малости ошибки. Это может показаться неожиданным, так как интуитивно ясно, что для уменьшения вероятности ошибки необходимо увеличивать избыточность. Вводя избыточность путём многократного повторения сигнала, приходим к выводу, что при увеличении требований к малости вероятности ошибки избыточность должна неограниченно возрастать, а скорость передачи информации – стремиться к нулю. Пример. H(X) I = H(X) – H(X | Y) H(X | Y) Из примера видно, как интуиция приводить к неправильным выводам. К. Шеннон показал, что существуют такие способы введения избыточности, при которых обеспечиваются одновременно и сколь угодно малая вероятность ошибки, и конечная скорость передачи информации. 11.2 Первая теорема Шеннона 11.2.1 Прямая теорема Шеннона В канале связи с помехами всегда можно получить сколь угодно малую вероятность ошибочного приёма сообщений, если выполняется условие Vист < C. Д о к а з а т е л ь с т в о . Рассмотрим проблемы, возникающие при передаче дискретных сообщений по каналам с шумом (рис. 11.3). H(X) КК x1 каналы выходные сигналы xN Y {X} {Y} Рис. 11.3.Передача дискретных сообщений по каналам с шумом На вход КК поступает одна из N0 последовательностей символов, которую надо передать по каналу связи без ошибок. Идея состоит в том, чтобы внести достаточную избыточность, обеспечив и необходимую избыточность. 62 Внесение избыточности связано с увеличением длительности сигнала на некоторое число символов. Число возможных последовательностей резко увеличивается, но КК работает только с N0 из них разрешёнными. Так как последовательности искажаются, то одной и той же отправленной соответствуют несколько принятых последовательностей. Обратно каждой из принятых соответствует некоторое подмножество, отправленных на входе канала. В таких условиях требует принять однозначное решение о том, какой сигнал был передан. Это достигается тем, что всё множество принимаемых сигналов N разбивается на N0 подмножеств, сопоставляемых с N0 возможностями. Если принят сигнал i-й группы, то считается, что передан был i-й сигнал. Проблема состоит в том, чтобы выяснить, возможно ли такое размещение N0 переданных последовательностей среди возможных N входных и такое разбиение на группы, чтобы вероятность ошибки не превышала сколь угодно малой заданной величины. Другая проблема состоит в том, чтобы понять существует ли некоторая минимально необходимая избыточность, или при уменьшении вероятности ошибки соответственно должна увеличиваться избыточность. Для доказательства вспомним, что среди всех последовательностей длины n есть вх nH ( X ) – высоковероятные (типичные) N тип  2 ; вых – высоковероятные принимаемые N тип  2 nH (Y ) ; – число искажающих высоковероятных последовательностей шума ш N тип  2 nH ( X / Y ) ,т. е. всего от 2 nH ( X / Y ) последовательностей может произойти принятая последовательность длины n, а каждому отправленному сигналу соответствует 2 nH ( X / Y ) принимаемых. Пусть производительность источника Vист < C. При этом число разрешённых последовательностей 2 nVист  2 nH ( X ) . Тогда необходимо выбрать M разреш  2 nVист последовательностей из M общ  2 nH ( X ) возможных комбинаций, передать по каналу и потом выделить 2 nVист из общего числа 2 nH (Y ) . Если мы разместим Mp разрешённых сигналов случайным образом на множестве Mобщ, то вероятность того, что последовательность относится к числу разрешённых M разреш 2 nVист Pразреш   nH ( X )  2 n (Vист  H ( X )) . M общ 2 Принятому сигналу соответствует 2 nH ( X / Y ) переданных последовательностей. 63 Вероятность того, что ни один из 2 nH ( X / Y ) сигналов не является разрешённым, кроме одного переданного, равна  M разреш  nH ( X / Y ) 1 1    Q  [1  2 n (Vист  H ( X )) ] 2    M общ    [1  2 n (Vист  H ( X )) ] 2 nH ( X / Y ) . (11.1) Это средняя вероятность безошибочного приёма. Так как Vист < C = H(X) – H(X / Y), то Vист – H(X) = –H(X / Y) – ,  > 0, и, подставляя последнее выражение в формулу (11.1), получим Q  [1  2 (  nH ( X / Y )  n) ]2 nH ( X / Y ) . Найдём lim Q  1 : n  log[1  2  n ( H ( X / Y )   ) ] . n 2 n( H ( X / Y ) lim log Q  lim 2 nH ( X / Y ) log[1  2  n ( H ( X / Y )   ) ]  lim n n По правилу Лопиталя, учитывая, что 1 и ( a x )  a x ln a , log a x  x ln a получим  H (X /Y )    2  n   0 , lim log Q  lim     n ( H ( X / Y )   ) n n H ( X / Y ) 1  2   откуда следует, что lim Q  1 , т. е. при случайном n  кодировании блоками достаточной длины вероятность ошибки может быть сделана сколь угодно малой (рис. 11.4). Mобщ х1 у1 принятый сигнал 11.2.2 Обратная теорема Шеннона 2NH(x/y) Рис. 11.4. Распределение сигналов в фазовом пространстве с зонами принятия решения Если производительность источника сообщений Vист больше пропускной способности канала С (Vист > C), то никакой код не может сделать вероятность ошибки сколь угодно малой: lim log Q    lim Q  0 n  n  т. е. вероятность безошибочного приёма стремится к нулю. При Vист > C величина  становится отрицательной. 11.3 Вторая теорема Шеннона Для обеспечения достаточной помехоустойчивости приходится вводить в передаваемый сигнал избыточность, уменьшая при этом скорость передачи информации. Вторая теорема гласит, что увеличения избыточности до бесконечности не требуется при снижении Pош до нуля. 64 Теорема. При условии Vист  C среди кодов, обеспечивающих сколь угодно малую Рош , существует код, при котором скорость передачи информации сколь угодно близка к скорости создания информации: V  Vист. 11.4 Теорема Шеннона для непрерывных каналов  P  C  F log 1  2  .  ш  Если М – число каналов продолжительностью T, то скорость передачи информации равна [бит/с] M (11.2) V  log . T Найдём число сообщений M. Вероятность того, что точка находится внутри объёма Vштр (рис. 4.1)   ш2  P   Pc   2ш V  Vштр     2TF   ш2     2  P   ш   c 2TF , т. е. TF   ш2   . P   2   Pc   ш  Для безошибочного приёма ни одна из (М – 1) точек передаваемого сигнала, кроме одной, не должна находиться внутри этого объёма. Вероятность того, что любая из этих точек находится вне объёма равна (1 – P). Вероятность того, что все точки находятся вне объёма, кроме одной (рис. 11.5): Q = (1 – p)M – 1;   2 ш Q  1     Pc   ш2      TF     M 1 . А 2TF ш2 M В 2TF ( Pc   2ш )  Q = 1– Рис. 11.5. Непрерывные сигналы в фазовом пространстве Если правую часть разложить в биномиальный ряд и учесть сумму первых членов, то 65 TF   ш2   . Q  1  ( M  1) 2  P    c ш  Пусть теперь требуется найти вероятность ошибки, которая была бы меньше некоторого заданного : Q>1– или   ш2   1  ( M  1) 2   Pc   ш  TF  1  ;  Pc   ш2 M  1   2  ш Это условие выполняется тогда, когда  P  2 M   c 2 ш  ш         TF . TF , откуда  .   На основе вышесказанного можно сделать следующие выводы. Первая и вторая теоремы Шеннона указывают на существование кодов, обеспечивающих произвольную малость вероятности ошибки и не уменьшающих скорость передачи информации. Однако вопрос о построении таких кодов не рассматривается. До сих пор нет общего метода построения кодов, реализующих теоретический предел для Pош и Vист. Все теоремы Шеннона дают асимптотические результаты, т. е. выполнение условий возможно при увеличении длины блока. Практическая реализация при этом затруднена: – сложностью кодирующих и декодирующих устройств; – задержкой приёма сообщения. C  log 2 M log  P   F log 2 1  2c T T  ш 66 Лекция 12 ПОМЕХОУСТОЙЧИВОЕ КОДИРОВАНИЕ И ЕГО ПРИМЕНЕНИЕ В СИСТЕМАХ СВЯЗИ 12.1 Общая характеристика помехоустойчивого кодирования Основные понятия и определения В современных системах связи, навигации и управления широкое применение нашли помехоустойчивые коды. Основной задачей помехоустойчивого кодирования является обеспечение высокой достоверности передаваемых данных за счет применения устройств кодирования/декодирования в составе системы передачи цифровой информации, включающей источник данных, кодер канала, модулятор, физический канал, демодулятор и детектор, декодер канала, приемник данных. В общем случае процедура кодирования представляет собой преобразование одного алфавита в другой. Самым простым и наглядным примером может служить преобразование буквенного алфавита в алфавит двоичных последовательностей. Например, для русского алфавита, содержащего (для удобства) 32 буквы (мощность алфавита), каждая буква может быть представлена пятиразрядной последовательностью из нулей и единиц, являющейся кодовой комбинацией двоичного безызбыточного кода. Число символов в последовательности определяется как логарифм мощности первичного алфавита по основанию два. В общем случае основание логарифма равно основанию вторичного алфавита и может быть больше двух. Так, при преобразовании латинского алфавита, содержащего (для удобства) 27 букв, каждая буква может быть представлена трехразрядной последовательностью троичных символов, т. е. кодовой комбинацией троичного кода.. Коды, полученные при данных преобразованиях, называются безызбыточными. При передаче сигналов с использованием кодовых комбинаций (КК) данных кодов по каналу связи, в котором действуют помехи, возможны переходы одной КК в другую. При этом определить на приемной стороне факт искажения отдельных КК (режим обнаружения ошибок), а тем более исправить искаженные КК (режим исправление ошибок) не представляется возможным. Для реализации возможности примененияна приемной стороне режимов обнаружения и исправления ошибок в кодовые комбинации на передающей стороне необходимо ввести избыточность. Такие коды называются кодами с избыточностью или помехоустойчивыми (корректирующими) кодами. Избыточность чаще всего вводится путем добавления к безызбыточной КК так называемых проверочных символов. Приняты следующие обозначения для помехоустойчивых кодов: n – значность кода, т. е. общее число символов в избыточной кодовой комбинации; 67 k – число информационных символов, т. е. число символов в первоначальной безызбыточной кодовой комбинации; r – число проверочных символов, т. е. число символов, добавляемых к первоначальной безызбыточной кодовой комбинации, причем n = k + r. Помехоустойчивый код значности nс числом kинформационных символов обозначается как (n,k)-код. Число разрешенных кодовых комбинаций (РКК) (n,k)-кода определяется как Nр = 2k. Общее число возможных КК значности nравно Nо = 2n. Важной характеристикой помехоустойчивого кода является так называемое минимальное Хеммингово расстояние dmin, определяемое как минимальное расстояние в пространстве Хемминга среди всех возможных расстояний между двумя любыми КК данного кода. Хеммингово расстояние между двумя комбинациями равно числу единиц в их сумме по модулю 2, или числу несовпадающих позиций. Например, для (5,2)-кода с четырьмя разрешенными КК вида: F0 = 00000; F1 = 01011;F2 = 10101;F3 = 11110 – минимальное Хеммингово расстояние dmin = 3, так как легко показать, что для шести возможных расстояний d0,1 = d0,2 = d0,3 = d1,3 = d2,3 = 3, а d1,2 = 4. Одной из важных задач в теории помехоустойчивого кодирования является задача максимизации минимального Хеммингова расстояния dmin при фиксированных значениях остальных параметров. Наглядный подход к уяснению данной задачи может быть показан при рассмотрении геометрического смысла кодирования. Геометрический смысл кодирования сводится к увеличению наименьшего расстояния dmin между сигналами за счёт уменьшения максимального расстояния dmax. Чем больше будет минимальное расстояние, тем большой помехоустойчивостью будет обладать код. Рассмотрим пример. Пусть требуется передать 4 сообщения. В случае простого двоичного кода при сигналах с одинаковой энергией КК безызбыточного кода 00, 01, 10, 11 примут вид, представленный на рис. 12.1, на котором в Евклидовом пространстве показаны векторы, соответствующие этим сигналам. C2 F3(t) F1(t) E F1 = 1 1 F2 = 1 –1 F3 = –1 1 F4 = –1 –1 C1 E Dmin  2 E F4(t) F2(t) Рис. 12.1. Геометрическая интерпретация КК безызбыточного кода 68 Каждый сигнал имеет своими соседями по два сигнала на расстоянии dmin= 2 E и один сигнал на расстоянии dmax= 2 E , где E – энергия сигнала. При данной значности и основании кода эта система сигналов единственная, и их расположение может быть только таким. Однако, известно, что помехоустойчивость такой системы не является максимальной. Её можно увеличить перераспределением расстояний между сигналами. Это перераспределение имеет целью увеличить расстояние dmin за счёт уменьшения dmax. Введём избыточность, увеличив значность кода на единицу, т. е. используем трёхзначный код. Полное число комбинаций этого кода равно 8 и они имеют вид, представленный на рис. 12.2, на котором показаны векторы, соответствующие этим сигналам. В этом случае из восьми комбинаций необходимо выбрать четыре, причём так, чтобы обеспечить максимальную помехоустойчивость приёма. Введение избыточности даёт большие возможности выбора, поскольку 4 КК могут быть выбраны 70 различными способами (могут быть получены 70 различных кодов). В данном случае оптимален выбор одной из двух систем сигналов: F1, F4, F6, F7 или F2, F3, F4, F5 – причём обе системы эквидистантны с dmin = (8Е/3)1/2. 3(t) F1 = 1 1 1 F2 = 1 1 –1 F3 = 1 –1 1 F4 = 1 –1 –1 F5 = –1 1 1 F6 = –1 1 –1 F7 = –1 –1 1 F8 = –1 –1 –1 2(t) F7(t) F5(t) F3(t) F1(t) 1(t) F4(t) F8(t) Dmin  8 E / 3 F6(t) F2(t) Рис. 12.2. Геометрическая интерпретация КК помехоустойчивого кода Сравнение двух систем сигналов показывает, что введение избыточности при одинаковых энергетических затратах на единицу передачи информации позволило увеличить минимальное расстояние между сигналами. Сущность избыточности как средства повышения помехоустойчивости передачи информации состоит в том, что её введение позволяет перераспределить расстояния между сигналами в направлении увеличения минимального расстояния за счёт максимального. Это перераспределение оказывается возможным вследствие того, что при расширении множества сигналов, появляется возможность выбора заданного число M сигналов из общего их числа N > M. Основная задача при этом заключается в осуществлении такого выбора, в результате которого может быть получена наилучшая система, т. е. система, обладающая таким взаимным расположением сигналов, которое обеспечивает максимальную помехоустойчивость приёма сигналов. 69 Ещё одной важной и широко применяемой характеристикой помехоустойчивого кода является энергетический выигрыш от кодирования (ЭВК), определяемый как отношение превышений энергии сигнала на бит к спектральной мощности шума при отсутствии и при наличии кодирования 2 h02 без код. W 2 , (12.1) h02 кодир. PT E 2 где h02  2  c 2 – отношение энергии сигнала на бит к односторонней N0 N0 спектральной мощности шума N0 [Вт/Гц]. Графическая интерпретация оценки ЭВК представлена на рис. 12.3. При этом использованы следующие обозначения: р0 – вероятность ошибки на символ (без кодирования); рэ – вероятность ошибки на символ (с кодированием), или эквивалентная вероятность ошибки на символ; рт – требуемая вероятность ошибки на символ. h0 кодир. h0 без кодир. ртреб. рош h02 ЭВК рэ кодир. р0 без кодир. Рис. 12.3. Графическая интерпретация оценки ЭВК При применении кодирования и фиксированной скорости передачи информации Vи = 1/Т2 [бит/с] длительность символа уменьшается, соответственно скорость передачи символов Vс = 1/Тс [символ/с] и требуемая полоса частот F [Гц] увеличиваются в n/k раз. Для оценки эффективности использования полосы частот применяется показатель, называемый частотной эффективноV стью   и , который численно равен скорости передачи информации Vи в F полосе 1 Гц. Таким образом, для двоичных помехоустойчивых кодов расширение полосы частот определяется отношением n/k. При этом выражение (12.1) записывается в виде 2 h02 без код. W (12.2) n 2 h02 кодир. k Выражая ЭВК в децибелах, получим 70 n 2 2 W[ дБ]  10 lg h02 (12.3) без код.  10 lg h02код.  10 lg . k С учётом применения помехоустойчивых кодов были получены выражения для оценки предельного значения ЭВК при приёме кодовых комбинаций в целом kd W *  min , (12.3) n а также при посимвольном приёме: kd W *  min (12.4) 2n Отметим, что предельные значения ЭВК при приёме в целом на 3 дБ превышают аналогичные величины при посимвольном приёме. В табл. 12.1 приведены минимальные значения отношения энергии сигнала на бит к односторонней спектральной мощности шума для обеспечения требуемой вероятности ошибочного приема ртреб = 10–5 для случая отсутствия кодирования (режим ФМ-2) и для различных типов помехоустойчивых кодов. Таблица 12.1 Значения минимальных превышений для различных кодов Тип п/у кода –5 1. ФМ-2 некодир. ртреб = 10 2. Свёрточный код  = m+1 = 5, декодирование алгоритмом Витерби (ТВ сигналы в цифровой форме DVB-S, Inmarsat, Intelsat, ФМ-2) 3. Свёрточный код  = 9, декодирование алгоритмом Витерби, ФМ-2 4. Свёрточный код  = 32, последовательное декодирование, ФМ-2 5. Параллельный каскадный код (турбокод), ФМ-2 (n = 131064, k = 65532) E2/N0 [дБ] 9,6 5,3 3,5 2,7 0,7 Помехоустойчивые коды могут использоваться в режиме обнаружения и в режиме исправления ошибок. Число обнаруживаемых и исправляемых ошибок определяется величиной минимального Хеммингова расстояния dmin. Количество обнаруживаемых ошибок l = dmin–1. (12.5) Количество исправляемых ошибок  d min  1  2 , если d min нечётное; t (12.6) d  2  min  2 , если d min чётное. Краткая историческая справка Начало истории помехоустойчивого кодирования можно отнести к 1948 году, когда была опубликована знаменитая статья Клода Шеннона, доказавшего принципиальную возможность безошибочной передачи сигналов, если 71 скорость передачи меньше пропускной способности канала связи, определяемой отношением сигнал/шум на входе приёмного устройства. Было доказано, что энергетика линий связи определяет только их пропускную способность, а сколь угодно высокой помехоустойчивости приёма сообщений можно достигнуть путём применения специальным образом построенных кодов. В течение последующих более чем шестидесяти лет наблюдалось интенсивное развитие теории помехоустойчивого кодирования. Были предложены различные коды, разработаны процедуры кодирования и декодирования. Большую роль в развитии теории и практики помехоустойчивого кодирования сыграли такие учёные как М.Дж. Голей, Р. Хемминг, И.С. Рид, Г. Форни,Дж. Возенкрафт, P.M. Фано, К.Ш. Зигангиров, А. Витерби, Боуз, Рой-Чоудхури, Хоквингем, А.А. Харкевич, Э. Л. Блох, Л.М. Финк, Б.Д. Каган, Д. Чейз, Г. Унгербоек. Наиболее заметным достижением в теории помехоустойчивого кодирования в последнее время является изобретение турбокодов (ТК) Турбокоды были предложены К. Берроу (C. Berrou), А. Главьё (A. Glavieux) и П. Ситимашимой (P. Thitimajshima) в 1993 году в статье «Кодирование и декодирование с исправлением ошибок вблизи предела Шеннона: турбо-коды» (англ. «Near Shannon Limit Error-correcting Coding and Decoding: Turbo-code»), опубликованной в трудах IEEE. Данные коды всего через 5-6 лет после своего рождения получили «прописку» как в современных стандартах радиосвязи с космическими объектами, так и в стандартах систем мобильной связи для передачи мультимедийной информации. Применение турбокодов обеспечивает высокую эффективность обработки сигналов, недостижимую при реализации любого другого из существующих методов: вероятность ошибки составляет 10–5 при соотношении сигнал/шум 0,7 дБ, т. е. с их помощью можно практически вплотную приблизиться к так называемой границе Шеннона: по энергетической эффективности (ЭЭ) они уступают теоретическому граничному значению лишь 0,5 дБ. Суть одного из главных положений теории Шеннона заключается в том, что шум в канале связи ограничивает лишь скорость передачи информации, но не достоверность её приёма. Последнюю наиболее часто измеряют вероятностью ошибочного приёма бита информации или, как чаще называют в зарубежной литературе, – частотой ошибочных бит (Bit Error Rate– BER). Общая классификация помехоустойчивых кодов Широкий спектр систем связи, обладающих различными характеристиками, обусловил необходимость разработки различных типов помехоустойчивых кодов. Существует большое число классификаций, каждая из которых обладает определенными достоинствами и недостатками. Приведём классификацию кодов по основным параметрам, представляющим наибольший интерес с точки зрения их применения в системах связи. Помехоустойчивые коды подразделяются на равномерные и неравномерные. Равномерные коды – это коды, все кодовые комбинации которых 72 содержат постоянное количество разрядов. Неравномерные коды содержат кодовые комбинации с различным числом разрядов. Все корректирующие (избыточные, помехоустойчивые) коды делятся на два больших класса: блочные и непрерывные коды. При кодировании блочным кодом последовательность элементов данных от источника сообщений принимается за блок (сообщение). Каждому возможному блоку из k информационных символов ставится в соответствие кодовый блок (слово) длиной n. Кодовый блок в канале связи искажается шумом и декодируется независимо от других кодовых блоков. Отличительной особенностью непрерывных кодов является то, что первичная последовательность символов, несущих информацию, непрерывно преобразуется по определённому закону в другую последовательность, содержащую избыточное число символов. Здесь процессы кодирования и декодирования не требуют деления кодовых символов на блоки. Самым ярким примером непрерывных кодов являются свёрточные коды. В свёрточных кодах избыточные символы образуются через информационные не только данного блока, но и предшествующего. Также помехоустойчивые коды делятся на разделимые и неразделимые коды (или коды с разделимыми и неразделимыми символами). В разделимых кодах всегда можно выделить информационные символы, содержащие передаваемую информацию, и проверочные символы, которые являются избыточными и служат исключительно для коррекции ошибок. Неразделимые коды не имеют чёткого разделения кодовой комбинации на информационные и проверочные символы. К ним относятся, например, коды с постоянным весом и коды Плоткина. Разделимые блочные коды, в свою очередь, делятся на несистематические и систематические. Наиболее многочисленный класс разделимых кодов составляют систематические коды, в которых информационные символы стоят на первых k позициях. Основная особенность систематических кодов заключается в том, что проверочные символы образуются как линейные комбинации информационных символов. К систематическим кодам относятся коды с проверкой на чётность, коды с повторением, корреляционный, инверсный, коды Хэмминга, Голея, Рида-Маллера, Макдональда, Варшамова, с малой плотностью проверок на чётность, итеративный код. В несистематических кодах проверочные символы представляют собой суммы подблоков с разрядами, на которые разделена последовательность информационных символов. К этим кодам относятся коды Бергера. Разновидностью систематических кодов являются циклические коды. Кроме всех свойств систематического кода, циклические коды имеют следующее свойство: если некоторая кодовая комбинация принадлежит коду, то получающаяся путём циклической перестановки символов новая комбинация также принадлежит данному коду. Например, если Fi = 10110, то Fi + 1 = 01011, а Fi – 1 = 01101. К наиболее известным циклическим кодам относятся простейшие коды, коды Хэмминга, Боуза–Чоудхури–Хоквингема, ма- 73 жоритарные, коды Файра, Абрамсона, Миласа–Абрамсона, Рида–Соломона, компаундные коды. В зависимости от количества возможных значений q каждого из символов (основания кода) все коды можно разделить на двоичные (при q = 2) и недвоичные (при q > 2). Ещё при одном подходе коды можно разделить на линейные и нелинейные. Линейные коды образуют векторное пространство и обладают следующим важным свойством: два кодовых слова можно сложить, используя подходящее определение суммы, и получить третье кодовое слово. В случае обычных двоичных кодов эта операция является посимвольным сложением двух кодовых слов по модулю 2. Данное свойство существенно упрощает процедуры кодирования и декодирования, а также задачу вычисления параметров кода, поскольку минимальное расстояние между двумя кодовыми словами при этом эквивалентно минимальному расстоянию между кодовым словом, состоящим целиком из нулей, и некоторым другим кодовым словом. Кроме того, при вычислении характеристик линейного кода достаточно рассмотреть, что происходит при передаче кодового слова, состоящего целиком из нулей. Линейные древовидные коды обычно называют сверхточными. Помехоустойчивые коды также можно разбить на коды, исправляющие случайные или независимые ошибки, и коды, исправляющие пакеты ошибок. На практике в основном применяются коды, исправляющие случайные ошибки, поскольку для исправления пакетов ошибок часто оказывается легче использовать коды для исправления независимых ошибок вместе с устройствами перемежения и восстановления. Первое из них осуществляет перемешивание порядка символов в закодированной последовательности перед передачей в канал связи, а второе – восстановление исходного порядка символов после приёма. При правильном проектировании данных устройств можно считать, что образующиеся в канале связи пакеты ошибок перед декодированием будут разбиты на случайные ошибки. 12.2 Кодирование помехоустойчивыми кодами При реализации процедуры кодирования каждой комбинации безызбыточного кода сопоставляется комбинация кода с избыточностью. Пример. Код (3,2) 00  0 00 01  011 10  101 11  110 С увеличением параметра k число разрешённых КК (РКК) очень быстро возрастает. Например, при k = 10 число РКК равно Nр = 210 = 1024, а при k = 20 их число уже равно Nр = 220  106. Проблема кодирования заключается в том, что в памяти кодирующего устройства нужно хранить Nр = 2kРКК. 74 Использование групповых кодов (в частности, блочных) позволяет хранить k комбинаций. А при циклических кодах можно хранить одну комбинацию, из которой можно получить все остальные: 2k  k  1. Рассмотрим процедуру кодирования более подробно. ПустьF0 – комбинация безызбыточного кода. Рассмотрим для примера код (4,2), F 0  (c00 , c10 ) , где c00 – элемент кодовой комбинации безызбыточного кода; F – комбинация кода с избыточностью; F = (c0,c1,c2,c3); c2 = p0, c3 = p1–избыточные символы. Для широко применяемого систематического кода Fсис.кoдa (c00 , c10 , p0 , p1 ) . Кодирование заключается в реализации преобразования F 0  F . Для преобразования F 0  F , т. е. для кодирования используется образующая матрица 1 0 a0 b0  (12.7) G , 0 1 a1 b1  с помощью формируются избыточные символы через информационные p0  a0 c00  a1c10 , p0  b0 c00  b1c10 , (12.8) где a0, b0, a1, b1 – коэффициенты, обычно целые числа. Строки образующей матрицы должны быть линейно независимыми, что выполняется при условии   a0 b1  a1b0  0 . Процесс кодирования заключается в следующем: для получения комбинации кода с избыточностью F, необходимо комбинацию безызбыточного кода F0 умножить на образующую матрицу G F  F 0G , G  [ E ; A] , где E – единичная матрица; A – матрица, определяющая избыточные символы. Пример кодирования. Код (4,2). F0 = ( c00 , c10 ) = (2,8). F 0  F . 1 0 a0 b0  F  F 0G , G    , a0, = b1 = a1 = 1;b0 = 2. 0 1 a1 b1  Находим определитель:   a0 b1  a1b0  11  1 2  0 . 1 0 1 2 F  (2,8)     (2,8,10,12) . (2,8)  (2,8,10,12). 1 1 1   12.3 Декодирование помехоустойчивых кодов После реализации процедуры кодирования РКК с выхода кодера поступают на модулятор, который с помощью какого-либо метода модуляции 75 реализует их отображение в аналоговый сигнал S(t),который передаётся в канал связи. В физическом канале сигнал S(t) подвергается воздействию шума n(t) и поступает на демодулятор, который преобразует принятый из канала сигнал Y(t) в последовательность чисел, представляющих оценку переданных данных.С выхода детектора искажённая кодовая комбинация F поступает в декодер канала, который, используя внесённую кодером избыточность, определяет переданное источником сообщение (данный процесс называется декодированием). Рассмотрим процедуру декодирования более подробно. При декодировании необходимо выполнить преобразование F   F 0 , где F   F  n(t ) – искажённая помехой кодовая комбинация. Из соотношений (12.8) можно получить систему уравнений a0 c00  a1c10  p0  0; , (12.9)  0 b0 c0  b1c10  p1  0. с помощью которой можно сформировать проверочную матрицу:  a0 b0  a b  a 0 a1  1 0  1 т , H  1 . (12.10) H     b b  1  1  0 1     0  1 Образующая и проверочная матрицы G и H связаны соотношением GH т  HG т  0 , (12.11) которое позволяет ввести очень важное в теории кодирования понятие «синдрома». Синдром – это результат перемножения любой комбинации кода с избыточностью (разрешённой или запрещённой) на транспонированную проверочную матрицу: S = F*HТ. (12.12) Вектор синдрома имеет размерность [1*r]: S  ( S1 , S 2 ) . Основные свойства синдрома. 1. Если все элементы синдрома равны нулю, то искажений нет (принятая кодовая комбинация является разрешённой или число ошибок превышает исправляющую способность кода). 2. Если хотя бы один элемент синдрома отличен от нуля, то принятая кодовая комбинация является искажённой, т. е. запрещённой. 3. Каждой искажённой КК, исправляемой данным кодом, соответствует свой и только свой синдром. Рассмотрим процедуру декодирования с помощью вычисления синдрома при условии искажения первого символа (e – величина искажения): S1  a0 (c00  e)  a1c10  p0  a0 c00  a1c10  p0  a0 e  a0 e ; 76 S1 S ; S 2  b0e  e  1 . a0 b0 Для определения местоположения ошибки необходимо найти отношение S1/S2, для которого выполняется правило: a S если 1  0 , то искажён первый символ; S 2 b0 S a если 1  1 , то искажён второй символ. S2 b1 S1  a0 e  e  Общий алгоритм декодирования 1. Вычисляются элементы синдрома S. Если все элементы синдрома равны нулю, то принятая комбинация не искажена. Если хотя бы один элемент отличен от нуля – комбинация искажена. Необходимо найти местоположение и величины ошибок. a S S a 2. Если 1  0 – ошибка на первой позиции, 1  1 – ошибка на S 2 b0 S2 b1 второй позиции. S S 3. Величина ошибки e  1 или e  1 . a0 b0 4. Коррекция ошибки. Из значений принятого информационного символа (1-й, 2-й) вычитается величина ошибки e. Пример декодирования. Переданная РКК F = (2,8,10,12); на выходе детектора (после прохождения канала связи) искаженная КК F  = (2,4,10,12), т. е. искажён второй символ; элементы образующей матрицы a0, = b1 = a1 = 1;b0 = 2. 1. Сначала в соответствии с (12.10) формируем проверочную матрицу 1 2 1 1  a0 a1  1 0  1 1  1 0  т   H    2 1 0  1 , H   1 0  . b b  1   0 1      0  1 2. Определяем синдром для принятой искажённой КК 1 2 1 1 т   (4,4)  есть искажения. S  F H  (2,4,10,12)   1 0     0  1 3.Определяем положение ошибочного символа a S 4 1 a 1 S1 = –4; S2 = –4; 1   1; 0  ; 1   1; S2  4 b0 2 b1 1 S1 a1   1  искажён второй символ. S 2 b1 77 4. Определяем величину ошибки S1  a0 c00  a1 (c10  e)  p0  a0 c00  a1c10  p0  a1e  a1e ; S 4 e 1   4 . a1 1 5. Выполняем коррекцию принятой кодовой комбинации F  = (2,4,10,12); F = (2,4–(–4),10,12) = (2,8,10,12). 12.4 Применение помехоустойчивых кодов в системах связи Выше были рассмотрены процедуры кодирования и декодирования для простейших помехоустойчивых кодов. Данные примеры показывают принципиальную возможность исправления ошибок, обусловленных воздействием помех в каналах связи. В современных системах связи применяются гораздо более мощные коды, позволяющие обнаруживать и исправлять ошибки большой кратности. В простейшем случае защита от ошибок заключается только в их обнаружении. Система должна предупредить передатчик об обнаружении ошибки и необходимости повторной передачи. Такие процедуры защиты от ошибок известны как методы автоматического запроса повторной передачи (Automatic Repeat ReQuest – ARQ). На рис. 12.4 показаны наиболее распространённые процедуры ARQ. Первая процедура, запрос ARQ с остановками, показана на рис. 12.4,а. Её реализация требует только полудуплексного соединения, поскольку передатчик перед началом очередной передачи ожидает подтверждения об успешном приёме (acknowledgement – АСК) предыдущей. В примере, приведённом на рис.12,4,а , третий блок передаваемых данных принят с ошибкой. Следовательно, приёмник передаёт отрицательное подтверждение приёма (negative acknowledgement – NAK); передатчик повторяет передачу АСК АСК NАК АСК АСК NАК передача приёмник 1 2 3 3 4 5 ошибка 5 t ошибка а) передатчик 1 2 3 АСК передача приёмник 4 5 6 АСК АСК 7 8 4 5 6 АСК АСК АСК АСК 7 8 9 АСК АСК АСК NАК 1 2 3 4 5 ошибка 10 11 АСК 7 АСК 8 9 АСК NАК 6 7 8 4 5 6 7 ошибка 8 9 10 11 7 t б) а) запрос ARQ с остановками (полудуплексная связь); б) непрерывный запрос ARQ с возвратом (дуплексная связь) Рис. 12.4. Автоматический запрос повторной передачи (ARQ) 78 третьего блока сообщения и только после этого передаёт следующий по очерёдности блок. Вторая процедура, непрерывный запрос ARQ с возвратом (continuous ARQ with pullback), показана на рис. 12.4,б. Здесь требуется дуплексное соединение. БС и АС начинают передачу одновременно: передатчик отправляет информацию, а приёмник передаёт подтверждение о приёме данных. Каждому блоку передаваемых данных присваивается порядковый номер. При использовании процедуры ARQ передатчик «возвращается» к сообщению с ошибкой и снова передаёт всю информацию, начиная с повреждённого сообщения. Возможна ещё одна процедура с непрерывным запросом ARQ и выборочным повторением, для которой требуется дуплексное соединение. Повторно передаётся только искажённое сообщение, затем передатчик продолжает передачу с того места, где она прервалась, не выполняя повторной передачи правильно принятых сообщений. Выбор конкретной процедуры ARQ осуществляется исходя из компромисса между требованиями эффективности применения ресурсов связи и необходимостью дуплексной связи. Большей эффективностью обладает схема с дуплексной связью. Преимущество схем ARQ перед схемами прямого исправления ошибок (forward error correction – FEC) заключается в более простой реализации и меньшей избыточности. Кроме того, информация передаётся повторно только при обнаружении ошибки. С другой стороны, метод FEC может оказаться более приемлемым (или дополняющим), если обратный канала недоступен или задержка при использовании ARQ слишком велика; алгоритм повторной передачи нельзя реализовать удобным образом; при ожидаемом количестве ошибок потребуется слишком много повторных передач. На рис. 12.5 приведены графики зависимостей эффективности использования пропускной способности канала  = V/c на уровне ТСР от вероятности ошибочного приёма пакета. Здесь V – скорость передачи информации с учётом потерь и повторных передач, с – пропускная способность канала.  1 1 0,75 2 3 0,5 0,25 0 –4 10 Рош п 10 –3 10 –2 10 –1 1 кривая 1 – запрос повторной передачи используется; кривая 2 – используется код с исправлением ошибок (FEC) совместно с запросом повторной передачи; кривая 3 – запрос повторной передачи не используется Рис. 12.5. Зависимости эффективности использования пропускной способности  от вероятности ошибочного приёма пакета 79 Анализ приведённых зависимостей показывает, что использование повторной передачи приводит к увеличению устойчивости к ошибкам примерно в десять раз по отношению к ситуации, когда повторные передачи не используются. Совместное применение помехоустойчивого кодирования с исправлением ошибок и повторных передач (кривая 2) практически оправдано благодаря большей устойчивости, но тогда хуже используется пропускная способность при малых значениях ошибки. Коды с контролем чётности для обнаружения или исправления ошибок используют линейные суммы информационных битов, которые называются битами чётности. Код с одним контрольным битом использует прибавление к пакету информационных битов одного контрольного бита. Этот бит (бит чётности) может быть равен нулю или единице, причём его значение выбирается так, чтобы сумма всех битов в кодовом слове была чётной или нечётной. В операции суммирования используется арифметика по модулю 2. В приёмном устройстве производится декодирование, заключающееся в проверке, дают ли нуль суммы принятых битов кодового слова по модулю 2 (положительная чётность). Если полученный результат равен 1, то кодовое слово содержит ошибки. Скорость кодирования такого кода можно записать как k/(k+1). Код обнаруживает, что в кодовом символе присутствует нечётное количество ошибок. Если ошибка была внесена в чётное число битов, то проверка чётности покажет отсутствие ошибок. Если ошибки во всех разрядах равновероятны и появляются независимо, вероятность появления j ошибок в пакете, состоящем из п символов равна: n P ( j , n)    Pошj (1  Pош ) n  j , (12.13)  j где Pош – вероятность получения канального символа с ошибкой;  n т!    (12.14) j j ! ( n  j )!   – биномиальный коэффициент. Таким образом, для кода с одним битом чётности вероятность необнаруженной ошибки Рп в пакете из пр бит вычисляется следующим образом n / 2 ( при n  чётное) ( n 1) / 2 ( при n  нечётное)  n  2j   Pош (1  Pош ) n  2 j . (12.15) 2 j j 1   Прямоугольный код создаётся следующим образом. Из битов сообщения строятся прямоугольники, состоящие из М строк и N столбцов и к каждой строке и каждому столбцу прибавляется бит чётности, что в результате даёт матрицу размером (М + 1)(N + 1). Скорость кодирования прямоугольного кода, k/n, может быть записана следующим образом: k MN . Vk   n ( M  1)( N  1) Pп   80 Любая отдельная ошибка в разряде приведёт к нарушению чётности в одном столбце и в одной из строк матрицы. Прямоугольный код может исправить любую единичную ошибку, поскольку расположение ошибки однозначно определяется пересечением строки и столбца, в которых была нарушена чётность. Вероятность ошибки сообщения для кода, который может исправить ошибочные комбинации, состоящие из t или менее ошибочных битов записывается как n  n PM     Pошj (1  Pош ) n  j . (12.16) j  t 1  j  Судить о положительном эффекте от кодирования можно на основе анализа графиков зависимостей вероятности ошибки на бит от отношения сигнал/шум, приведённых на рис. 12.6. Рош 2 10 –1 1 3 10–2 4 10–3 10–4 10 lg(Ec/N0), дБ –6 –4 –2 2 кривая 1 – передача сигналами BPSK без помехоустойчивого кодирования; кривые 2–4 – передача сигналами BPSKс помехоустойчивым кодированием со скоростями Vк2 = 1,0; Vк3 = 0,3; Vк4 = 0 Рис. 12.6. Графики зависимостей вероятности ошибки на бит от отношения сигнал/шум для помехоустойчивости пакетов с использованием помехоустойчивых кодов Анализ показывает, что выигрыш в отношении сигнал/шум при равной Рош на бит может достигать более десяти децибел, что указывает на прямую выгоду от применения. Рассмотрим выигрыш от применения помехоустойчивого декодирования блоковых кодов при условии, что ошибки в радиоканале при приёме кодовых символов происходят независимо с вероятностью p0. Вероятность появления равно i ошибок в блоке из n символов подчиняется биномиальному закону из (12.13): i  Pi  C   p0i (1  p0 ) ni . (12.17) n 81 Если при кодировании исправляются все ошибки кратности t и менее, n то вероятность ошибочного приёма кодовой комбинации Pk   Pi . При i  t 1 числе ошибок в канале (t+1) и более они возникают случайно и будут в равной степени искажать как информационные, так и проверочные символы. Поэтому среднее значение вероятности ошибки в двоичном символе (бите) n i 1 (12.18) Pош   Pi . i t 1 n При малой вероятности ошибки в канале (p0 << 1), что имеет место на практике, можно ограничиться первым членом ряда и 2t  1  t  1 t 1 Pош  C   p0 . n  n  Вероятность ошибки p0 определяется аналогично вероятности ошибки при приёме сигнала без кодирования, но с учётом скорости используемого кода Vk =k/n. Например, при фазовой модуляции в радиоканале вероятность будет 1 Pош  1   2 Eб k / N 0 n (12.19) 2 где Eб – энергия, затрачиваемая на передачу одной двоичной единицы. Наиболее распространёнными типами блочных кодов, применяемых в системах радиодоступа, являются коды Хэмминга, циклические коды РидаСоломона, редко применяются коды Боуз–Чоудхури–Хоквингема (БЧХ). Коды Хэмминга имеют структуру (n,k) = (2m–1, 2m–m–1), где т = 2,3,... . Минимальное расстояние для кода Хэмминга dmin = 3, поэтому он способен исправлять любую одиночную ошибку или обнаруживать две. Коды БЧХ относятся к циклическим и имеют структуру (n,k) = (2m–1, 2m–mt–1), где т = 3,4,... . Минимальное расстояние dmin  2t+1 позволяет исправлять любые комбинации из t и менее ошибок. Коды БЧХ достаточно разнообразны и допускают при фиксированном значении длины кодовой комбинации n = 2m–1 несколько вариантов исправляющей способности кода. Например, при п = 15 может быть три варианта кода с t = 1,2,3; а при п = 255 – 33 варианта кода с исправляющей способностью t от 1 до 63. Наиболее часто применяемым в цифровых системах радиодоступа является код Рида–Соломона. Кодом Рида–Соломона называется групповой линейный недвоичный циклический (n,k)-код, построенный над расширенным полем Галуа, исправляющий ошибки кратности t = (n–k)/2. Параметры кода n = m(2m–1), k = m(2m–1)–2mt. Минимальное расстояние dmin = m(2t+1), где т – число бит в одном недвоичном символе.    82 Свою популярность коды Рида-Соломона (РС) получили благодаря удобству исправления пакетов ошибок длиной т. На базе классического кода Рида-Соломона формируется большое количество производных: расширенных и укороченных кодов, которые легко адаптируются к конкретной длине сообщения. На рис. 12.7 приведены графики зависимостей Pош от отношения сигнал/шум h02 для различных типов помехоустойчивых кодов. Коды Хэмминга (кривые 2,3) обеспечивают выигрыш всего несколько децибел, но при этом являются наиболее простыми в реализации. Наибольший выигрыш в энергетике обеспечивают коды Рида–Соломона (кривые 6,7). Коды БЧХ занимают промежуточное положение. 10–2 Pош 1 10–3 2 3 10–4 4 6 10–5 –6 5 7 10 4 6 8 10 12 10 lg h02 , дБ кривая 1 – сигнал BPSK без кодирования; кривые 2,3 – сигнал BPSK с кодом Хэмминга (7,4) и (15,11); кривые 4,5 – сигнал BPSK с кодом БЧХ (127,36) и (127,64); кривые 6,7 – сигнал MFSK (М = 32)с кодом РС n = 31, t = 8 и 4 Рис. 12.7. Зависимость Pош от отношения сигнал/шум h02 для различных типов помехоустойчивых кодов Перемежение представляет собой эффективный метод борьбы с группирующимися ошибками в канале с замираниями. Идея метода заключается в «рассеянии» символов кодового слова: символы должны находиться друг от друга на таком расстоянии, чтобы быть подверженными независимым замираниям. При независимых замираниях символы, поражённые пакетом ошибок, принадлежат различным кодовым словам. Поэтому влияние пакета ошибок распределяется по всему сообщению, и появляется возможность восстановить данные с помощью исходного кода, исправляющего ошибки. Известно несколько типов перемежителей, реализующих диагональное, свёрточное, межблоковое и блоковое перемежение. Наиболее простым из четырёх типов перемежителей является блоковый, в котором l кодовых слов исходного кода размещаются в виде l строк прямоугольной матрицы, а их считывание для передачи осуществляется по столбцам, как показано на рис. 12.8. Каждое кодовое слово содержит n символов (k информационных и 83 n–k избыточных символов). Прямоугольная таблица содержит l кодовых слов. Параметр l называется глубиной перемежения. Независимо от начала возникновения пакета ошибок длиной l он будет поражать только один символ каждой строки. Таким образом, если исходный код обладает способностью исправлять одиночные ошибки в пределах кодового слова, то код с перемежением будет исправлять одиночные пакеты ошибок длиной l или менее. Если же исходный код может исправлять одиночные пакеты ошибок длиной t и менее, то код с перемежением будет исправлять одиночные пакеты длиной lt или менее. Запись Передача l n–k k Рис. 12.8. Передача кода с блоковым перемежением Преимущество свёрточных кодов по отношению к блочным заключается в непрерывном обнаружении и исправлении ошибок. Свёрточный код задаётся тремя параметрами: n, k и K. Код (n, k, K) генерирует n бит выходной последовательности из k входных бит. Для формирования выходной последовательности используется K*k входных бит. В каждый i-й тактовый момент времени на вход кодирующего устройства поступает (параллельно) k0 символов сообщения, а с выхода снимается n0 символов, соответствующих входным. Выходные символы формируются с помощью рекуррентных соотношений из K информационных символов, поступивших в данный и предшествующие моменты времени. Величина K называется длиной кодового ограничения и играет ту же роль, что и длина блочного кода. Свёрточный код имеет избыточность R = 1–k0/n0 = 1–Vk, где Vk – скорость кода, и обозначается как (k0/n0). Типичными являются скорости кода Vk = 1/n0 (например, Vk = 1/2) и Vk = n–1/n (например, Vk = 2/3). При Vk = 2/3 на вход кодирующего устройства одновременно поступают k0 = 2 информационных символа, а снимается n0 = 3 кодовых символа. Корректирующая способность свёрточного кода зависит от так называемого свободного расстояния, которое по существу содержит ту же информацию о коде, что и кодовое расстояние для блоковых кодов. 84 Свёрточные коды находят применение в системах связи. Для декодирования свёрточного кода при небольших значениях длины кодового ограничения (K = 3, 5, 7) целесообразно использование алгоритма максимального правдоподобия, предложенного А. Витерби. Декодирующее устройство при этом оказывается достаточно простым, реализуя в то же время высокую помехоустойчивость. Исследования показывают, что применение свёрточных кодов при фиксированной вероятности ошибки p = 10–5 позволяет получить энергетический выигрыш 4...6 дБ по сравнению с системой, использующей фазомодулированные сигналы без кодирования. На рис. 12.9 приведены графики зависимостей Pош от h02 , позволяющие судить о возможностях свёрточных кодов. В сравнении со случаем без кодирования и использованием сигнала BPSK (кривая 1) выигрыш зависит от схемы принятия решения (жёсткая или мягкая) при приёме, от скорости кодирования Vк и количества блоков K, учитываемых при формировании выходной кодовой комбинации длиной n. 10 –2 Pош 10–3 10 –4 1 2 3 4 10–5 10–6 2 10 10 lg h02 , дБ кривая 1 – сигнал BPSK без кодирования; кривая 2 – Vк = 1/3, К = 41 (жёсткое решение); кривая 3 – Vк = 1/3, К = 7 (мягкое решение); кривая 4 – Vк = 1/2, К = 7 (жёсткое решение) 4 6 8 Рис. 12.9. Зависимость Pош от отношения сигнал/шум h02 Турбокоды (ТК) впервые были введены в 1993 году. С их использованием достигается вероятность появления ошибок 10–5 при скорости кодирования 1/2 и модуляции BPSK в канале с белым аддитивным гауссовым шумом с Eb/N0, равным 0,7 дБ. Коды образуются посредством компоновки двух или более составных кодов, являющихся разными вариантами чередования одной и той же информационной последовательности. Для свёрточных кодов декодер выдаёт жёстко декодированные символы, в каскадной схеме, такой как турбокод, для хорошей работы алгоритм декодирования применяет мягкую схему декодирования, вместо жёсткой. Для систем с турбодекодированием, декодирование заключается в том, чтобы передать мягкую схему при- 85 нятия решений с выхода одного декодера на вход другого и повторять эту процедуру до тех пор, пока не будут получены надёжные решения. На рис. 12.10 приведены графики зависимостей Pош от h02 , позволяющие оценить эффект от применения турбокодов. В частности, вероятность ошибки Pош = 10–5 достигается при 10 lg h02 = 0,7 дБ (кривая 2). Для сравнения на рис. 12.10 приведён график зависимости Pош от h02 для сигналов BPSK без кодирования. 10–1 Pош 1 10–2 2 10–3 10–4 10–5 2,5 3 4,5 6 10 lg h02 , дБ Рис. 12.10. Зависимость Pош от отношения сигнал/шум h02 Турбокоды являются одним из наиболее мощных средств повышения помехоустойчивости среди методов кодирования. Компаниями France Telecom и Telediffusionde France запатентован широкий класс турбокодов. Более того, турбокоды утверждены для помехоустойчивого кодирования несколькими стандартами космической связи, а также мобильной связи третьего поколения. Схема кодирования с кодерами на 16 состояний (K = 5), максимальной длиной перемежения 16384 и кодовыми скоростями r = 1/2,1/3,1/4,1/6 утверждена в 1999 г. американским комитетом CCSDS (Consultative Committee for Space Data Systems) в стандарте передачи телеметрической информации с космических аппаратов. В феврале 2000 г. консорциум DVB утвердил ТК в стандарте DVB-RCS для передачи информации по обратному спутниковому каналу (Return Channel for Satellite – RCS), т. е. в направлении от спутника к абоненту. ТК формируются на основе циклического рекурсивного систематического свёрточного кодера (Circular Recursive Systematic Convolutional– CRSC). Использование стандарта совместно с вещательным стандартом DVB-S позволяет проектировать полноценную широкополосную систему спутникового интерактивного цифрового телевидения. Компанией TurboConcept в партнёрстве с европейским спутниковым оператором Eutelsat разработан турбо-декодер TC1000 в соответствии со стандартом DVB-RCS. 86 Использование ТК принято также в новом стандарте спутниковой системы связи Inmarsat. Применение многопозиционной модуляции КАМ и MSPK в чистом виде сопряжено с проблемой недостаточной помехоустойчивости. Поэтому во всех современных высокоскоростных протоколах КАМ используется совместно с решётчатым кодированием – специальным видом свёрточного кодирования. В результате появился новый способ модуляции, называемый треллисмодуляцией (Trellis Coded Modulation – ТСМ). Выбранная определённым образом комбинация конкретной КАМ и помехоустойчивого кода в отечественной технической литературе носит название сигнально-кодовой конструкции (СКК). СКК позволяют повысить помехозащищённость передачи информации наряду со снижением требований к отношению сигнал/шум в канале на 3–6 дБ. При этом число сигнальных точек увеличивается вдвое за счёт добавления к информационным битам одного избыточного, образованного путём свёрточного кодирования. Расширенный таким образом блок битов подвергается всё той же КАМ. В процессе демодуляции производится декодирование принятого сигнала по алгоритму Витерби. Именно этот алгоритм за счёт использования введённой избыточности и знания предыстории процесса приёма позволяет по критерию максимального правдоподобия выбрать из сигнального пространства наиболее достоверную эталонную точку. Выбор способов модуляции и кодирования сводится к поиску такого заполнения сигнального пространства, при котором обеспечивается высокая скорость и высокая помехоустойчивость. Комбинирование различных ансамблей многопозиционных сигналов и помехоустойчивых кодов порождает множество вариантов сигнальных конструкций. Согласованные определённым образом варианты, обеспечивающие улучшение энергетической и частотной эффективности, и являются сигнально-кодовыми конструкциями. Задача поиска наилучшей СКК является одной из наиболее сложных задач теории связи. Все применяемые сегодня СКК используют свёрточное кодирование со скоростью (n – 1/n), т. е. при передаче одного сигнального элемента используется только один избыточный двоичный символ. Типичный кодер, применяемый совместно с модулятором ФМ-8 представлен на рис. 12.11. Он является свёрточным кодером с относительной скоростью кода, равной 2/3. Каждым двум информационным битам на входе кодер сопоставляет трёхсимвольные двоичные блоки на своём выходе, которые и поступают на модулятор ФМ-8. 87 элемент задержки на один такт c1  К модулятору ФМ-8  c0  ci  Рис. 12.11. Схема свёрточного 2/3 кодера Применение сигналов ФМ связано с разрешением проблемы неоднозначности фазы восстановленной на приёме несущей. Данная проблема решается за счёт относительного (дифференциального) кодирования, что в системах без помехоустойчивого кодирования приводит к размножению ошибок. В системах с помехоустойчивым кодированием относительное кодирование также используется. В этом случае имеет значение последовательность включения относительного и помехоустойчивого кодера. Известно несколько видов СКК, обеспечивающих прозрачность к неопределённости фазы восстановленной несущей. Они также основаны на свёрточном кодировании со скоростью (n–1/n). Использование методов кодирования совместно с методами модуляции даёт мощный арсенал средств, который способен подобрать оптимальное сочетание кода и вида модуляции, обеспечивающих максимальную эффективность радиолинии. Для иллюстрации на рис. 12.12 приведены графики зависимостей скорости передачи информации от отношения сигнал/шум на входе приёмника. Анализ приведённых кривых показывает, что при различных отношениях сигнал/шум максимальное значение пропускной способности обеспечивает, например при h02 = 12 дБ, сочетание сигнала QPSK с кодом со скоростью Vк = 3/4, а при h02 = 16 дБ – сигнала 16QAM и код со скоростью Vк = 1/2. 88  = V/c 1 4 0,75 3 0,5 2 0,25 1 10 lg h02 , дБ 8 12 16 20 24 кривая 1 – QPSK с кодом Vк = 1/2; кривая 2 – QPSK с кодом Vк = 3/4; кривая 3 – 16QAM с кодом Vк = 1/2; кривая 4 – 16QAM с кодом Vк = 3/4; Рис. 12.12. Зависимость эффективности использования пропускной способности канала связи от вида кодирования и способа модуляции Поэтому в современных системах радиодоступа реализован режим адаптации вида модуляции и способа кодирования с целью максимизации пропускной способности индивидуально для каждой БС и (если это возможно) для каждой АС. 89 Лекция 13 ИНФОРМАЦИОННЫЕ ХАРАКТЕРИСТИКИ КАНАЛОВ СВЯЗИ Основными информационными характеристиками каналов связи являются скорость передачи информации и пропускная способность каналов связи. Скорость передачи информации вводится как количество информации, получаемое на выходе канала связи в единицу времени V  VM ( H ( X )  H ( X / Y )) ; при отсутствии помех V  VM H ( X ) . Мы всегда стремимся максимизировать скорость передачи информации V  max. Рассмотрим для примера задачу Шеннона. X ДСК Y  q p 1 p( x1 )  p( x2 )  ; p + q = 1;   – матрица переходов; 2  p q I ( X ,Y )  H ( X )  H ( X / Y ) ; 1 1  1 1 H ( X )   log    log   log 2  1. 2 2  2 2 Потерянная информация: 1 1 1 1 H ( X / Y )   ( p log p  p log q )  ( q log q  q log p )  p log  q log , 2 2 p q откуда (рис. 13.1): 1 1 1 1 I Y ( X )  1  p log  q log  1  (1  q ) log  q log , p q 1 q q тогда получим:  1 1 Vи  VM 1  p log  q log  . p q  IY(X) 1 0,5 1 q Рис. 13.1. Зависимость переданной информации от вероятности ошибки . Максимальное количество переданной информации, взятое по всевозможным источникам с распределением сигналов p(xi) называется пропускной 90 способностью канала. Иначе пропускная способность – это максимальная скорость передачи информации: C  max V . p ( xi ) Пример. Рассмотрим двоичный симметричный канал C = maxVM[H(X) – H(X / Y)]; 1 1 1 1 H ( X )  p ( x1 ) log  p ( x 2 ) log  P log  Q log ; p( x1 ) p ( x2 ) P Q 1 1 H ( X / Y )  p log  q log , p q откуда  1 1 1 1 C  VM max  P log  Q log  p log  q log  . p q p q  Подставив Q = 1 – P, найдём максимум по переменной P: C P 1 1 P  log P   log(1  P )  (ln 2) 1  0 ; P P ln 2 1 P P log  0  P  1 P  P  Q . 1 P Отсюда следует  1 1 C  Vк 1  p log  q log  . p q  Пропускная способность первичного симметричного канала  m 1 1  C  V M log m  p 0 log  (1  p 0 ) log . p ( 1  p )  0  Пример. Двоичный канал со стиранием:  q p pст  p q p ;  ст  pст + p + q = 1;  1 1 1  . C  V M (1  p ст )  p log  q log  (1  p ст ) log p0 q 1  p ст   Пример. Пропускная способность непрерывного канала с помехами: C  V к max( H (Y )  H Y (X))  V к max ( H (Y )  H ( n ) ) , где H(n) – энтропия шума; Vк = 1FT. Если канал гауссовский, то H (n )  log 2 e 2n . Для обеспечения максимума С необходимо, чтобы H(X)  max при 2  ш =const (гауссовское распределение), тогда  P С  2 FT log 2 e( Pс   ш2 )  log 2 e ш2  2 FT log 1  2c  ш  .   91 Окончательно имеем (рис. 13.2): 2 С  2FT log(1  hс/ш ). С Рис. 13.2. Зависимость пропускной способности от полосы частот канала Pc 2 . log e  1, 44 hc/ш 2 F   ш Пример. Сравнение пропускных способностей дискретного и непрерывного каналов: Cд  1 1  21  p log  q log  ; F p q  Cн  log(1  h02 / Tc Fc ) ; F lim Cд  2 ; lim C н   .  2ш  kTF ; C   lim C  h02  h02   13.1 Энтропия непрерывных случайных величин Абсолютная энтропия не существует, так как справедливо:       H ( X )  lim    p ( x k ) log p ( x k )   lim    W ( x k ) x log(W ( x k )  x )   x  0    x  0         W ( x) log W ( x )dx  lim log x , x  0  где lim log x   . x  0 Так как абсолютной энтропии не существует для непрерывной случайной величины, то используют относительную энтропию Н*(х) = Н(х) – Н(х0), где H(x0) – энтропия некоторого эталонного распределения. Часто в качестве эталонного распределения выбирают равномерный закон, тогда H ( x0 )   lim log x , x 0  0 поэтому относительная энтропия рассчитывается по формуле  H ( x)    W ( x) log W ( x )dx .  92 13.2 Случайная величина с максимальной энтропией Требуется найти значение: H ( X )  max W ( x) при ограничениях b a f i (W ( x)) dx  ci . Например, если b b a W ( x)dx  1, то H ( x)   a W log Wdx ; функция Лагранжа может быть представлена в виде: W log W + W = = f(W, ); тогда можно найти экстремум дифференцированием функции Лагранжа: F   1  (1  log W )  1  0 . W W  Если W = 2 – 1 = const, т. е. закон распределения равномерный, то 1 2  1 ( d  a )  1 или 2  1  ba . Из всех законов распределения с одинаковым интервалом значений максимальной энтропией обладает равномерный закон b 1 H ( x)   log( b  a ) dx  log( b  a ) . b  a a Если случайная величина имеет фиксированную дисперсию, то ограничения запишутся в виде:   2  x W ( x)dx   2 ;   W ( x)dx  1;  функция Лагранжа: f (W , 1 ,  2 )  W log W   1W   2 x 2W ; в результате дифференцирования получим уравнения относительно неизвестных: f  (1  log W )   1   2 x 2  0 , W откуда W ( x)  e  2 x 2 1 1 e  ; e 2 x2  e  1 1 dx  1 ;   Отсюда получим 2   поэтому 1 ; e 1 1  2 2 2 2  x  1 2  x e 2 e 1 dx   . 1 , 2  93 x2  1 2 W ( x)  e 2 . 2  Задача. Найти энтропию, если случайная величина положительна и её математическое ожидание фиксировано:    W ( x)dx  1,  xW ( x) dx  a .   13.3 Энтропия непрерывного случайного сигнала По теореме Котельникова непрерывную случайную величину представляем совокупностью дискрет n = 2FT, поэтому  H ( x т (t ))      Wn ( x1 , , xn ) log W ()dx1  dx n . Для гауссовского ограниченного по спектру белого шума 2 FB T H ( x т (t ))  H ( xi )  2 FB TH ( xi ) ;  i 1 H ( xi )  log 2e 2 , следовательно H ( x т (t ))  2 FB T log 2 e 2x . Из формулы следует, что увеличение FB приводит к увеличению энтропии. 94 Лекция 14 ОПТИМАЛЬНЫЙ ПРИЁМ СООБЩЕНИЙ 14.1 Критерии минимума среднего риска В различных системах связи процесс передачи информации связан с выделением полезных сигналов из смеси с шумом и помехами, обнаружением сигнала на фоне шума и оценкой параметров сигнала. Мы фактически перечислили три наиболее важные задачи, которые приходится решать в СПИ. Задача оптимального обнаружения может быть сформулирована следующим образом. Пусть на приёмном конце наблюдается колебание X(t) = AuS(t) + n(t), t  [0, T), где А = 0 если сигнала нет, А = 1 – если сигнал присутствует. Наблюдатель должен принять решение о наличии или отсутствии сигнала. Задача различения сигналов является специфической для систем связи, так как для передачи информации используется N сигналов uS1(t), uS2(t), …, uSn(t). Сигналы могут отличаться амплитудой, фазой, частотой и другими параметрами. На вход приёмника поступает смесь сигналов и шума X(t) = uS1(t) + n(t) и необходимо определить какой именно сигнал передаётся. Задача оценки параметров сигнала возникает после того, как сигнал обнаружен. В системах связи обычно измеряют время задержки сигнала в канале связи, доплеровское смещение частоты и др. Так как сигнал смешан с шумом, то точное измерение параметров сигнала невозможно, поэтому параметры можно только оценить: X(t) = uS(t, и, ни) + n(t), где и – информационные параметры. Наблюдатель, принимая в течение времени T колебание X(t) и анализируя его по определённым, оптимальным правилам, даёт оценку *и , в наименьшей степени отличающуюся от истинного значения. Значения и предполагаются неизменными. Фильтрация и предсказание сигналов – это обработка смеси сигнала и шума таким образом, что фильтрация описывается формулой S*(t) = f(x(t)), а прогнозирование – формулой S*(t + t0) = f(x(t)). Существуют и другие задачи обработки сигналов. В общем случае на основании принятой реализации y(t) = uS(t) + n(t) 95 принимаем решение , что передавалось сообщение x, т. е. у    х. Так как решение принимается статистически, то потери всё равно существуют, поэтому для их характеристики вводится параметр с(х,) – функция потерь. Пример: Линейная функция потерь с(х,) = |–x|. Квадратичная функция потерь с(х,) = (–x)2. 0, k  l , Простая функция потерь с(хk,c) =  . c , k  l  За показатель качества принимается функция среднего риска: R  c ( x,  ) , в которой усреднение проводится по всем возможным реализациям x и . В качестве критерия используется минимум среднего риска R  min, и, следовательно, оптимальной называется та система, которая позволяет получить минимальную величину среднего риска: n R n  c( x k ,  l ) p ( x k ,  l ) . k 1 l 1 Если в качестве функции потерь выбрать простую, то критерий min R переходит в критерий минимума полной или средней вероятности ошибочного приёма n n n R  c  p ( xk ) p(  i / x k )  c p( xk ) Pxk  cPош , k 1 i 1 i k k 1 n где  p( i / xk )  pош jk – вероятность ошибочного приёма; Р – полная (сред- i 1 ik няя) вероятность ошибочного приёма. 14.2 Критерии и правила принятия решения Итак, оптимальным правилом принятия решения является правило минимума условного среднего риска Ry(m) < Ry(i), i  1, N , i  m, в результате получаем байесовские правила принятия решения n n n n R   c( x k ,  i ) p ( xk ,  i )   p (  i ) c ( x k ,  i ) p ( xk /  i ) , k 1 i 1 n где l 1 k 1 n  p(  i ) = const;  c( xk ,  i ) p( xk /  i )  R y – условный средний риск. Если l 1 k 1 минимизировать Ry, то придём к min R: 96 n R y   c( xk ,  i ) p( xk /  i ) ,  = f(y). k 1 Будем рассматривать детерминированные зависимости: i  1  R y1   n i  1  R y2  R y   c( xk ,  i ) p( xk / y ) , i  1, n , т. е. .   k 1 i  1  R yn  Оптимальное правило решения: n n c( xk ,  m ) p ( x k / y )   c( xk ,  i ) p ( xk / y ) .  i 1 i 1 (14.1) Если считать, что функция потерь простая, то N N c p ( xk / y )  c  ( x k / y )  c(1  p ( x j / y )) , i  1, N ; i 1 i j k 1 i j c 1  p ( x j / y )   c 1  p ( x k / y )  , i  1, N , ij. (14.2) Максимум апостериорной функции распределения вероятностей p ( x j / y )  p ( x k / y ) ,. Если вспомнить формулу Байеса, то можно перейти от апостериорной вероятности к правилу функции максимального правдоподобия: p ( x j ) p( y / x j ) ; p( x j / y )  N  p ( yi / x j ) p( xk ) i 1 N Знаменатель p( yi / x j ) p ( xk )  const ,  i 1 поэтому p(xj)p(y/xj) > p(xk)p(y/xk), если p(xi) = p(xj), получаем правило функции максимального правдоподобия p(y/xi) > p(y/xk). Часто используется отношение правдоподобия p ( y / x1 ) p ( x 2 )c ( x 2 ,  1 ) (14.3)  12    0 , p ( y / x 2 ) p ( x1 )c( x1 ,  2 ) где 0 – пороговое значение. Если в формуле (14.3) стоит знак «>», то выносится решение, что принят сигнал «1», если знак «<» – то принят сигнал «0». Таким образом, оптимальное правило приёма сводится к вычислению отношения правдоподобия и сравнению его с порогом. Кроме отношения правдоподобия используют логарифм отношения p ( x2 ) c( x2 /  1 ) . ln   ln  ln p( x1 ) c( x1 /  2 ) 97 14.3 Синтез оптимального приёмника двоичных сообщений Для синтеза оптимального приёмника двоичных сообщений существуют следующие ограничения. 1. Помеха аддитивная и флуктуационная n  1 T 2   1  y(t) = s(t) + u(t), Wn (u n )   exp    u N (t )dt  .  N 0   2   2. Сигнал известен точно (рис. 14.1). 3. Априорные вероятности p(x1) =p(x2)= 0,5. 4. Оптимальное правило решения – максимум функции правдоподобия. Можно предложить два варианта решения. 1. Оптимальный приёмник на активных корреляторах. 2. Оптимальный приёмник на пассивных корреляторах (согласованных фильтрах). 1. Оптимальный приёмник на активных корреляторах (рис. 14.2) x1 p ( x1 ) p ( y / x1 )   p ( y / x 2 ) ; y(t) = s(t) + uп(t), s1(t)x1,s2(t)x2, x2 p ( x2 ) n T с2  1   1  2 Wn (u u1 )    exp   u u1 (t )dt  ; un2  N 0   2   S2 n y(t)  1 T 2  un1  1  Wn (u u 21 )    exp   u u 2 (t ) dt  с1 S1  N 0   2   Рис. 14.1. Принятый сигнал в фазовом пространстве   1 T 2   1 T 2  p ( x 2 )   . ln exp   u u1 (t ) dt   exp   u u 2 (t ) dt    N N p ( x )     1   T T  u N2 1 (t )dt T   u N2 2 (t ) dt ; y(t) = s(t) + uп(t), 2 T s1 2   y (t )  s1 (t ) dt  s   y (t )  s2 (t ) dt . 2 (14.4) Правило минимальных расстояний (рис. 14.2) после раскрытия скобок переходит в правило максимума корреляции при Е1 = Е2 T T s1 r j   y (t ) s1 (t ) dt    y (t ) s 2 (t ) dt  ri . s2 На практике часто находят применение неоптимальные структурные схемы:  когерентные без накопления (ФНЧ),  некогерентные с накоплением (рис. 14.3),  некогерентные без накопления (рис. 14.4). 98 Г1 Кор. 1 S1(t)   y(t) x1  Схема сравнения x2    S2(t) Г2 Кор. 2 Рис. 14.2. Схема корреляционного приёмника КО x1 Схема сравнения y(t) x2 КО Рис. 14.3. Когерентный приёмник с накоплением (r1 – r2 > 0) АД y(t) x1 СС x2 АД Рис. 14.4. Структурная схема некогерентного приёмника без накопления На рис. 14.4 обозначено: АД – амплитудный детектор; СС – схема сравнения. 2. Схема оптимального приёмника двоичных сообщений на согласованных фильтрах (рис. 14.5) Согласованный фильтр y(t) Схема сравнения x1 x2 Согласованный фильтр Рис. 14.5. Оптимальный приёмник двоичных сообщений на согласованных фильтрах s(t) s(j) – зависимость от спектра АЧХ А = f() А  k(j) ДЧХ = () Sвх Sвых СФ k( j) – передаточная характеристика При известном сигнале на входе и передаточной характеристике можно найти сигнал на выходе вх(t) sвх(j); sвых(j)= k(j)sвх(j) sвых( j). 99 Определение. Под с о г л а с о в а н н ы м ф и л ь т р о м понимается такой фильтр, АЧХ которого с точностью до постоянной величины С совпадает с АЧХ сигнала, а ФЧХ – с точностью до постоянной t0 противоположно ФЧХ сигнала k ( j)  Cs * ( j)e  jt 0 , где знак «*»означает комплексно сопряжённые числа. Пример. Найти передаточную характеристику согласованного фильтра (рис. 14.6) для сигнала, имеющего следующий вид: 1 s ( j)  1  e  j T j – спектр прямоугольного импульса c j t c k ( j)  e  1 e  j t o  1  e  j T ; j j t T        s (t 0 )    .    max Sвх А 1 А 1 T t S1 T Sвых S2 t S1 Sвых Интегр. с j Задержка S2 T Рис. 14.6. Схема и импульсная характеристика СФ Составим структурную схему согласованного фильтра для следующего вида сигнала 1 11 0 0 1 0. 1 11 –1 –1 1 –1 – сигнал имеет хорошие автокорреляционные свойства. s1 – – – + + – + s2 + + + – – + – s3 – ––++ – + s4 –––+ + –+ s5 +++ – –+ – s6 ++ + –– +– s7 + + +– –+ – -1 0 -1 0 -1 0 +7 0 -1 0 -1 0 -1 100 Лекция 15 ПОТЕНЦИАЛЬНАЯ ПОМЕХОУСТОЙЧИВОСТЬ ИСТОЧНИКОВ СООБЩЕНИЙ 15.1 Потенциальная помехоустойчивость приёма двоичных сообщений Ограничения: 1) Сигнал известен точно. 2) Помехи аддитивные. 3) р(х1) = р(х2) = 0,5. 4) В качестве критерия оптимальности выбираем критерий минимума полной или средней вероятности ошибочного приёма р (Котельникова) р = р(х1)р1 + р(х2)р2 = р(х1)(1 – q1) + р(х2) (1 – q2). Найти вероятность правильного приёма q1 первого сообщения (y(t) = = s1(t) + n(t)): T T 2 2   y (t )  s1 (t ) dt    y (t )  s2 (t ) dt ; T 0 n T 2 T T (t ) dt   n (t ) dt  2  n (t )s1 (t )  s 2 (t ) dt   s1 (t )  s 2 (t ) 2 dt ; 2 T 1 T 2  n(t )s1 (t )  s2 (t )dt   2  s1 (t )  s2 (t ) dt ; Разложения Котельникова  T k  l ; 0 k  l ; 1 / f  . q1   w() d ;   k (t ) l (t ) dt   п Тогда T T n sl    n (t ) s (t )dt    n k  k (t ) sl  l (t )dt   nk    k , 2 f  k  1 l  1 k  1 k 1 где k  n n m sl nk ; m ( )  0 поэтому 2 f w(  k )    2 1 exp  k2 2   k  2  k 2 2  2  sl  2   ; w()   ;  k      2 f    2  1 exp  2  ; 2    2   T  sl  2 2 1 n 2   ;   N f ;   s k   s 2 (t ) dt , 0   2f  2 f  k 1   k 1  откуда следует формула дисперсии распределения случайной величины n  2 101 N0 T 2 N0 T s ( t ) dt  s1 (t )  s2 (t )2 dt .   2 0 2 0 Нормированная по дисперсии случайная величина  ; t 2  2  q1  1 2      2   exp  2 2 d ; п   x 2 t 2  ( x)  e dt .  0 Свойства (рис. 15.1): (–x) = –(x); (0) = 0; () = 1; (–) = –1;   m          m  . P{    }  0,5    2     2      (x) 1 x –1 Рис. 15.1 Функция (x) m = 0;  = ;    п / 2  ; T T 0 (S1 (t )  S 2 (t )) п  T 2 2 2 dt N0 ( S1 (t )  S 2 (t )) 2 dt  2 0 1  2 0 (S1 (t )  S 2 (t )) 2 dt N0 T    2   0 s1 (t )  s2 (t ) dt     q1  0,5 ()      T N0    2   2 2 2  s1 (t )  s 2 (t ) dt         T  2    s1 (t )  s 2 (t )  dt    0       0,51    2    0,51      , 2N0  2            . 102 T 2 0 s1 (t )  s2 (t ) dt     ; p1  0,51      . 2N0  2   Полная вероятность ошибочного приёма     Pp ( x1 ) p ( x2 )0,5  0,51      .  2   где   15.2 Помехоустойчивость приёма сигнала с амплитудной, частотной и фазовой модуляцией, кривые помехоустойчивости 1. Амплитудная модуляция (рис. 15.2) E h  ; 2N 0 2  AM  E  h02 ; N0   h  PAM  0,5 1    0  ; E  Pc T .  2   2. Частотная модуляция (рис. 15.2) E  ЧM   h0 ; N0   h  PЧM  0,51    0   .  2   3. Фазовая модуляция (рис. 15.2) 2E  h0 2 ; PФM  0,51   ( h0 )  . N0  ФM  0,5 10–1 –1 Pош АМ 4,3 10–2 ЧМ 10 –3 10–4 6,5 ФМ 1 2 1 8,5 2 Рис. 15.2. Кривые помехоустойчивости В общем случае Р = 0,5 [1–Ф(h0)], где AM = 1/2; ЧM = 1/ 2 ; ФM = 1. 103 Помехоустойчивость приёма на фоне произвольных помех Необходимо найти вероятность ошибки P  f ( h02 ) при исходных данных: р(х1) = р(х2)=0,5; Вероятность ошибки для двоичного сигнала определяется вероятностями правильного приёма p1 иp2: Р = 0,5(р1 + р2). В соответствии с правилом принятия решения: T T  y (t )s1 (t )dt   y (t )s2 (t )dt ; y(t) = si(t) + n(t) + un(t), отсюда  < пороговое; T s1-2(t) = s1(t) –s2(t);    n(t ) s1 2 (t )dt ; m = 0; T N0 2  s12 (t )dt  N 0 E (1  r1, 2 ) ; 2 0 n = –E(1–r1,2 + hnr1-2,п); h2п = Еп / Е, где  – угол между векторами сигналов; r1,2 – коэффициент сходства между первым и вторым сигналами:  2  T  s12 (t )u n (t ) dt r1, 2 п  Eп E ;  1  r1, 2 E (1  r1, 2  hп r1 2, п ) hп r1 2 , п n   h0    2  2 N 0 E (1  r1, 2 ) 2 2 1  r1, 2        hr  hп r1 2 ,п   h0  0,5(1  r1, 2 )   h0 0,5(1  r1, 2 ) 1  п 1 2,п  ;  1  r1, 2  0,5(1  r1, 2 )    hп r1 2,п n .  h0 0,5(1  r1,2 ) (1  );   1  r1, 2 2  hп  hп  r12,п  Eп ;  E 1  r1, 2 hп  r12,п Eп ; E 1  r1, 2 Вероятность ошибочного приёма первого сообщения p1  0,5 1   h0 1    0,5(1  r1, 2 ) .  hп   Нелинейная функция   104   p 2  0,5 1   h0 1    0,5(1  r1, 2 )  . Если корреляционный момент r1-2,п близок к единице, то такая помеха называется имитационной. 15.3 Согласованный фильтр Корреляционные интегралы можно вычислить на основе согласованного фильтра (СФ). Если на вход СФ подать входной сигнал y(t), то напряжение на выходе будет t z (t )   h( ) y (t  ) d , где h() – импульсная характеристика фильтра. Выберем h() такой, чтобы в момент времени t = Tполучить максимальное значение отношения сигнал/шум: 2 hс/ш  max ; 2 2 T  T  Pc вых    h()u S (t  ) d  ; Pш вых    h()n(t  ) d  .     0  0  Решением этой задачи является функция h (  )  A S (t 0   ) . Для физической реализации фильтра необходимо, чтобы h() = 0, при  < 0, если t0  T, то условие физической реализуемости выполняется, так как при этом (t0 – ) > TuS(t0 – ) = 0, при  < 0. Реакция на сигнал согласованного фильтра длительностью T существует только на длительности 2T. Передаточная функция СФ определяется преобразованием Фурье:  K ( j)   h ( ) e   j t dt  A  S (t 0  )e  jt dt      A  S ()e  j( t0  ) d  AS * ( j)e  jt0 .  Отклик СФ тогда получим в виде T T z (T )  A  y (T  )u S (T  ) d  A  y (t )u S (t ) dt . Согласованный фильтр служит для формирования одного отсчёта, по которому судят о том, какой сигнал был передан. 2 Теперь докажем, что hс/ш (T )  max , если фильтр согласован: 105  N Pш  0 2  | K ( j) | 2 d  тогда 2   S ( j) K ( j)e h2  jt 0 d  N0 2 .   | K ( j) | 2 d  В соответствии с неравенством Буняковского–Шварца 2 b b b  2  A( x) B ( x) dx   A ( x) dx B 2 ( x)dx     a  a a равенство наступает, если B(x) = A(x): A()  S * ( j) exp(  jt 0 ) ; B ()  K ( j) ; A* ()  S ( j) exp(  jt 0 ) ;  h 2 (T )    | S ( j)e jt 0 2 | d  2 N0 2 d  N0 2   | K ( j) |  | K ( j) | 2 d    | S ( j ) |    2 d  2E  2h02 . N0 Реализация согласованного фильтра (рис. 15.3, 15.4): N sin 2F (t  kt ) u S (t )   X (k ) . 2F (t  kt ) k 0 y(t)  ФНЧ Рис. 15.3. Нерекурсивный фильтр t 2T T Рис. 15.4. Входной и выходной сигналы фильтра z(t) 106 15.4 Потенциальная помехоустойчивость приёма недвоичных сообщений Количество равновероятных сообщений N (N > 2). Двоичные:  x1  s1 (t )   x 2  s 2 (t ) а) Недвоичные:  x1  s1 (t )  x  s (t )  2 2    x n  s n (t ) б) kN = 2k. 1. Структурная схема приёмника недвоичных сообщений на основе правила максимума функции правдоподобия (рис. 15.5): T r1   s1 (t ) y (t ) dt ; T r2   s 2 (t ) y (t ) dt;  T rn   s n (t ) y(t ) dt. Правило: rш > ri (i  m). Умн Инт S1(t) Ген y(t) Умн Инт S2(t) Ген СхСр x1 x2 xn Умн Инт Sn(t) Ген Рис. 15.5. Структурная схема приёмника недвоичных сообщений на основе правила максимума функции правдоподобия На рис. 15.5 обозначено: Умн – умножитель; Ген – генератор; Инт - интегратор, СхСр – схема сравнения. Максимальная помехоустойчивость обеспечивается при максимальных расстояниях между сигналами. 107 Эквидистантная система сигналов – это система, расстояния между каждой парой которых одинаковы и максимально возможны. Различают ортогональные (рис. 15.6) и симплексные (рис. 15.7) системы сигналов. S1 o 90 S1 D  2 Ec D  3 Ec 120o S2 S3 S3 Рис. 15.6. Ортогональные системы для N=3 T S2 Рис. 15.7. Симплексные системы для N = 3 T  sm (t ) y (t )dt   si (t ) y (t )dt , m>i, i = 1(1), n, im. Вероятность правильного приёма Q  Q   P( i   m ) N 1W ( m )d m .  P ( i   m )  m   2  1    exp  d , 2 2    2    – среднее значение       2     1 m m W ( m )  exp  m 2 m ;  ; 2  m 2  2    m m  1 N 1  2 Q  1   (   h )  e d .   2 N 1  Одним из способов повышения помехоустойчивости является кодирование укрупнением: N = 2k; h20 = E/ N0 = kE2/ N0 = k h202, где E2 – энергия на один двоичный элемент или на один бит информации; k h202 – количество информации на один символ. 00 s1 01s2 10 s3 11s4 Pmв –верхняя граничная оценка для вероятности ошибки:   mi     N 1   P1  0,51      ; Pmв  1     2 2   2      ;   108 T 2  sm (t )  si (t ) dt  mi  , i = 1…N, im;  mi 2  0,5kh02 (1  cos  mi ) . 2N 0 2 Противоречивые факторы (рис.15.8): Если размер блокаk увеличивается, то N увеличивается тоже, что приводит к увеличению Pmв . При этом, если k увеличивается, то увеличивается  mi , при этом 2 уменьшается Pmв , т. е. существует пороговое значение hпор , при котором при 2 2 2 2 вероятность ошибки Рош растёт и уменьшается при h02 . h02  hпор  hпор h02кр h02 М-ичная модуляция 2 2 h02  h02 кp : c  N  P 0,5 двоичная модуляция 10–1 2 h02 кp  0,693 2 2 h02  h02 кp : c  N  P N3>N2>N1 P Рис. 15.8. Кривые помехоустойчивости На основе последовательности преобразований, позволяющих опреде2 лить значение hпор найдём соотношение для скорости и пропускной способности канала:  1 2  2 P2  0,5 exp  h02 2 ; Pm  0,5 N exp  h20 log 2 N  ;  2  PT P H ( A) 1 2 ; h20  c 2  c  ; H 2 ( A)  1 ; V  T N0 N0 V PT PT 2 hm2 0  c m  c 2 log N  h20 log N ; N0 N0  Pm    1 Pс log N 1 N exp   2  2 Т0 V  1 ln N  1 Pс log N log e    e exp     V  2  2 Т0    1 Pс log e   1   ,  exp   ln N 1  2 2 N V    с увеличением N уменьшается Pm, если 1  1 Pс log e  0. 2 N0 V Откуда при F =  1 Pc log e  C , 2 N0 т. е. получаем известное соотношение для канала с помехами V < C. V 109 Лекция 16 ПРОБЛЕМА АПРИОРНОЙ НЕДОСТАТОЧНОСТИ Сущность проблемы априорной недостаточности заключается в недостаточности априорных сведений, необходимых для построения оптимальных приёмников. Неизвестными могут быть: 1) р(х1), р(х2); р(х1) = р(х2) = 0,5 – распределение вероятностей сообщений. 2) с(х, ) – функция потерь. 3) W(un) – функция распределения помех и шума. 4) Не информационные параметры сигналов на приёмной стороне uS(t) = f(t, u, f, tз, T, A, , g(t)). 16.1 Сущность синхронизации, виды синхронизации Под синхронизацией будем понимать процесс установления соответствия между параметрами предаваемого и опорного сигналов (рис. 16.1). uSc(t) = Um rectT(t – t)sin(t + ), uSопорный(t) = Um0rectT0(t – t0)sin(t + ). Um0 = Um; T0 = T; t0 = t; 0 = ; 0 = . Высокочастотная синхронизация реализуется по частоте и фазе: 0 = ; 0 = . Низкочастотная синхронизация – по длительности сигналов, задержке и частоте модуляции: T0 = T; t0 = t(FM, M), где FM – частота модуляции. T0  FM1 t0 0 uз(t) t =0 t uоп(t) 0  t T t FM = 1/Т = 1/2 = VM/2; TFM; tM. Рис. 16.1. Пример синхронизации по параметрам 110 16.2 Оценка помехоустойчивости приёма при неидеальной синхронизации Нормированная корреляционная функция: T  u S (t )uоп (t )dt rc  T ; T 2 2 0 u S (t )dt 0 uоп (t )dt rc = 1 (опорный сигнал совпадает с сигналом принимаемым). rc = 0 (опорный сигнал ортогонален принимаемому). Вероятность ошибки определяется выражением (рис. 16.2): Р = 0,5[1 – Ф(h0rc)]. Если не совпадают параметры опорного и принимаемого сигналов 0 = ; 0 и  = ; T = T0;T0 = T; tt00; tt0, то T  t rc 0  0 S c (t )S 0 (t )dt Ec E0  T  t  umU m rectT (t  t )rectT 0 (t  t0 ) sin( t  ) sin( 0t  0 )dt  rc 0  ; Ec E0 T  t u mU m0  cos(  0 )dt  2 Ec E0 u mU m0 2 Ec E0 cos (T  t ) Ec  E0  1  t  cos (T  t )  1   cos  ; T T   2  U T  t  ;E = PT; 1/T = P/ E; P  0,51   h0 1   cos  . t = tc – t0, Ec  2   T    t где 1   cos   rc .  T   –10 10 20 h0, дБ 10 –1 10–2 t, A,  10–3 10–4 Pom A,  ЧМ  Рис. 16.2. Качественные зависимости вероятности ошибки 111 При неидеальной синхронизации имеет место потеря ПУ, которая определяется величиной t и . 16.3 Построение дискриминаторов для оценки параметров сигналов 1. Дискриминатор по задержке может быть построен на двух корреляторах (рис. 16.3). y(t) ST0  S(t – T / 2)  (t) – сигнал подстройки задержки Т S(t – T / 2) ST0  Рис. 16.3. Структурная схема дискриминатора по задержке Результирующую дискриминационную функцию получают как разность сдвинутых относительно друг друга корреляционных функций (рис. 16.4). R()  T R( – T)  () T / 2  –T / 2 Рис. 16.4. Результирующая дискриминационная функция Аналогичным образом строят дискриминаторы по фазе и частоте. 16.4 Синтез приёмника с неизвестной амплитудой сигнала В большой части каналов флуктуирует не только фаза, но и амплитуда сигналов. Синтез приёмника в этом случае должен проводиться точно так же, как и при синтезе некогерентного приёмника. Однако можно заметить, что правило приёма по методу максимума функции правдоподобия не зависит от амплитуды:    p ( xi , A / y ) w( A)dA   p ( x j , A / y ) w( A)dA . Считаем w(A) распределением Рэлея 112 2A exp(  A 2 / m ( A) 2 ) 2 m ( A) и подставляем это выражение в формулу для вероятности ошибки   1 A 2 h02  2 A  A2  1  dA  Pош   exp  exp 2  2 2  2 2 ( m ( A )) m ( A ) m ( A )     w( A)    A exp(  A 2 (1  0,5h02 ) / m ( A) 2 dA  2 m ( A)    x exp(  x 2 (1  0,5h02 )dx  1 . h02  2 Аналогично определяется вероятность ошибки и при других законах распределения А. Если распределение А обобщённое рэлеевское, то   1 q2 h 2q 2 , Pош  exp   2 2 2 2  2  2q  h 2  2 q  h   m 2 ( A) .  2 ( A) При одностороннем нормальном законе 1 . Pош  2 1  h02 Если регулярная составляющая амплитуды растёт (q2 увеличивается), то помехоустойчивость приближается к каналу без замираний. где q 2  113 Лекция 17 ПОМЕХОУСТОЙЧИВОСТЬ НЕКОГЕРЕНТНОГО ПРИЁМА СИГНАЛА Ранее мы рассматривали приём точно известных сигналов. Это справедливо для каналов с постоянными параметрами. Однако реальные каналы являются каналами со случайными параметрами, изменяющимися при передаче информации. В таких каналах полезные сигналы имеют кроме информационного несколько неинформационных параметров. Рассмотрим случай неизвестной фазы. Фаза сигнала распределена по равномерному закону в интервале [0, 2]; W() = 1/2; Si(t) = Umcos(it+ ); i = 1,2. Для приема сигналов независимо от значений фазы требуется исключить её значения из уравнения приёма (рис. 17.1). 1-й канал Умн Инт cos0 + S1(t) Г~ y(t) A1 Квадр.  /2 sin0 + S1(t) Умн Инт  x1  B1 Квадр. СхСр x2  2-й канал Рис. 17.1. Структурная схема приёмника двоичных сигналов при неизвестной фазе Для того, чтобы исключить значение фазы из уравнения приема, выбираются опорные колебания. Для первого сигнала с частотой 1, для второго сигнала – с частотой 2. u опор.1  U m0 cos 1t ,  u опор.2  U m0 sin 1t. T T Ai   s i (t )u опi (t ) dt   U m cos(i t  )U m0 cos i tdt  k i cos  ; T Bi   U m cos( i t  )U m0 sin i tdt  k i sin  ; Mi  Ai2  Bi2  k i2 cos 2   k i2 sin 2   k i . Правило решения Mm > Mi (i  m). 114 Мы получили схему оптимального некогерентного приёмника двоичных сообщений при частотной модуляции, вероятность ошибки для которой определяется выражением: N 1 1  i 2 Pош  1   (1) i C Ni 1 exp  h0  . i  1 i  1   i 0 E E Здесь h02   k эл , где k = log2N – количество информации на один симN0 N0 вол. Квадратурный корреляционный приёмник уступает по помехоустойчивости оптимальному когерентному приёмнику. Сравним по устойчивости когерентный и некогерентный приём (ЧМ):  h2    h  Pког  0,51    0   ; Pнеког  0,5 exp  0  .  2    2 h20 энергетический проигрыш 0,5 некогерентный когерентный Pош   10 lg 2 h01 2 h02 для Pош =10–2...10–3;   1 дБ; 2 h0 ког  13,5 дБ –1  для Pош = 10  , 2 h0 неког  17 дБ т. е.  = 3,5 дБ. Рис. 17.2. Сравнение когерентного и некогерентного приёма по устойчивости Энергетический проигрыш (рис. 17.2): 2 ln(1,25h02 ) .   1 h02 При неизвестной фазе должны выбираться сигналы, ортогональные в усиленном смысле, т. е. сохраняющие свою ортогональность при изменении фазы в пределах от 0 до 2: fорт = 1 / 2Tс; fорт.в усил. смысле = 1 / Tс. 115 Лекция 18 ПРИНЦИПЫ ПОСТРОЕНИЯ ДИСКРИМИНАТОРОВ 18.1 Оптимальная оценка параметров сигнала В задаче приёма сигнала с неизвестными параметрами существует проблема оценки параметров, которые затем используются при синтезе опорного сигнала приёмника. Задача оценки параметров сигнала ставится следующим образом. Пусть заранее известна форма сигнала и неизвестен один из его параметров. Кроме того, считаем, что сигнал принимается с шумом y(t) = uS(t, ) + n(t), 0  t < Tн. Интервал наблюдения считаем достаточно большим, таким, чтобы он включал в себя весь сигнал. Считаем, что измеряемый параметр  на интервале наблюдения не изменяется. На основании одной реализации случайного процесса y(t) = uS(t, ) + + n(t) необходимо принять решение, какое именно значение имеет параметр сигнала . Решение наблюдатель принимает в соответствии с выбранным алгоритмом оценивания, который определяет некоторую функцию * = f(y(t)). Эта функция называется решающей. При одном и том же  два опыта будут приводить к разным *, так как присутствуют шумы n(t), и оценка является случайной величиной, т. е. оценки * будут рассеяны относительно истинного значения . Решающую функцию необходимо выбирать так, чтобы рассеяние было минимальным или иначе, функция W(* / ) должна иметь максимум вблизи . В идеальном случае W(* / ) = (). Несмещённость. Если W(* / ) имеет вид симметричной выпуклой кривой, то в качестве меры отклонения оценки может быть принято смещение математического ожидания оценки от истинного значения:  *       *    (d   ( x1 ,..., xn / ))W ( x1 ,..., xn / )dx1 ,..., xn .  Величина  называется смещением оценки. Несмещённость гарантирует качество не полностью. Эффективность.  * * 2 D ( )  (   )  *  (   ))W (* /  ) d* .  Эффективной оценкой является та, у которой дисперсия минимальная. Условие эффективности 116 Dmin  (* / ) 2 2 .   ln W ( x / )       Состоятельность. Оценка состоятельна, если при увеличении n(Tн) для любого  оценки * сходится по вероятности к . 18.2 Байесовы оценки по критерию минимума среднего риска Как и в случае приёма сообщений рассмотрим функцию потерь r(, *). Для наблюдателя  и * являются случайными величинами, и r(, *) тогда – случайная величина. Поэтому рассматриваем среднее значение R   r (, * )W ( , * ) dd* .  * Так как  = f(x1, …, xn), то R      r (, * ( x1 ,..., xn ))W (, x1 ,..., xn ) ddx1 ,..., xn ;  X1 Xn W(,X) = W(X)W( / X), откуда  R  r ( / X )W ( X )dX . Условный средний риск  R ( / X )  *  r (,  ( x))W ( / x)d .  Рассмотрим квадратичную функцию риска r(, *) = ( – *)2, тогда ; R   r (, * ) 2 W (, * ) dd*  min *   R 0, * откуда  *  * 2  (    ) W (  / x ) d  0 ;   2  (   * )W (  / x ) d  0 ,  откуда 117  *     W (  / x ) d   M ( / x ) .  Формула Байеса W ( / x )  W ( )W ( x /  ) ,  W ( )W ( x / )d поэтому *opt   W ()W ( x / )d .  W ()W ( x / )d Подставляя *opt , найдём условную дисперсию Ropt   (  M ( / X )) 2 W ( / X ) d  D ( / X ) . 18.3 Оценка параметра сигнала в зашумлённом канале измерения Если  = const на интервале наблюдения и колебание представляет собой смесь полезного сигнала и гауссовского шума y(t) = uS(t, ) + n(t), то  1 Tн  1  ˆ )) 2 dt  . W ( X / )  exp ( y ( t )  u ( t ,  S  N0   ( 2  2 ) n / 2   Ищем оценку по максимуму апостериорной вероятности  ln W ()W ( X / )  0, ˆ откуда Tн Tн   ln W ( X /  )   2 1 2   0;   y ( t )  u ( t ,  ) dt  u ( t ,  ) dt S S        N0 0 N0 0  Tн T н * u S (t , * ) * u S (t ,  )   y (t ) dt   u S (t ,  ) dt  0 . * *     18.4 Оценка амплитуды радиоимпульса Все параметры радиоимпульса, кроме А, известны: u S (t )  A rect T  sin( t   0 )  A S (t ) .  Функция правдоподобия амплитуды  1 Tн  1 2  ; W ( X / A)  exp ( y ( t )  AS ( t )) dt 2 n/2    N ( 2 ) 0 0   Tн W ( X / A)  max или q   ( y (t )  AS (t )) 2 dt  min ; A 118 T н q   ( y (t )  A* S (t )) S (t ) dt , A 0 откуда Tн A*  Tн Tн A  S 2 (t ) dt  y(t ) S (t )dt  ( AS (t )  m(t ))S (t )dt  Tн S 2  Tн S (t ) dt 2 Tн S (t ) dt  A, 2 (t ) dt следовательно, оценка несмещённая. 2 Tн Tн  Tн   y (t ) S (t ) dt  n(t ) n(t )S (t ) S (t ) dtdt      D ( A* )  ( A*  A) 2   0T  A  0 0  2 н Tн     2  S 2 (t ) dt    S (t ) dt     0  0  Tн Tн N  0 2 где n(t ) n(t )  0 0 (t ) S (t )S (t )dtdt Tн    S 2 (t ) dt    0  2 N0  Tн , 2  S 2 (t ) dt N0 (t ) . 2 Tн Так как 0 S 2 (t ) dt  ES , то относительная дисперсия ошибки оценки A2 амплитуды равна D ( A* ) N 0 1 .   E S h02 A2 A *  ln W ( X / A) 2 Так как 1 и  A A N0 Tн  n(t ) S (t )dt , то Tн 2 4   ln W ( X / A)     2 A N0   откуда получаем 2  S 2 (t )dt Tн   n(t )n(t )S (t ) S (t )dtdt  Dmin  A * / A   ln W ( X / A)    A   т. е. оценка эффективная. 2 , N0 , 119 18.5 Оценка неэнергетических параметров радиоимпульса Считаем, что uS(t, ) известен за исключением параметра :  1  1 W ( X / )  exp   ( y (t )  u S (t ,  )) 2  ; 2 n/2 ( 2  )  N0  1 ln W ( X /  )  k  N0 Tн 2  y (t )dt  N 0 2 Tн 1  y (t ) S (t ,  )dt  N 0 Tн S 2 (t ,  )dt , Tн где 1 2 y (t )dt = ES = const, поэтому N0 0 2 ln W ( X / )  k  N0 Tн .  y(t )S (t , )dt  max  Структура приёмника, максимизирующего ln W(X / ) показана на рис. 18.1. uS(t,1) * w(y/) r1 w(1) Т r2 w(2) Т rn uS(t,2) y(t) * w(1) 1 2 3 4 Т rmax  * uS(t,n)  n * S(t, ) y(t)   S(t, 1 +      Схема сравнения  S(t, 1 + n = 2 Рис. 18.1. Структурная схема приёмника, максимизирующего ln W(X / ) Оценкой  является *, которое максимизирует функцию W(X / ). Весь диапазон значений разделяется на n + 1 значений с шагом . Вместо коррелятора можно использовать согласованные фильтры. Должны решаться следующие задачи:  поиск сигналов по параметрам,  синхронизация или автосопровождение сигнала. В состав приёмного устройства (рис. 18.2) входят устройства поиска и автосопровождения, построенные на корреляторах и дискриминаторах. Подстройка ведётся по максимуму корреляционного отклика: T rc   y (t )u S (t , *з , f * , * )dt . 120 y(t) ПРМ u(t, *з, f*, *) i Дискриминатор Ген Устройство поиска Рис. 18.2. Состав приёмного устройства Если значения параметров сигнала отличаются от опорного сигнала на  = *–u;з = *–н; f = f *–fн, то выходное отношение сигнал/шум уменьшается в соответствии с корреляционной функцией: sin 2fT   з  h02неид.  h02 cos  1   2fT  T  – неидеальное отношение сигнал/шум. Ошибка измерения  T z   ( n (t )  S (t ,  0 )) S (t ,  ) dt  rS  rn ; M(z) = rS; D(z) = N0ES; f ( )  r r z 0 S  n .    18.6 Дискриминаторы оценки параметров сигналов а) Дискриминатор по задержке (рис. 18.3) – это устройство, на выходе которого действует напряжение U, пропорциональное разности параметров входного и опорного сигналов  = KUg. U z1(t) –р  р з рабочее окно y(t)   S(t + T / 2   z2(t) S(t – T / 2 Рис. 18.3. Структурная схема дискриминатора по задержке Если использовать корреляционные функции сдвинутые на Т/2 вправо и влево, то получим (рис. 18.4): A2  T A2  T   r1     з  ; r2    з  ; T 2 T 2   2 Ug = r1–r2 = –kз; k = 2/T; A = 1. Вклад шума приводит к неопределенности значения параметра: 121 T  n(t )U 0 n (t )dt ,  ш2 N  0 Ec , 2 2  r    ~ h02 .  ш  r1 r2 US10n y(t) * Т + Т –  –T/2  U0п(t+KT) * 0  T T/2 US20n –T T/2  T Tз з T 2T t T+T/2 U0п(t–KT) зона захвата Рис. 18.4. Построение дискриминационной характеристики б) Фазовый дискриминатор (рис. 18.5) строится на основе выражения для дискриминационной характеристики: Ug = f(), 1T r1   cos(t  ) cos tdt  cos  . T0 z1(t)   sin(t + )  sin t   z2(t) cos t Рис. 18.5. Структурная схема фазового дискриминатора в) Частотный дискриминатор основан на использовании функции корреляции по частоте (рис. 18.6): 1 T jt j ()t sin t r  e e dt  T0 t t r1 fн–F/2 r2 r = Ug fн+F/2 fн Рис. 18.6. Зависимости функции корреляции по частоте 122 Дискриминационная характеристика для частотного дискриминатора Схема приёмного устройства (рис. 18.7) содержит устройства поиска и синхронизации по параметрам в виде корреляторов. y(t) Т * 0 uS1(t, з, , t) * СхСр 1 Т US2 f ~ ppm = –6fн Ген ОП з  f u(t–T/2) * Т  Т * 0 u(t+T/2) r 1+  r 2– Рис. 18.7. Схема приемника с устройством синхронизации 123 Лекция 19 РАЗНЕСЕНИЕ ПРИЁМА И ПЕРЕДАЧИ Большинство каналов систем радиодоступа являются многолучёвыми, из-за чего на приёме присутствует несколько задержанных копий полезного сигнала с различными задержками и амплитудами (рис. 19.1). Это приводит к изменению амплитуды суммарного сигнала на входе приёмника uS(t). uS1(t) h12 (t ) канал 1 t h22 (t ) uS2(t) канал 2 t h2 (t ) uS = max{uS1, uS2} канал 1 t Рис. 19.1. Принцип разнесённого приёма При применении методов разнесения для повышения помехозащищённости в условиях замираний, структурная схема приёмника содержит две и более антенн, разнесённых по пространству на более чем R = (10...30), что обеспечивает независимость замираний сигнала в разных ветвях приёма (рис. 19.2). 1 ПРД Схема объединения ПРМ Na Рис. 19.2. Структура системы с пространственным разнесением Для каналов с рэлеевским законом распределения амплитуды замира2 ний функция плотности распределения вероятностей для отношения hс/ш является экспоненциальной 2 2 1 2 (19.1) p ( hс/ш )  2 e  hс/ш hс/ш , hс/ш 2 где hс/ш – среднее значение отношения сигнал/шум. 124 Схема объединения сигналов с разных ветвей разнесения может выполняться тремя способами: оптимальное сложение, сложение с равными ве2 сами и автовыбор канала с максимальным значением hс/ш . Вероятность ошибки на бит при корреляционном приёме и с использованием схемы оптимального сложения определяется выражением Na  2 N a  1 N a   , (19.2) Pош   2   N 4 h  a  Na  где Na – число каналов разнесения (рис. 19.2). На рис. 19.3 приведены графики зависимостей вероятности ошибки на бит от отношения h02 при различных значений Na. Для ориентировки на рис. 19.3 приведены график для канала с замираниями без разнесения (кривая 1) и график вероятности ошибки для канала без замираний (кривая 6). рош 10–1 1 2 10 –2 3 10–3 5 4 2 6 10–4 –10 10 lg h0 , дБ 10 20 30 2 Рис. 19.3. Зависимость hвых от Na Анализ приведённых графиков позволяет сделать вывод о том, что каждый дополнительный канал разнесения приводит к увеличению энергетического выигрыша (до 5 дБ) и, соответственно, к снижению вероятности ошибки при равном значении отношения сигнал/шум. При оптимальном сложении выходной сигнал формируется из Na входных суммированием с оптимальными весовыми коэффициентами W, значения которых пропорциональны амплитуде принимаемого в i-м канале полезного сигнала Na yвых opt (t )   Wi yi вх (t ) . (19.3) i 1 При сложении с равными весами выходной сигнал равен Na yвых  (t )   yi вх (t ) . (19.4) i 1 При автовыборе входного сигнала с наибольшей амплитудой полезного сигнала справедливо 125 yвых max (t )  max{ yi вх (t )} . (19.5) i Вероятность ошибки для способов объединения (19.4) и (19.5) превышает вероятность ошибки для способа объединения (19.3). Проигрыш в энергетике составляет от 2 до 10 дБ (при большом количестве ветвей Na). Антенны, используемые в системах радиодоступа для дополнительных каналов приёма, подключаются к одному из антенных входов АС или БС. Техника использования антенны проста. Необходимо, чтобы расстояние между АС и дополнительной антенной превышало 10...30 длин волн радиоволны (рис. 19.4). Ант R = (10...30) АС Рис. 19.4. Схема расположения дополнительной антенны Применение разнесения на приёмной стороне решает задачу произвольного расположения АС в пределах зоны обслуживания. Выигрыш от разнесения лучше всего иллюстрирует пример приёма в условиях замираний при отношении сигнал/шум h02 = 20 дБ. При приёме без разнесения 1 Pош1   0,25  10 2 , 400 при приёме с двумя ветвями разнесения 3 4 Pош2   0,75  10 4 , 2 2 16 (10 ) и с тремя ветвями 10 21 Pош3   4  10 5 . 2 3 64 (10 ) Дальнейшее развитие методов разнесения связано с разнесением передатчиков и приёмников. В системах радиодоступа применяют разнесение передатчиков по задержке (рис. 19.5), ортогональное разнесение передатчиков (рис. 19.6) и пространственно-временное разнесение (рис. 19.7). uS1(t) d(t) Свёрточный кодер S(t) uS2(t) Рис. 19.5. Схема разнесения передатчиков по задержке БС 126 uS1(t) d(t) Свёрточ- d(i) Демульный кодер типлексор S(t) 1(t) uS2(t) 2(t) Рис. 19.6. Схема ортогонального разнесения передатчиков uS1(t) d(t) Свёрточ- d(i) Демульный кодер типлексор W(t) 1(t) uS2(t) Преобразователь ортогонального разнесения d0 d1 d1* d0* W(t) 2(t) Рис. 19.7. Схема пространственно-временного разнесения Дополняют перечисленные методы разнесённого приёма приёмники с разнесением по времени (в англоязычной литературе RAKE-приёмники). Идея заключается в сложении всех задержанных, пришедших по разным лучам копий полезного сигнала на приёмной стороне (рис. 19.8). t0 1 ПРД 1 2 з 0 з з 2 VL+1 VL VL–1 V0 СФ  Рис. 19.8. Принцип действия RAKE-приёмника Сигнал на выходе линии задержки с элементарными задержками 1 , з  Fc где Fc – полоса частот, занимаемая сигналом, представляет собой сумму K L   u лз (t )    vi u Sl (t  l  i з )  n(t ) , l 1 i  0 (19.6) 127 где u Sl (t   l  i з ) – сигнал, пришедший из l-го луча и задержанный на интервал t = iз. Весовые коэффициенты vi подбираются в соответствии с алгоритмом адаптации так, чтобы задержанные копии сигналов разных лучей суммировались в фазе u лз (t )  v0u S (t  T p1 )  vi u Si (t  Tp 2  i з )   v j u S j (t  T p 3  iз )  n* (t ) , (19.7) а остальные весовые коэффициенты оказываются равными нулю. Значения задержке в (19.7) устанавливаются так, чтобы выполнялось Tp2–iз  Tp1 и Tp3– jз  Tp1, тогда задержки всех сигналов выравниваются. Эффективность применения RAKE-приёмников характеризуется энергетическим выигрышем при равной вероятности ошибки для рэлеевского канала  2 L  1 L 1 Pош RAKE     2 ,  L k 1 2hk () E где hk2  h02vk* vk  S | vk |2 – отношение сигнал/шум для k-го луча;  – коэфN0 фициент корреляции сигналов, используемых для передачи информации. При примерно равных отношениях сигнал/шум в разных лучах приёма выигрыш аналогичен выигрышу от применения способов разнесённого приёма. Таким образом, можно сделать вывод, что методы разнесённого приёма играют одну из ключевых ролей в формировании облика современных систем радиодоступа и их развитие предопределяет дальнейшее улучшение характеристик устойчивости и пропускной способности. 128 Лекция 20 ПЕРЕДАЧА НЕПРЕРЫВНЫХ СООБЩЕНИЙ 20.1 Источники непрерывных сообщений Источник непрерывных сообщений за время T выдаёт любую реализацию из бесконечного множества реализаций сообщения Si(t)  {S1(t)…S(t)}. Ансамбль сообщений непрерывного источника бесконечен, а вероятность появления любого из них P(Si(t)) = 0. Энтропия непрерывного источника оценивается по разности значений абсолютной энтропии и опорной энтропии. Для сообщений надо определить эквивалентные классы. Два сообщения эквивалентны, если различие несущественно в смысле наперёд заданного критерия. Критерием может быть разборчивость речи, тогда сообщения, полученные от разных людей, но одинаковые по содержанию, будут эквивалентны. Верностью передачи непрерывных сообщений будем называть вероятность, того, что принятое сообщение S*(t)эквивалентно переданному S(t). Критерий эквивалентности задаётся степенью точности передачи сообщений, например, допустимым значением максимальной разности  = | Si(t) – S(t) |max За период t  [0, Tc]. В качестве критерия частот используется МСКО 2  2 (t )  ( S * (t )  S (t )) , чаще всего  (t )  0 , т. е. смещение S*(t) относительно S(t) отсутствует. Если S(t) – гауссовский случайный процесс, то при критерии МСКО (t) = S*(t) – S(t)): 1  2S 1 P 2 2 H (S )  log 2e S  log 2e   log 2  log s2 . 2  2  2 Так как PS – мощность сигнала, а  – мощность шума, то 1 2 . H ( S )  log hс/ш 2 2 Отношение hс/ш – это минимальное отношение сигнал/шум, при кото* ром S (t) и S(t) ещё эквивалентны с вероятностью, близкой к единице. Для непрерывного источника производительность источника можно определить как 1 Vи  VM Р ( S )  V log( 2ePS ) , 2 а скорость передачи информации 129 V  VM ( H ( S )  H  )  FS log PS 2 .  FS log hс/ш 2  Теорема Шеннона для непрерывных сообщений Если при заданном критерии эквивалентности источника сообщений 02 его производительность меньше пропускной способности канала (Vи < С), то существует способ преобразования сообщения в сигнал и сигнала в сообщение, при котором неточность воспроизведения будет сколь угодно близки к 02 . При Vи > С такого способа не существует. Теорема доказывается через дискретизацию, так как для дискретного процесса она уже доказана. В общем случае для восстановления S(t) с заданной точностью не обязательно, чтобы выполнялось неравенство 2 2  hmin . hс/ш Необходимо только, чтобы пропускная способность канала превышала производительность источника. 20.2 Непосредственная передача сообщений Пусть в канале передаётся сигнал uS(t) = KS(t), тогда на выходе канала y(t) = uS(t) + n(t) = KS(t) + n(t). Для получения сообщения требуется из сигнала y(t) выделить сигнал uS(t). Оценим погрешность выделения полезного сигнала 2  2 (t )  ( S * (t   з )  S (t )) , где з – время задержки. Если S(t) и n(t) – независимые, стационарные случайные процессы, то для известных спектральных плотностей GS(f) и Gn(f) получим передаточную функцию оптимального фильтра GS ( f ) . K ( j)  GS ( f )  Gn ( f ) Погрешность оценки тогда   GS ( f )Gn (t ) 2  (t )   K ( j)Gn ( f ) df   df . G ( f )  G ( f ) S n   Погрешность равна нулю, когда спектры сигнала и шума не пересекаются, а так как Gn(f) = N0, то можем переписать   2 (t )  N 0 GS ( f )   GS ( f )  N 0 df . 130 20.3 Оптимальная оценка непрерывных параметров сигнала Чаще всего вместо сообщения S(t) по каналу связи передаётся сигнал uS(t). Модуляция часто сводится к установлению параметров сигналов  :  uS(t,  ), в соответствии с передаваемым сообщением, а задачей демодулятора являет ся измерение параметров  и восстановление сообщения S*(t) (рис. 20.1). S(t)    uS(t,  ) КС y(t)  * S*(t) n(t) Рис. 20.1. Схема восстановления сообщения S*(t) Пусть при t  [0, T]  y(t) = uS(t,  ) + n(t). Считаем, что   const на интервале [0, T] и известна плотность распределения W(). Найдём способ наилучшего оценивания параметра * и оценим точность. В качестве критерия используем max W(y(t) / ) или max W( / y(t)). Если ищем максимум функции правдоподобия, то W ( y (t ) /  )  0.  Из последнего уравнения найдём максимально правдоподобную оценку. На основе критерия МСКО y   2 ( )   (  * ) 2 W ( / y ) d ,  оценка находится из уравнения   2 ()  0,  откуда *   W ( / y ) d ,  т. е. оптимальной оценкой является условное среднее значение.  2 T 2   Отсюда следует, что при W ( y /  )  K exp   n ( t ) dt  N0     T T 2 1 ln W ( y /  )  y ( t ) u ( t ,  ) dt  u S2 (t ,  ) dt . S   N0 0 N0 0   Тогда для uS(t,  ) – сигнал, зависящий от нескольких параметров  т = = [1, …, n] функция правдоподобия выглядит аналогично. Апостериорное распределение вероятностей 131  2 W ( y /  )  kW ( ) exp   N 0 где k = const, так как T   1 T 2  y ( t ) u ( t ,  ) dt exp  u ( t ,  ) dt   , S   S N      T 2 0 u S (t ,  )dt  Ec ,  2 T  ,  W ( y /  )  k W ( ) exp  y ( t ) u ( t ,  ) dt S  N0     откуда оптимальное оценивание проводится с помощью коррелятора. то 20.4 Оптимальный приём непрерывных сообщений Считаем, что –1  S(t)  +1 и, кроме того, V   S (t )    i i (t )  т  (t ) , i 1 где i – случайные параметры, определяющие S(t); i(t) – например, гармонические функции: V = 2FcT, –T / 2  t  T / 2. Принятый сигнал  y(t) = uS(t, S) + n(t) = uS(t,  ) + n(t). Задача приёма S(t) сводится к задаче совместного оценивания парамет ров  :  1 T  2 W ( S (t ) / y (t ))  kW ( S (t )) exp  ( y ( t )  u ( t , S )) dt , S   N 0 0  считаем W(S(t)) = const, тогда ищем минимум расстояния (рис. 20.2, 20.3) T D   ( y (t )  u S (t , S )) 2 dt  min .  y(t) = uS(t,  ) + n(t) СФ * uS(t,   Д *  УЭ Рис. 20.2. Схема со следящим согласованным фильтром  y(t) = uS(t,  ) + n(t) ФНЧ  *  * uS(t,   ГОС УЭ Рис. 20.3. Схема со следящим корреляционным фильтром Спектральная плотность шума на выходе детектора определяется как 132 Nш ( f )  N0 2 ,  u (t ,  )       результат справедлив, если помехи слабые, т. е. u ( t ) u S (t )  S  .  Мощность шума на выходе приёмника Fc Pш   N ш ( f )df . Мощность сигнала можно выразить через пик-фактор: B (t ) max  B 2 (t ) и, принимая B(t)max = 1, получим 1 . 2 Pc  S 2 (t )  Для гармонического сигнала   2 , для ТЛФ-сообщений П  3. Тогда на выходе приёмника получим выигрыш за счёт модуляции N0 F h2 2 , g вых  вых  2 Fc hвх  2 Pc  N ш ( f )df где 2 hвых  Pc  Pш 1 Fc  2  N ( f ) df 2 При g > 1 отношение h возрастает. Используется также понятие обобщённого выигрыша системы N0 F g . g   Fc   2 Pc  N ( f ) df Здесь  = F / Fc, где F – полоса частот. Для систем непосредственной передачи сообщений uS = kS(t) 2 2 полоса частот F = Fc; hвых  hвх , поэтому g = g = 1. Пропускная способность в гауссовском канале равна  P  2 C  F log(1  hвых )  F log 1  c  . N0F   2 2 В идеальной системе связи Fc  log hвых  F log(1  hвх ). 133 Лекция 21 ЭФФЕКТИВНОСТЬ СИСТЕМ СВЯЗИ 21.1 Помехоустойчивость систем аналоговой передачи сообщений при малых помехах 1. Амплитудная модуляция Сигнал задан выражением: u S ( t ,  )  A (1  mS ( t )) cos  0 t ; тогда производная по сообщению u S ( t , S )  mA cos  0 t ; S откуда 2 T 2 T 1  u S (t , S )  1 m 2 A2  u S (t , S )  2 2 .      dt   ( mA ) cos  0 tdt  T 0  S T 0 2  S   Тогда энергетический спектр шума 2N0 . m 2 A2 Мощность сигнала на входе приёмника N( f )  T A2 A2  m 2  2 2 1  . Pc  u S (t , S )  (1  mS (t )) cos 0 tdt  T 0 T   2  Отсюда, учитывая, что F = 2Fc (т. е.  = 2) получим: m 2 2m 2 ; g AM  2  m   2 m2   2 m2 . g AM  2 m  2 Предельное значение выигрыша, равное единице, достигается при m = 1. При передаче речи g = 0.165; g = 0.083. 2. Относительная модуляция gОМ = gОМ = 1. 3. Балансная модуляция Сигнал задан выражением: u S (t , S )  AS (t ) cos  0 t . Тогда в соответствии с последовательностью преобразований: 1 1 A2 ; Pc  A 2 S 2 (t )  2 2 2 2 134 2 1 2  u S (t , S )     A ; 2  S  gБМ = 2, gБМ = 1. 4. Фазовая модуляция Сигнал задан в виде: u S (t , S )  A cos(  0 t   S (t )) ; производная по сообщению равна: u S (t , S )  A sin( 0 t  S (t )) ; S тогда справедливо: 2 2 T 1  u (t , S )  1 2 2  u S (t , S )      S  dt   A ; T 0  S 2  S   T 1 1 Pc   u S (t ) dt  A 2 ; T 0 T 2N0 , 2 A2 2  2 ,  Nш ( f )  g  при  >> 1    2; g   3 2 ,  . g   4 2 4 2 5. Частотная модуляция Производная сигнала по сообщению: u S (t , S )    A sin(  0 t   (t )) ;  t  (t )   S ( ) d  откуда: 2  u S (t , S )  1     2 A 2 ; 2    2  2f  N 0 N ш ( f )  2  2;    A f  ,   Fc  В результате с учётом F  2Fc получим: 3fF 3 2  3  3 ; g ЧМ  2 3  2  4 2  Fc  135 3 F2 3 2 3  2 .    4  2 Fc  2 4  2 g ЧМ 21.2 Показатели эффективности систем связи V  бит/с 1. Частотная эффективность  :  и .  F  Гц  2 h V 2. Энергетическая эффективность:   ;   и2 . Vи h 3. Коэффициент использования пропускной способности V   и  1; C Так как пропускная способность канала с полосой F равна: C  F log 2 (1  h 2 ) ; то получим  h2 V   PcVи    log 2 1  0 и   log 2 (1   ) ,   log 2 1  N 0  FV и    Vи  F  Vи  . F 21.3 Предел Шеннона Существует нижнее предельное значение h02 , при котором ни при какой Vи невозможно осуществить безошибочную передачу информации lim(1  x)1/ x  e , x 0 откуда h02  ln 2  0.693 или 1,6 дБ. Pош = 10–3...10–4 , дБ граница Шеннона GMSK2 –4 при Pош = 0 32 16 –8 ФМ3 ЧМ –12 –8 QAM ФМ2 –2 2 8 10 12 , дБ OQM Рис. 21.1. Эффективность дискретных сигналов Граница Шеннона – характеристика для гауссовского канала связи, для другого канала связи будет другая граница (рис. 21.1, 21.3). 136 Для непрерывных сигналов (рис. 21.2) справедливы те же рассуждения, 2 но фиксируется hс/ш , а не Pош . 2 Для спутниковой связи фиксируется hс/ш = 40 дБ, для телефонной свя2 зи – hс/ш = 20 дБ. 2 log hвых  , Vu = H /Tc. 2  hвых   log  1 g   , дБ ОМ, НС ФМ –20 –40 ФМ(30) mf >> 1 ЧМ –8 AM mf = 1 –60 –4 4 8 , дБ Рис. 21.2. Эффективность непрерывных сигналов  8 256 QAM 64 Vи > C 4 16 2 4 –1/6 2 6 1/2 12 4 18 h20 2  MFSK 8 1/4 16 Рис. 21.3. Эффективность дискретных сигналов с кратной модуляцией Ограниченная полоса частот В условиях ограниченной полосы можно увеличивать скорость передачи данных за счёт применения многократных методов модуляции 137 Vи  log 2 M [бит/с/Гц]. F Однако, например, при использовании сигналов QAM увеличение кратности модуляции приводит к увеличению вероятности ошибки M 1    Pош  1    . 2   M  Аналогичная ситуация справедлива и для ФМ сигналов: M 1    Pош  1     . 2   M  Частотная эффективность для типовых сигналов: GMSK = 0,3 [бит/с/Гц]; Kп = 7; CDMA = 0,1 [бит/с/Гц]; Kп = 1; OFDMA = 6 [бит/с/Гц]; Kп = 1. Для непрерывных сигналов с ЧМ наблюдается пороговый эффект (рис. 21.4). вых, дБ ОМ ЧМ 4 40 3 2 АМ 20 1 20 40 вх, дБ Рис. 21.4. Кривые помехоустойчивости непрерывных сигналов 21.4 Методы модуляции Сигнальные конструкции В современных модемах для ТЛФ-каналов используются однократные и многократные виды дискретной модуляции. К однократным видам модуляции относятся: АМ, ЧМ, ФМ, ОФМ. Их недостатками являются низкая скорость передачи Vи  2400 бит/с и низкий показатель частотной эффективности 138 Vи  1. F Здесь Vи – скорость передачи информации, бит/с; F  1 / Tc – эффективная передаваемая полоса частот, где Tc– элементарный символ. Скорость модуляции Vc  F[симв/с], т. е. V   и  1. Vc Предел Шеннона определяется пропускной способностью гауссовского канала Vи  F log2(1 + Pc / Pш). При Pc / Pш = 40 дБ F = 3 кГц, откуда следует бит/с  = 13 . Гц Для повышения показателя частотной эффективности  применяются многократные виды дискретной модуляции: МАМ, МЧМ, МФМ, МДФМ. Сущность многократной модуляции состоит в том, что информационные двоичные символы объединяются в блоки по k символов. Каждому блоку сопоставляется один M = 2k сигналов, несущих log2M = k бит информации. Тогда скорость передачи информации  Vи = Vclog2M, где Vc – скорость модуляции. При Vc = F имеем  = log2M. При увеличении числа сигналов М повышается показатель . Многопозиционные сигналы характеризуются совокупностью амплитуд, частот или фаз. Сигнальная конструкция – это совокупность m сигналов с определёнными свойствами. Например, ФМ-8 (рис. 21.5). d 122  0,585; d 132  2,0; d 142  3, 4; d152  4,0 . y 0,924 3 2 4 1 0,383 x 0,383 0,924 5 8 6 7 Рис. 21.5.Сигнальная конструкция ФМ-8 На практике используют градации фазы и амплитуды (рис. 21.6). 139 Рис. 21.6. Градации фазы и амплитуды Пример. Сигнальная конструкция состоит из восьми сигналов единичной амплитуды с равномерным распределением фаз. Представление этой конструкции в виде векторов в эвклидовом пространстве показано на рис. 21.7. 1 dЭ1 dЭ dЭmax dЭ2 Рис. 21.7 Представление сигнальной конструкции из восьми сигналов в виде векторов в эвклидовом пространстве d Э2 min  0,585; d Э21  2,0; d Э2 2  3,4; d Э2 max  4,0 , где dЭ – эвклидово расстояние. Пример. Сигнальная конструкция с изменением фазы и амплитуды (рис. 21.8). Изменение амплитуды примерно 1 бит, изменение фазы – 3 бит,  = log2M = 4. 0101 АФМ-сигнал ФМ-8 манипул. 0011 0100 0010 0001 0000 1 2 3 4 АМ манипул. Г Рис. 21.8. Структура модулятора АФМ 140 Квадратурно-амплитудная модуляция (КАМ) используется при построении сигнальной конструкции S (t )  x (t ) sin( t  )  y (t ) cos( t  ) , x (t ), y (t )  {1,1}, t  {0, T } . Модуляция осуществляется в двух каналах на несущих, сдвинутых на 90, т. е. находящихся «в квадратуре» (рис. 21.9, 21.10). Um / 21/2 x(t) sin  90 x y ФМ-4 cos Um / 21/2 y(t) Рис. 21.9. Структурная схема модулятора ФМ-4 x(t) 3 1 –1 –3 y(t) 3 1 Г sin  90 КАМ-4 cos –1 –3 Рис. 21.10. Структурная схема модулятора КАМ-4 (четырёхуровневая КАМ) Сигнально-кодовые конструкции Показатель частотной эффективности  V P    и  log 2 1  c  . F  Pш  При повышении показателя частотной эффективности  уменьшается Vи энергетическая эффективность   за счёт уменьшения расстояния Pc / N 0 между концами векторов сигналов. Найдём отношение  / : V P P  /  и с  c , FVи N 0 Pш отсюда следует     log 2 1   ,   и, наконец (рис. 21.11), 141   . 2 1   3 2 1 1 2 3  Рис. 21.11. Ограничения Шеннона Для повышения энергетической эффективности  используют помехоустойчивое кодирование: (n, k)-код, скорость кода Rk = k / n, тогда Vи = Vc Rk log2 M   = Rk log2 M, Rk ,  E2 / N 0 где E2 – энергия на бит. Увеличиваться  будет, если 2 B  10 lg hнк  10 lg hк2  10 lg n / k  0 . Асимптотический выигрыш 2 B  10 lg( d эк2 /d энк ). Введение помехоустойчивого кодирования повышает , но уменьшает . Требуется, чтобы  > . Сигнально-кодовые конструкции (СКК) – это конструкции сигналов, получаемые при согласованном выборе методов многократной модуляции и помехоустойчивого кодирования. Определение выигрыша от СКК 1. Для сигнальной конструкции применяют помехоустойчивое кодирование со скоростью кода Rk = k / n. 2. Определяют частотную эффективность . 3. Определяют ЭВК по отношению к некодируемой СК, имеющей такую же величину . Пример. 1. СК ФМ-8 и помехоустойчивый код (n, k) с Rk = 2/3 (свёрточный код  = 2). 2.  = Rklog2M = 2/3  3 = 2. 3. Некодируемая СК с  = 2: СК ФМ-4. 2 2 4. B  10 lg( d эк2 /d энк ) , для ФМ-4 d энк  2, d эк  2 2 2 d э1  d э2  d э3  2  2  2  2  6  2 ; 6 2   3,4 дБ . B  10 lg 2   142 Лекция 22 СЛОЖНЫЕ СИГНАЛЫ 22.1 Применение сигналов сложной формы Сложным сигнал называется, когда в нём присутствует внутренняя модуляция (рис. 22.1). uj(t) r(t) T t –T uсл(t)  T N T t –T –T/3 T/3 T t fн Рис. 22.1. Корреляционные функции простого и сложного сигналов Длительность элементарного сигнала –T/N =  ; N – количество внутренних элементарных сигналов. Повышение помехоустойчивости систем передачи информации достигается за счёт применения сигналов сложной формы, для которых энергетическое отношение сигнал/шум определяется через отношение сигнал/шум по мощности и базу сигнала: 2 E 2 E0 T  2 2 2 hс/ш    2Bh0вв  2 Bhс/ш ; N0 N0 2 где B = T / 0; h02  hс/ш  Pc /  ш2 – отношение сигнал/шум для элементарного символа. За счёт применения сложных сигналов решаются задачи обеспечения скрытности передачи информации, так как для обеспечения заданного отношения сигнал/шум мощность сигнала уменьшается в базу раз Pпрд = Рс/В. Применение кодового доступа позволяет в одной полосе частот передавать одновременно нескольким абонентам. Из общего количества сигналов L = mB мы можем выбрать малое количество сигналов, у которых взаимные корреляционные функции удовлетворяют требованию rвзаимн. < rзад. За счёт применения сложных сигналов решается задача устранения влияния многолучёвости на приём сигналов (рис. 22.2). Если длительность элементарного символа меньше интервала корреляции замирания0 < u, то можно разделить сигналы, пришедшие по разным лучам и использовать эти эффекты для улучшения условий приёма и повышения скорости передачи данных. 143 0 t u Рис. 22.2. Отклик на сигнал с многолучевым распространением За счёт применения сложных сигналов можно измерять координаты и параметры движения объектов (V , n т  [ x, y , z ] ). 22.2 Разновидности сигналов сложной формы Простейшим примером сигналов сложной формы является сигнал с фазовой модуляцией (рис. 22.3). uS(t) uS(t) t T t 1 –1 –1 1 1 1 –1 1 Рис. 22.3. Сигнал сложной формы с фазовой модуляцией Для сигнала простой формыFTc = 1. Полоса частот, занимаемая сигналом, определяется длительностью элементарного символа: 1 F  , 0 FTc = Tc/0 = N = B, 0 = Tc/N. Сигналы сложной формы:  непрерывные – линейная частотная модуляция:  дискретные – фазоманипулированные ФМ (ФМ ПСС, ФМ ОС);  частотно модулированные ЧМ (ДЧМ, ЧФМ, ППРЧ). N T u S (t )   ui rect T / N (t  i ) sin (it  i ) – дискретные сложные сигналы, N i 1 i = const. 1) ФМ: F = T/N. (рис. 22.4) 144 f F 1 2 0 0 N t T Рис. 22.4. ФМ-сигналы 2) ЧМ: F = 1/T. (рис. 22.5) f 1 2 F N T t Рис. 22.5. ДЧМ-сигналы 3) Дискретные составные сигналы (рис. 22.6) f F T t Рис. 22.6. Дискретные составные сигналы 22.3 Понятие о хороших корреляционных свойствах сигналов сложной формы R ()  1T u S (t )u *S (t  )dt   T0 N 1T N T T    ui rect T / N (t  i ) sin( i   i )  u j rect T / N (t  j ) sin(  j   j )dt  T 0 i1 N N j 1 1 N N (i1)T / N 1 N 2T u u sin(    ) sin(    ) dt    i j  ui . i i j j T i 1 j 1 iT / N T i1 N Получим периодическую корреляционную функцию для сигнала (рис. 22.7): 1 11 –1 –1 1 –1 R  = 0 1 11 –1 –1 1 –1 1  = 1 1111 –1 –1 1 –1/7  = 2 1 –1 111 –1 –1 –1/7 =6 –1/7  145 R() ПАКФ 1  T –1/7 Рис. 22.7. Вид периодической корреляционной функции Апериодическая корреляционная функция (рис. 22.8). 1 11 –1 –1 1 –1 R  = 0 1 11 –1 –1 1 –1 1  = 1 0 1 11 –1 –1 1 0  = 2 00 1 11 –1 –1 –2 R() 1 АКФ  Рис. 22.8. Вид апериодической корреляционной функции Таблица 22.1  R() R() 1  R(N) В общем случае необходимо найти систему сигналов, для которой боковые лепестки корреляционной функции минимальны (рис. 22.9): 2  2R ( ) 1 N 1  T    .   R i   R   {min u ,,} N  1 i1   N   В идеале хотелось бы получить систему сигналов взаимные КФ для которой равны нулю вне основного лепестка. R(i) идеальное 1  Рис. 22.9. Идеальная корреляционная функция 146 Rmax  min А – совпадающие символы, В – несовпадающие символы A B R A B 22.4 Способы обработки сигналов сложной формы Для обработки сложных сигналов используются приёмники со специальными элементами, например схемой сравнения (СхСр) и т. п. (рис. 22.10). * y(t) Т Т 1 СхСр uS1(t) * uS2(t) Рис. 22.10. Структура приёмника сложных сигналов h02  Ec E c B   h02э B N0 N0 ; 2 hс/ш  Pcвх 1 ш2 ; 2 h02  hвх B ; B >> 1; Pc Pc B 2  1 , то h   1 . вых Pc  ш2  Pп 2 ш  B Для анализа системы поиска используется аппарат марковских цепей с потерями. eST – время затрат. 1  F (t )   H ( S )e St dS   2 hвх  1–F ejST 1. 1–F ejST ejST ((1–F)ejST)3 H1(S) H2(S) H3(S) N H  (S )   H i (S ) i 1 H1(S) H(S) = H1(S)+H2(S) 2. H2(S) H1(S) H  (S )  3. H1 ( S ) 1  H1 ( S ) H 2 ( S ) H2(S) (1  F )e  Fe H (S )  1  (1  P )(1  F )e jTc S jTc S обн  j (Tc Ta ) S N  Fe j (Tc Ta ) S  N 147 ( N  1)(2  Pпо )  ln H (S )  Tc  Ta Fлт  (Tc  Ta F ) , S 1  P S 0 по где Ta – среднее время поиска; Рпо – вероятность правильного обнаружения; Fлт – вероятность ложной тревоги. При увеличении вероятности ложной тревоги, вероятность правильного обнаружения уменьшается (рис. 22.11). Ta  N = B (база) N T –T –T/N T/N T/N Ug –T/N T/N Рис. 22.11. Процесс поиска максимума корреляционной функции 148 РЕКОМЕНДУЕМАЯ ЛИТЕРАТУРА 1. Общая теория связи / Д.Л. Бураченко, Н.Н. Клюев, В.И. Коржик, Л.М. Финк и др. / под ред. Л.М.Финка. – Л.: ВАС, 1970. – 412с. 2. Варакин Л.Е. Теория систем сигналов. – М.: Сов. радио, 1978. – 304с. 3. Игнатов В.А. Теория информации и передачи сигналов: учебник для вузов. – М.: Радио и связь, 1991. – 280с. 4. Теория электрической связи: учебник для вузов / А.Г. Зюко, Д.Д. Кловский, В.И. Коржик, М.В. Назаров /под ред. Д.Д. Кловского.–М.: Радио и связь, 1998.–432 с. 5. Тихонов В.И. Оптимальный приём сигналов. – М.: Радио и связь, 1983. – 320с. 6. Радиотехнические системы передачи информации: Учеб. пособие для вузов / В.А. Борисов, В.В. Калмыков, Я.М. Ковальчук и др. /под ред. В.В. Калмыкова. – М.: Радио и связь, 1990. –304 с. 149 В 2009 году Университет стал победителем многоэтапного конкурса, в результате которого определены 12 ведущих университетов России, которым присвоена категория «Национальный исследовательский университет». Министерством образования и науки Российской Федерации была утверждена программа его развития на 2009–2018 годы. В 2011 году Университет получил наименование «Санкт-Петербургский национальный исследовательский университет информационных технологий, механики и оптики» КАФЕДРА БЕСПРОВОДНЫХ ТЕЛЕКОММУНИКАЦИЙ Кафедра основана в 2011 году группой специалистов в области электросвязи, занимающихся научно-исследовательской и практической деятельностью, и уже зарекомендовала себя как динамично развивающееся подразделение университета. Основной упор при подготовке студентов делается на обучении основам построения и функционирования систем, сетей и технологий беспроводной связи. В процессе обучения изучаются современные и перспективные технологии сотовой связи (GSM, UMTS, LTE), телевидения и радиовещания (DVBT/H, DRM), спутниковой связи и навигации (ГЛОНАСС, GPS), а также технологий специализированной связи. Во время обучения уделяется особое внимание услугам в сетях беспроводной связи: мобильное телевидение, мобильный Интернет, IP-телефония и др. 150 Григорьев Владимир Александрович, Лагутенко Олег Иванович, Павлов Олег Александрович, Распаев Юрий Алексеевич, Стародубцев Виктор Геннадьевич, Хворов Игорь Алексеевич Теория электрической связи Конспект лекций В авторской редакции Редакционно-издательский отдел НИУ ИТМО Зав. РИО Лицензия ИД № 00408 от 05.11.99 Подписано к печати Заказ № Тираж Отпечатано на ризографе Н.Ф. Гусарова
«Теория электрической связи» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Помощь с рефератом от нейросети
Написать ИИ
Получи помощь с рефератом от ИИ-шки
ИИ ответит за 2 минуты

Тебе могут подойти лекции

Смотреть все 281 лекция
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot