5.1. Скорость передачи информации в дискретной системе связи

В дискретной системе связи при отсутствии помех информация на выходе канала связи (канала ПИ) полностью совпадает с информацией на его входе, поэтому скорость передачи информации численно равна производи­тельности источника сообщений:

При наличии помех часть информации источника теряется и скорость пере­дачи информации оказывается меньшей, чем производительность источ­ника. Одновременно в сообщение на выходе канала добавляется информация о помехах (рис.12).

Поэтому при наличии помех необходимо учитывать на выходе канала не всю информацию, даваемую источником, а только взаимную информа­цию:

бит/с. (5.2)

На основании формулы (5.1) имеем

где H (x ) производительность источника;

H (x / y )  ненадёжность “ канала(потери) в единицу времени;

H (y )  энтропия выходного сообщения в единицу времени;

H (y / x ) =H ’(n ) –энтропия помех (шума) в единицу времени.

Пропускной способностью канала связи (канала передачи информации) C называется максимально возможная скорость передачи информации по каналу


.
(5.4)

Для достижения максимума учитываются все возможные источники на выходе и все возможные способы кодирования.

Таким образом, пропу­скная способность канала связи равна максимальной производительности источника на входе канала, полностью согласованного с характеристиками этого канала, за вычетом потерь информации в канале из-за помех.

В канале без помех C = max H (x ) , так как H (x / y )=0 . При использовании равномерного кода с основанием k , состоящего из n элементов длительностью э , в канале без помех


,

при k =2
бит/c. (5.5)

Для эффективного использования пропускной способности канала необходимо его согласование с источником информации на входе. Такое согласование возможно как для каналов связи без помех, так и для каналов с помехами на основании двух теорем, доказанных К.Шенноном.

1-ая теорема (для канала связи без помех):

Если источник сообщений имеет энтропию H (бит на символ), а канал связи – пропу­скную способность C (бит в секунду), то можно закодировать сообще­ния таким образом, чтобы передавать информацию по каналу со средней скоростью, сколь угодно близкой к величине C , но не превзойти её.

К.Шеннон предложил и метод такого кодирования, который получил название статистического или оптимального кодирования. В дальнейшем идея такого кодирования была развита в работах Фано и Хаффмена и в настоящее время широко используется на практике для “cжатия сообщений”.

5.2. Пропускная способность однородного симметричного канала связи

В однородном канале связи условные(переходные) вероятности p (y 1 / x 1 ) не зависят от времени. Граф состояний и переходов однородного двоичного канала связи приведен на рис. 13.

На этом рисунке x 1 и x 2 – сигналы на входе канала связи, y 1 и y 2 – сиг­налы на выходе. Если передавался сигнал x 1 и принят сигнал y 1 , это озна­чает, что первый сигнал (индекс 1) не исказился. Если передавался первый сигнал (x 1), а принят второй сигнал (y 2), это означает, что произошло иска­жение первого сигнала. Вероятности переходов указаны на рис. 13. Если канал симметричный, то вероятности переходов попарно равны.

Обозначим: p (y 2 / x 1 )= p (y 1 / x 2 )= p э – вероятности искажения элемента сигнала, p (y 1 / x 1 )= p (y 2 / x 2 )=1- p э – вероятности правильного приёма элемента сигнала.

В соответствии с формулами (5.1) и (5.3)


.

Если сигналы x 1 и x 2 имеют одинаковую длительность э , то
. Тогда пропускная способность канала будет равна

. (5.7)

В этой формуле maxH (y )= logk . Для двоичного канала (k= 2) maxH (y )= 1 и формула (5.4) примет вид


. (5.8)

Остаётся определить условную энтропию H (y / x ) . Для двоичного источника имеем


Подставив это значение условной энтропии в (5.8), получим оконча­тельно

. (5.9)

Для канала связи с k >2


бит/c.

На рис. 14 построен график зависимости пропускной способности двоичного канала от вероятности ошибки.

Для канала связи с k >2 пропускная способность определяется почти аналогичной формулой:

В заключении рассмотрим один пример. Пусть имеется двоичный источник с производительностью
бит/c.

Если вероятность искажения p э = 0,01, то из этого следует, что из 1000 элементов сигнала, переданных за одну секунду, в среднем 990 элементов будут приняты без искажений и только 10 элементов будут искажены. Казалось бы, пропускная способность в этом случае будет составлять 990 бит в секунду. Однако вычисление по формуле (5.9) даёт нам величину, значительно меньшую (C = 919 бит/с). В чём здесь дело? А дело в том, что мы получили бы C = 990 бит/с, если бы точно знали, какие именно элементы сообщения искажены. Незнание этого факта (а это практически знать невозможно) приводит к тому, что 10 искажённых элементов настолько сильно снижают ценность принимаемого сообщения, что пропускная способность резко уменьшается.

Другой пример. Если p э = 0,5, то из 1000 переданных элементов 500 не будут искажены. Однако теперь уже пропускная способность будет составлять не 500 бит/с, как можно было бы предполагать, а формула (5.9) даст нам величину C = 0. Действительно при p э = 0,5 сигнал по каналу связи фактически уже не проходит и канал связи просто эквивалентен генератору шума.

При p э 1 пропускная способность приближается к максимальной величине. Однако в этом случае сигналы на выходе системы связи необходимо инвертировать.

Лекция №2

Каналы передачи данных. Качество и эффективность ТВС.

Вопросы:

    Типы и сравнительные характеристики линий и каналов связи.

    Пропускная способность каналов связи.

    Качество и эффективность ТВС.

Цели и задачи изучения темы : получение представления о типах и сравнительных характеристиках линий и каналов связи, задачах физической передачи данных по линиям связи, основных качественных показателях систем передачи информации, пропускной способности, достоверности и надежности работы ТВС.

Изучив тему, студент должен:

    знать понятие классификации каналов связи, пропускной способности, достоверности и надежности работы ТВС

    иметь представление о каналах и линиях связи и их физической природе, их преимуществах и недостатках, пропускной способности и скорости передачи информации по каналу, надежности работы и достоверности передачи данных

Изучая тему, необходимо акцентировать внимание на следующих понятиях: линия связи, канал связи, канал передачи данных, симплексные, дуплексные, полудуплексные, коммутируемые, некоммутируемые каналы, коаксиальный кабель, волоконно-оптический кабель, витая пара, канал радиосвязи, пропускная способность канала связи, надежность ТКС, достоверность передачи данных

2.1. Типы и сравнительные характеристики линий и каналов связи.

Среда передачи данных совокупность линий передачи данных и блоков взаимодействия (т.е. сетевого оборудования, не входящего в абонентские системы).предназначенных для передачи данных между абонентскими станциями. Среды передачи данных могут быть общего пользования или выделенные для конкретного пользователя.

Линия и канал связи это не одно и то же.

Линия связи (ЛС) – это физическая среда, по которой передаются информационные сигналы.

Канал связи (КС) – средства односторонней передачи данных по линии связи.

Канал передачи данных – состоит из линий связи, по которым передается сигнал и аппаратуры передачи данных, преобразующие данные в сигналы, соответствующие типу линии связи.

Классификация каналов связи показана на рис. 2.1

Каналы связи

Механические

Физическая природа Акустические

Оптические

Электрические

Форма передаваемой Аналоговые

информации Цифровые

Направление Симплексные

передаваемой Полудуплексные

информации Дуплексные

Пропускная Низкоскоростные

способность Среднескоростные

Высокоскоростные

Наличие Коммутируемые

коммутации Выделенные

Рис 2.1. Классификация каналов связи

По физической природе ЛС и КС на их основе делятся на:

    механические – используются для передачи материальных носителей информации;

    акустические – передают звуковой сигал;

    оптические – передают световой сигнал;

    электрические – передают электрический сигнал.

Электрические и оптические КС могут быть:

    проводными , использующими для передачи сигналов проводниковые линии связи (электрические провода, кабели, световоды и т. д.);

    беспроводными (радиоканалы, инфракрасные каналы и т.д.), использующими для передачи сигналов электромагнитные волны, распространяющиеся по эфиру.

По форме представления передаваемой информации КС делятся на:

аналоговые - по аналоговым каналам передается информация, представленная в непрерывной форме, то есть в виде непрерывного ряда значений какой либо физической величины;

цифровые – по цифровым каналам передается информация, в виде цифровых сигналов.

В зависимости от возможных направлений передачи информации различают:

    симплексные КС - когда передатчик и приемник соединяются одной линией связи, по которой информация передается только в одном направлении (это характерно для телевизионных сетей связи);

    полудуплексные КС- когда два узла связи соединены так же одной линией, по которой информация передается попеременно то в одном направлении то в противоположном;

    дуплексные КС - когда два узла связи соединены двумя линиями, по которым информация одновременно передается в противоположных направлениях.

По пропускной способности каналы КС можно разделить на:

    низкоскоростные – скорость передачи информации в которых от 50 до 200 бит/сек; это телеграфные КС, как коммутируемые так и некоммутируемые;

    среднескоростные - – скорость передачи информации в которых от 300 до 9600 бит/сек; это аналоговые (телефонные) КС;

    высокоскоростные (широкополосные) КС, обеспечивают скорость передачи информации выше 56000 бит\сек.

Каналы связи могут быть:

    коммутируемые ;

    некоммутируемые .

Коммутируемые каналы создаются из отдельных участков только на время передачи по ним информации; по окончании передачи такой канал ликвидируется.

Некоммутируемые (выделенные) каналы создаются на длительное время и имеют постоянные характеристики по длине, пропускной способности, помехозащищенности.

Физической средой передачи информации в низкоскоростных и среднескоростных КС обычно являются проводные линии связи.

Для организации широкополосных КС используются различные кабели, в частности:

    неэкранированные витые пары;

    экранированные витые пары;

    коаксиальные;

    волоконно-оптические.

Неэкранированная витая пара – это изолированные проводники, попарно свитые между собой для уменьшения перекрестных наводок между проводниками.

Экранированная витая пара – это изолированные проводники, попарно свитые между собой и помещенные в экранированную проводящую оплетку, которую положено заземлять.

Коаксиальный кабель представляет собой медный проводник, покрытый диэлектриком и окруженный защитной экранирующей оболочкой.

Основу волоконно-оптического кабеля составляют стеклянные или пластиковые волокна диаметром от 5 до 100 микрон окруженные твердым заполнителем и помещенные в защитную оболочку.

В любой системе связи через канал передается информация. Скорость передачи информации зависит не только от самого канала, но и от свойств подаваемого на его вход сигнала и поэтому не может характеризовать канал как средство передачи информации. Характеристики системы связи в значительной мере зависят от параметров канала связи, который используется для передачи сообщений. Большинство реальных каналов обладают переменными параметрами, которые, как правило, изменяются во времени случайным образом. Однородный симметричный канал связи полностью определяется алфавитом передаваемого сообщения, скоростью передачи элементов сообщения и вероятностью ошибочного приема элемента сообщения Р ош (вероятностью ошибки).

Пропускной способностью канала называют максимальное значение скорости передачи информации по этому каналу. То есть, пропускная способность характеризует потенциальные возможности передачи информации.

Пропускная способность рассчитывается по формуле:

Для двоичного симметричного канала (m=2) пропускная способность в двоичных единицах на секунду (Бодах):

При пропускная способность двоичного канала С=0, поскольку при такой вероятности ошибки последовательность выходных двоичных символов можно получить, совсем не передавая сигналы по каналу, а выбирая их наугад (например, по результатам бросания монеты), т.е. последовательности на выходе и входе канала независимы. Случай С=0 называют обрывом канала. То, что пропускная способность при в двоичном канале такая же, как при (канал без шумов), объясняется тем, что при достаточно все выходные символы инвертировать (т.е. заменить 0 на 1 и 1 на 0), чтобы правильно восстановить входной сигнал.

Производительность источника информации равна:

кбит/с (7.3)

Рассчитаем пропускную способность канала с оптимальным приёмником по формуле

кбит/с(7.2):

В данном случае пропускная способность канала больше производительности источника. Это позволяет сделать вывод, что рассчитанный канал удовлетворяет условию Шеннона и может использоваться на практике для передачи аналоговых и цифровых сигналов.

Помехоустойчивое кодирование

приемник кодирование аналоговый сигнал

При передаче цифровых данных по каналу с шумом всегда существует вероятность того, что принятые данные будут содержать некоторый уровень частоты появления ошибок. Получатель, как правило, устанавливает некоторый уровень частоты появления ошибок, при превышении которого принятые данные использовать нельзя. Если частота ошибок в принимаемых данных превышает допустимый уровень, то можно использовать кодирование с исправлением ошибок., которое позволяет уменьшить частоту ошибок до приемлемой. В каналах с помехами эффективным средством повышения достоверности передачи сообщений является помехоустойчивое кодирование. Оно основано на применении специальных кодов, которые корректируют ошибки, вызванные действием помех. Код называется корректирующим, если он позволяет обнаруживать или обнаруживать и исправлять ошибки при приеме сообщений. Код, посредством которого только обнаруживаются ошибки, носит название обнаруживающего кода. Исправление ошибки при таком кодировании обычно производится путем повторения искаженных сообщений. Запрос о повторении передается по каналу обратной связи. Код, исправляющий обнаруженные ошибки, называется исправляющим кодом. В этом случае фиксируется не только сам факт наличия ошибок, но и устанавливается, какие кодовые символы приняты ошибочно, что позволяет их исправить без повторной передачи. Известны также коды, в которых исправляется только часть обнаруженных ошибок, а остальные ошибочные комбинации передаются повторно.

Для того чтобы код обладал корректирующими способностями, в кодовой последовательности должны содержаться дополнительные (избыточные) символы, предназначенные для корректирования ошибок. Чем больше избыточность кода, тем выше его корректирующая способность, но и тем ниже скорость передачи информации по каналу.

Корректирующие коды строятся так, чтобы количество комбинаций k превышало число сообщений n источника. Однако в этом случае используется лишь n комбинаций источника из общего числа для передачи информации. Такие комбинации называются разрешенными, а остальные - запрещенными. Приемнику известны все разрешенные и запрещенные комбинации. Если при приеме некоторого разрешенного сообщения, в результате ошибки, оно попадает в разряд запрещенных, то такая ошибка будет обнаружена, а также, при определенных условиях, исправлена. Следует заметить, что при ошибке, приводящей к появлению другого разрешенного сигнала, такая ошибка не обнаружима.

Таким образом, если комбинация на выходе оказывается запрещенной, то это указывает на то, что при передаче возникла ошибка. Отсюда видно, что избыточный код позволяет обнаружить, в каких принятых кодовых комбинациях имеются ошибочные символы. Безусловно, не все ошибки могут быть обнаружены. Существует вероятность того, что, несмотря на возникшие ошибки, принятая последовательность кодовых символов окажется разрешенной комбинацией (но не той, которая передавалась). Однако при разумном выборе кода вероятность необнаруженной ошибки (т.е. ошибки, которая переводит разрешенную комбинацию в другую разрешенную комбинацию) может быть сделана очень малой.

Эффективность помехоустойчивого кода возрастает при увеличении его длины, так как вероятность ошибочного декодирования уменьшается при увеличении длины кодируемого сообщения.

Все известные в настоящее время коды могут быть разделены на две большие группы: блочные и непрерывные. Блочные коды характеризуются тем, что последовательность передаваемых символов разделена на блоки. Операции кодирования и декодирования в каждом блоке производится отдельно. Непрерывные коды характеризуются тем, что первичная последовательность символов, несущих информацию, непрерывно преобразуется по определенному закону в другую последовательность, содержащую избыточное число символов. При этом процессы кодирования и декодирования не требует деления кодовых символов на блоки.

Разновидностями как блочных, так и непрерывных кодов являются разделимые (с возможностью выделения информационных и контрольных символов) и неразделимые коды. Наиболее многочисленным классом разделимых кодов составляют линейные коды. Их особенность состоит в том, что контрольные символы образуются как линейные комбинации информационных символов.

Расстоянием Хэмминга d между двумя последовательностями называется число позиций, в которых две последовательности отличаются друг от друга.

Ошибка обнаруживается всегда, если её кратность, т.е. число искаженных символов в кодовой комбинации: qd, то некоторые ошибки также обнаруживаются. Однако полной гарантии обнаружения ошибок нет, т.к. ошибочная комбинация может совпадать с какой-либо разрешенной комбинацией. Минимальное кодовое расстояние, при котором обнаруживаются любые одиночные ошибки: d=2.

Чаще всего применяются систематические линейные коды, которые строятся следующим образом. Сначала строится простой код длиной n, т.е. множество всех n-последовательностей двоичных символов, называемых информационными. Затем к каждой из этих последовательностей приписывается r=p-n проверочных символов, которые получаются в результате некоторых линейных операций над информационными символами.

Простейший систематический код (n, n-1) строится путём добавления к комбинации из n-1 информационных символов одного проверочного, равного сумме всех информационных символов по модулю 2. Легко видеть, что эта сумма равна нулю, если среди информационных символов содержится чётное число единиц, и равна единице, если число единиц среди информационных символов нечётное. После добавления проверочного символа образуются кодовые комбинации, содержащие только чётное количество единиц. Такой код имеет, поскольку две различные кодовые комбинации, содержащие по четному числу единиц, не могут различаться в одном разряде. Следовательно, он позволяет обнаружить одиночные ошибки. Легко убедиться, что, применяя этот код в схеме декодирования с обнаружением ошибок, можно обнаруживать все ошибки нечетной кратности. Для этого достаточно подсчитать число единиц в принятой комбинации и проверить, является ли оно четным. Если при передаче комбинации произойдут ошибки в нечетном числе разрядов q, то принятая комбинация будет иметь нечетный вес и, следовательно, окажется запрещенной. Такой код называют кодом с одной проверкой на четность.

Простейшим примером кода с проверкой на четность является код Бодо, в котором к пятизначным комбинациям информационных символов добавляется шестой контрольный символ. Вероятность необнаруженной кодом ошибки при независимых ошибках определяется биномиальным законом:

где - число ошибочных комбинаций:

Таким образом, учитывая, что, используя формулы (8.1) и (8.2), найдём вероятность необнаружения ошибки:

Определим избыточность рассчитанного канала связи, используя результаты расчётов, произведённых в параграфе 7, используя результаты формул (7.2) и (7.3):

Избыточность кода Бодо (6,5)

Избыточность кода Хэмминга (7,4)

При сравнении (8.3), (8.4) и (8.5) заметно, что избыточность канала позволяет применить только обнаруживающий код Бодо (6,5) с проверкой на чётность.

Рассчитаем вероятность ошибки корректирующего кода, учитывая оставшееся свободное время (см. п. 3):

Как следует из выражения (8.6), нет смысла применять помехоустойчивое кодирование, потому что высока вероятность ошибки корректирующего кода.

Тема 2.5. Пропускная способность канала связи

В любой системе связи через канал передаётся информация. Её скорость передачи зависит не только от самого канала, но и от свойств подаваемого на его вход сигнала и поэтому не может характеризовать канал как средство передачи информации. Найдём способ оценки способности канала передавать информацию. Для каждого источника количество информации, переданной по каналу принимает своё значение.

Максимальное количество переданной информации, взятое по всевозможным источникам входного сигнала, характеризует сам канал и называется пропускной способностью канала в расчёте на один символ:

Бит/ симв.

(где максимизация производится по всем многомерным распределениям вероятностей Р(А))

Можно также определить пропускную способность С канала в расчёте на единицу времени.

Вычислим пропускную способность симметричного канала без памяти

(2.26)

Величина в данном случае легко вычисляется, поскольку условная (переходная) вероятность принимает только два значения: , если и (1-Р), если .

Первое из этих значений возникает с вероятностью Р, а второе – с вероятностью (1-Р). К тому же, поскольку рассматривается канал без памяти, результаты приёма отдельных символов независимы друг от друга.

(2.27)

Следовательно Н(В/А) не зависит от распределения вероятности в ансамбле А, а определяется только переходными вероятностями канала. Это свойство сохраняется для всех моделей с аддитивным шумом.

Подставив (2.27) в (2.26) получим:

Поскольку в правой части только член Н(В) зависит от распределения вероятности Р(А), то максимизировать необходимо именно его.

Максимальное значение Н(В) равно log m и реализуется оно тогда, когда все принятые символы равновероятны и независимы друг от друга. Легко убедиться, что это условие удовлетворяется, если входные символы равновероятны и независимы, поскольку в этом случае

При этом и

Отсюда пропускная способность в расчёте на единицу времени

Для двоичного симметричного канала (m=2) пропускная способность в двоичных единицах в единицу времени

Зависимость от Р согласно формуле (2.31)

При Р=1/2 пропускная способность двоичного канала С=0, поскольку при такой вероятности ошибки последовательность выходных двоичных символов можно получить совсем не передавая сигналы по каналу, а выбирая их наугад (например, по результатам бросания монеты), то есть при Р=1/2 последовательности на выходе и входе канала независимы. Случай С=0 называется обрывом канала. То, что пропускная способность при P=1 в двоичном канале такая же, как при Р=0 (канал без шумов), объясняется тем, что при Р=1 достаточно все выходные символы инвертировать (то есть заменить 0 на 1 и 1 на 0), чтобы правильно восстановить входной сигнал.

Пропускная способность непрерывного канала вычисляется аналогично. Пусть, например, канал имеет ограниченную полосу пропускания шириной F. Тогда сигналы U(t) и Z(t) соответственно на входе и выходе канала по теореме. Котельникова определяются своими отсчётами, взятыми через интервал 1/(2F), и поэтому информация, проходящая по каналу за некоторое время Т, равна, сумме количества информации, переданной за каждый такой отсчёт. Пропускная способность канала на один такой отсчёт:

Здесь U и Z – случайные величины – сечения процессов U(t) и Z(t) на входе и выходе канала соответственно и максимум берётся по всем допустимым входным сигналам, то есть по всем распределениям U.

Пропускная способность С определяется как сумма значений , взятая по всем отсчётам за секунду. При этом разумеется дифференциальные энтропии в (2.35) должны вычисляться с учётом вероятностных связей между отсчётами.

Вычислим пропускную способность непрерывного канала без памяти с аддитивным белым гауссовским шумом, имеющим полосу пропускания шириной F, если средняя мощность сигнала . Мощность (дисперсию) шума в полосе F обозначим . Отсчёты выходного и входного сигналов, а также шума N связаны равенством:

Так как N имеет нормальное распределение с нулевым математическим ожиданием, то и условная плотность вероятности при фиксированном U будет так же нормальной – с математическим ожиданием U и дисперсией .

Пропускная способность на один отсчёт определятся по формуле (2.32):

Согласно (2.24) условная дифференциальная энтропия h(Z/U) нормального распределения не зависит от математического ожидания и равна . Поэтому для нахождения следует найти такую плотность распределения , при которой максимизируется h(Z). Из (2.33) учитывая, что U и N независимые случайные величины имеем для дисперсий

Таким образом, дисперсиия фиксирована, так как и заданы. Как известно, при фиксированной дисперсии максимальная дифференциальная энтропия обеспечивается нормальным распределением. Из (2.33) видно, что при нормальном одномерном распределении U распределение Z будет так же нормальным и, следовательно, обеспечивается максимум дифференциальной энтропии (2.24).

(2.34)

Переходя к пропускной способности С в расчёте на секунду, заметим, что информация, переданная за несколько отсчётов, максимальна в том случае, когда отсчёты сигналов независимы. Этого можно достичь, если сигнал U(t) выбрать так, чтобы его спектральная плотность была равномерной в полосе F. Отсчёты разделённые интервалами, кратными 1/(2F), взаимно некоррелированы, а для гауссовских величин некоррелированность означает независимость. Поэтому пропускную способность С (за секунду) можно найти, сложив пропускные способности (2.35) для 2F независимых отсчётов:

(2.36)

Она реализуется, если U(t) – гауссовский процесс с равномерной спектральной плотностью в полосе частот F (квазибелый шум).

Из (2.36) видно, что если бы мощность сигнала не была ограничена, то пропускная способность была бы сколь угодно большой. Пропускная способность равна нулю, если отношение сигнал-шум в канале равно нулю. С ростом этого отношения пропускная способность увеличивается неограниченно, однако медленно, вследствие логарифмической зависимости.

Соотношение (2.36) называется формулой Шеннона. Эта формула имеет важное значение в теории информации, так как определяет зависимость пропускной способности рассматриваемого непрерывного канала от таких его технических характеристик, как ширина полосы пропускания и отношение сигнал шум. Формула Шеннона указывает на возможность обмена полосы пропускания на мощность сигнала и наоборот. Однако поскольку С зависит от F линейно, а от – по логарифмическому закону, компенсировать возможное сокращение полосы пропускания увеличением мощности сигнала, как правило, не выгодно. Более эффективным является обратный обмен мощности сигнала на полосу пропускания.

Максимальный объём информации, которую можно в среднем передать по непрерывному каналу за время ,

Для гауссовского канала

(2.37)

Заметим, что при Выражение (2.37) совпадает с характеристикой названной ёмкостью (объёмом) канала.

Ранее мы рассмотрели кодирование и передачу информации по каналу связи в идеальном случае, когда процесс передачи информации осуществляется без ошибок. В действительности этот процесс неизбежно сопровождается ошибками (искажениями). Канал передачи, в котором возможны искажения, называется каналом с помехами (или шумами). В частном случае ошибки возникают в процессе самого кодирования, и тогда кодирующее устройство может рассматриваться как канал с помехами.

Наличие помех приводит к потере информации. Чтобы в условиях наличия помех получить на приемнике требуемый объем информации, необходимо принимать специальные меры. Одной из таких мер является введение так называемой «избыточности» в передаваемые сообщения; при этом источник информации выдает заведомо больше символов, чем это было бы нужно при отсутствии помех. Одна из форм введения избыточности – простое повторение сообщения. Таким приемом пользуются, например, при плохой слышимости по телефону, повторяя каждое сообщение дважды. Другой общеизвестный способ повышения надежности передачи состоит в передаче слова «по буквам» – когда вместо каждой буквы передается хорошо знакомое слово (имя), начинающееся с этой буквы.

Пропускная способность канала, когда число элементарных символов более двух и когда искажения отдельных символов зависимы может быть определена с помощью второй теоремы Шеннона. Зная пропускную способность канала, можно определить верхний предел скорости передачи информации по каналу с помехами.

Рассмотрим на примере: Пусть имеется источник информации Х, энтропия которого в единицу времени равна , и канал с пропускной способностью Х. Тогда если

то при любом кодировании передача сообщений без задержек и искажений невозможна.

то всегда можно достаточно длинное сообщение закодировать так, чтобы оно было передано без задержек и искажений с вероятностью, сколь угодно близкой к единице.

Задача 2 : Выяснить, достаточна ли пропускная способность каналов для передачи информации, поставляемой источником, если имеются источник информации с энтропией в единицу времени =110 (дв. ед.) и количество каналов связи n = 2 , каждый из них может передавать в единицу времени К = 78 двоичных знаков (0 или 1); каждый двоичный знак заменяется противоположным с вероятностью μ=0.17 .

η(μ) = 0,434587

η(1 – μ) = 0,223118

η(μ) + η(1 – μ) = 0,434587 + 0,223118 = 0,657688

На один символ теряется информация 0,584239 (дв. ед.).

Пропускная способность канала равна:

С = 78∙(1 – 0,657688) =26,7≈27 двоичных единиц в единицу времени.

Максимальное количество информации, которое может быть передано по двум каналам в единицу времени:

27∙2 = 54 (дв. ед.), чего не достаточно для обеспечения передачи информации от источника, так как источник передает 110 дв. ед. в единицу времени. Для обеспечения передачи информации в достаточном объеме и без искажения необходимо увеличить количество пропускных каналов связи до трех. Тогда максимальное количество информации, которое может быть передано по трем каналам в единицу времени:

3*54=162 двоичных единиц в единицу времени. 162>110, следовательно информация будет передаваться без искажений.

Для передачи информации без задержек можно:

1. Использовать способ кодирования-декодирования;

2. Применять компандирование сигнала;

3. Увеличить мощность передатчика;

4. Применять дорогие линии связи с эффективным экранированием и малошумящей аппаратурой для снижения уровня помех;

5. Применять передатчики и промежуточную аппаратуру с низким уровнем шума;

6. Использовать для кодирования более двух состояний;

7. Применять дискретные системы связи с применением всех посылок для передачи информации.


©2015-2019 сайт
Все права принадлежать их авторам. Данный сайт не претендует на авторства, а предоставляет бесплатное использование.
Дата создания страницы: 2016-02-13