Пропускная способность дискретного (цифрового) канала - Программирование, компьютеры и кибернетика контрольная работа

Пропускная способность дискретного (цифрового) канала - Программирование, компьютеры и кибернетика контрольная работа




































Главная

Программирование, компьютеры и кибернетика
Пропускная способность дискретного (цифрового) канала

Предмет и задачи теории информации, ее функции при создании АСУ. Определение пропускной способности дискретных (цифровых) каналов при отсутствии шумов. Расчет скорости передачи информации. Вычисление значения энтропии - среднего количества информации.


посмотреть текст работы


скачать работу можно здесь


полная информация о работе


весь список подобных работ


Нужна помощь с учёбой? Наши эксперты готовы помочь!
Нажимая на кнопку, вы соглашаетесь с
политикой обработки персональных данных

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ
ФЕДЕРАЛЬНОЕ ГОСУДАРСТВЕННОЕ ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ ВЫСШЕГО ПРОФЕССИОНАЛЬНОГО ОБРАЗОВАНИЯ
«РЯЗАНСКИЙ ГОСУДАРСТВЕННЫЙ РАДИОТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ»
КАФЕДРА АВТОМАТИЗИРОВАННЫХ СИСТЕМ УПРАВЛЕНИЯ
КОНТРОЛЬНАЯ РАБОТА ПО ДИСЦИПЛИНЕ:
Структурная схема цифрового информационного канала показана на рисунке 1.
На вход такого канала обычно поступают дискретные соотношения х, например, в виде текста. Последние с помощью кодирующего устройства преобразуются в кодированные сигналы у. Как известно, для кодирования используется некоторый алфавит элементарных сигналов (символов) - у 1 , у 2 ,…, у m , а существо кодирования сводится к представлению отдельных сообщений x i или последовательностей сообщений некоторыми комбинациями символов используемого алфавита. Декодирующее устройство преобразует кодированные сигналы z в сообщения w в форме, наиболее приемлемой для получателя, которым может быть не только человек, но и различные технические устройства (принтер, монитор, ПЭВМ и др.). В современных информационно-вычислительных комплексах исходные сообщения х могут быть и в непрерывной форме, но с помощью кодирующих устройств последние преобразуют в кодированные сигналы.
В реальных каналах неизбежны различного рода помехи, представленные на рис.1 в виде источника помех, которые нередко называют шумом. Термин «шум» впервые, видимо, появился применительно к телефонным каналам, в которых помехи воспринимались «на слух». Эти каналы в настоящее время широко используются не только по прямому назначению, но и для передачи цифровых данных в информационных системах.
При отсутствии шумов можно считать, что в информационном канале z = y, а w = x, следовательно, для сообщений z T = y T , w T = x T , передаваемых за время Т, количество информации, поступающей к получателю от источника, составит
где - энтропия источника сообщений.
По аналогии для канала связи, представляющего часть информационного канала, будем иметь
Если последовательность X Т состоит из m сообщений и средняя длительность сигнала, обеспечивающего передачу одного сообщения составляет с , то можно определить скорость передачи информации как
где Н(X) - энтропия источника n сообщений:
В дальнейшем основание 2 логарифма для простоты будет опущено.
Очевидно, что скорость передачи информации будет зависеть от статистических характеристик источника сообщений, метода кодирования сообщений и свойств канала. Так, при одном и том же способе кодирования длительность символов передаваемых сигналов может быть различной в зависимости от ширины полосы частот пропускания канала. С изменением длительности символов меняется и скорость передачи информации.
Пропускная способность информационного канала C определяется максимальным значением скорости передачи:
Аналогично находится пропускная способность канала связи C с , являющегося частью информационного канала:
Реальная скорость передачи информации может быть максимальной и равной пропускной способности канала, если статистические характеристики источника сообщений определенным образом согласованы со свойствами информационного канала. Для каждого источника это может быть достигнуто специальным выбором способа кодирования сообщений. Такое кодирование, при котором достигается наиболее эффективное использование пропускной способности дискретного канала (т.е. обеспечивается максимальная скорость передачи информации макс ), называется эффективным.
Дискретный канал, в котором передаваемые сообщения представлены двоичным кодом, называется двоичным каналом. Если код имеет m символов (разрядов), то очевидно, что всего можно закодировать n = 2 m сообщений, а длительность одного сообщения составит T = m, где - длительность символа кода с учетом того, что все символы обычно имеют одинаковую длительность. Двоичные коды, состоящие из одинакового числа символов m, называются равномерными. Пропускная способность рассматриваемого канала с учетом формул (1.1), (1.2) и (1.3) составит
Выражение (1.4) принимает максимальное значение, когда энтропия ансамбля событий (сообщений) H(Y T ) будет наибольшей. Из свойств энтропии следует, что H(Y T ) будет максимальна, если сообщения равновероятны, это максимальное значение может быть определено мерой Хартли и будет равно log n = log 2 m = m [2].
Следует, однако, иметь ввиду, что фактическая скорость передачи информации не всегда оказывается равной пропускной способности канала.
Пример 1 . Пусть источник сообщений вырабатывает четыре сообщения X 1 , X 2 , X 3 , X 4 , (n = 4). Все сообщения имеют одинаковые вероятности: P(X i ) = 1/n = 0,25. Для их кодирования используется двоичный равномерный код, число символов в котором достаточно выбрать m = 2. Исходные сообщения х 1 , х 2 , х 3 , х 4 в этом примере будут представлены следующими кодами: 00, 01, 10, 11.
Скорость передачи информации будет определяться по формуле (1.2), в которой энтропия источника равновероятных сообщений будет максимальной:
а длительность каждого из четырех сообщений будет определяться длительностями соответствующих кодовых комбинаций и составит с = 2. Для примера 1 по формуле (1.2) находим
Таким образом, в этом примере, как и следовало ожидать, скорость передачи информации оказалась равной пропускной способности канала: = C c = 1/.
Записывают сообщения в порядке убывания их вероятностей. Проводят первое деление всех сообщений на две подгруппы I и II так, чтобы сумма вероятностей сообщений в подгруппах I и II была бы по возможности одинаковой.
При первом делении получились подгруппы: I - 0,49; II - 0,25+0,125+0,125=0,51. Во втором делении: I - 0,25; II - 0,125+0,135=0,26. В заключительном делении получились подгруппы: I - 0,135; II - 0,125.
Номер подгруппы, в которую попадает данное сообщение при каждом делении, определяет символ на соответствующей позиции кода этого сообщения. В рассматриваемой таблице принадлежность к подгруппе I обозначается символом 0, а к подгруппе II - символом 1.
Анализируя неравномерный код Шеннона Фано, можно убедиться в том, что наиболее вероятному сообщению соответствует самая короткая кодовая комбинация, наименее вероятному - длинная. Этим можно объяснить увеличение скорости передачи информации при использовании данного кода. Для наглядности в таблице 2 для сообщений х 1 , х 2 , х 3 , х 4 приведены неравномерный код Шеннона Фано и равномерный, используемый ранее в примере 1.
Код Шеннона Фано обладает еще одним существенным свойством: позволяет декодировать сообщения без введения дополнительных разделительных символов между кодовыми комбинациями, приводящих к снижению скорости передачи информации. Действительно, в рассмотренном примере короткие комбинации не совпадают с началом других более длинных кодовых комбинаций. Поэтому возможно однозначное декодирование последовательности кодовых комбинаций, формируемых непрерывно без применения разделительных символов.
Для вычисления скорости передачи информации при использовании кода Шеннона Фано вычислим для начала длительность сообщения:
Находим скорость передачи информации:
Таким образом, код Шеннона Фано позволил согласовать статистические характеристики источника сообщений с каналом связи, поскольку скорость передачи информации оказалась ближе к пропускной способности канала: (как минимум, > , которые получились бы при длительности сообщений ). Это можно объяснить тем, что при использовании эффективного кода Шеннона Фано сигнал каждого сообщения в среднем состоит из 1,77 символов, а при использовании равномерного кода - из 2-х.
Нарушение условия формирования кода Шеннона Фано, заключающегося в том, что наиболее вероятному сообщению должна соответствовать наиболее короткая кодовая комбинация, неизбежно приведет к снижению скорости передачи информации.
1. Автоматизированные информационные технологии в экономике: Учебник / М.И. Семенов, И.Т. Трубилин, В.И.Лойко, Т.П. Барановский; Под общ. ред. И.Т. Трубилина. М.: Финансы и статистика, 2000
2. Дмитриев В.И. Прикладная теория информации. М.: Высшая школа, 1989
3. Теория передачи сигналов: Учебник для вузов / А.Г. Зюко, Д.Д. Кловский, М.В. Назаров, Л.М. Финк. М.: Связь, 1988
Система передачи информации. Использование энтропии в теории информации. Способы преобразования сообщения в сигнал. Динамический диапазон канала. Определение коэффициента модуляции. Преобразование цифровых сигналов в аналоговые. Использование USB–модемов. курсовая работа [986,3 K], добавлен 18.07.2012
Основные понятия теории информации как науки. Среднее количество информации, приходящееся на 1 знак определяемое формулой Шеннона. Общая схема передачи сообщения. Пропускная способность канала. Булева алгебра и техническая реализация процесса вычисления. презентация [365,8 K], добавлен 13.08.2013
Количество информации и ее мера. Определение количества информации, содержащегося в сообщении из ансамбля сообщений источника. Свойства количества информации и энтропии сообщений. Избыточность, информационная характеристика источника дискретных сообщений. реферат [41,4 K], добавлен 08.08.2009
Механизм передачи информации, ее количество и критерии измерения. Единицы информации в зависимости от основания логарифма. Основные свойства и характеристики количества информации, ее энтропия. Определение энтропии, избыточности информационных сообщений. реферат [33,9 K], добавлен 10.08.2009
Способы передачи и хранения информации наиболее надежными и экономными методами. Связь между вероятностью и информацией. Понятие меры количества информации. Энтропия и ее свойства. Формула для вычисления энтропии. Среднее количество информации. реферат [99,7 K], добавлен 19.08.2015
Общее число неповторяющихся сообщений. Вычисление скорости передачи информации и пропускной способности каналов связи. Определение избыточности сообщений и оптимальное кодирование. Процедура построения оптимального кода по методике Шеннона-Фано. курсовая работа [59,4 K], добавлен 17.04.2009
Особенности вычисления количества информации, получаемой при фазовом сдвиге сигнала, если известна его амплитуда. Расчет информационных характеристик источников дискретных сообщений и дискретного канала. Особенности применения дискретизации и квантования. курсовая работа [557,7 K], добавлен 15.11.2009
Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д. PPT, PPTX и PDF-файлы представлены только в архивах. Рекомендуем скачать работу .

© 2000 — 2021



Пропускная способность дискретного (цифрового) канала контрольная работа. Программирование, компьютеры и кибернетика.
Зачем Нужны Семейные Традиции Сочинение
Реферат: Иностранцы
Фипи Примеры Итогового Сочинения 11 Класс
Социальная работа
Реферат На Тему Гражданская Оборона Скачать
Дипломная Работа На Тему Підвищення Ефективності Використання Техніки При Вирощуванні Багаторічних Трав І Заготівлі Сіна З Застосуванням Підбирачів Кормів І Досушування Сіна Методом Активного Вентилювання
Реферат: Стили управления
Средства Спортивной Подготовки Реферат
Реферат: Происхождение государства и права 6
Сочинение О Ломоносове 7 Класс По Литературе
Налоги И Сборы Курсовая Работа
Курсовая работа по теме Защита информации от несанкционированного доступа
Смотреть Итоговое Сочинение
Реферат по теме Учет продаж в розничной торговле
Реферат: Формирование личности в младшем школьном возрасте. Скачать бесплатно и без регистрации
Курсовая работа по теме Мотиви лірики Миколи Вінграновського
Изложение: Лягушки (Batrachoi)
Сочинение Плохой Язык
Доброкачественные Опухоли Печени Реферат
Дипломная работа: Перемена лиц в обязательствах в коммерческих отношениях. Скачать бесплатно и без регистрации
Военные применения радиоволн - Военное дело и гражданская оборона презентация
Исчисление убытков в гражданском праве - Государство и право курсовая работа
Конвергенция российских общефедеральных эфирных каналов - Журналистика, издательское дело и СМИ реферат


Report Page