Расчет информационных характеристик источников сообщений, сигналов и каналов. Курсовая работа (т). Информационное обеспечение, программирование.

Расчет информационных характеристик источников сообщений, сигналов и каналов. Курсовая работа (т). Информационное обеспечение, программирование.




💣 👉🏻👉🏻👉🏻 ВСЯ ИНФОРМАЦИЯ ДОСТУПНА ЗДЕСЬ ЖМИТЕ 👈🏻👈🏻👈🏻


























































Информационное обеспечение, программирование

Вы можете узнать стоимость помощи в написании студенческой работы.


Помощь в написании работы, которую точно примут!

Похожие работы на - Расчет информационных характеристик источников сообщений, сигналов и каналов

Скачать Скачать документ
Информация о работе Информация о работе


Скачать Скачать документ
Информация о работе Информация о работе


Скачать Скачать документ
Информация о работе Информация о работе


Скачать Скачать документ
Информация о работе Информация о работе


Скачать Скачать документ
Информация о работе Информация о работе


Скачать Скачать документ
Информация о работе Информация о работе

Нужна качественная работа без плагиата?

Не нашел материал для своей работы?


Поможем написать качественную работу Без плагиата!

Федеральное агентство по образованию


Государственное образовательное учреждение высшего
профессионального образования


«ПЕНЗЕНСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ»


Кафедра «Информационная безопасность систем и
технологий»




«Расчет информационных характеристик источников
сообщений, сигналов и каналов».








Пояснительная записка 27с., 8 рис., 1 табл.


СИГНАЛ, КАНАЛ, ЭНТРОПИЯ, СООБЩЕНИЕ,
АНСАМБЛЬ, ИЗБЫТОЧНОСТЬ, КВАНТОВАНИЕ, ДИСКРЕТИЗАЦИЯ, ИНФОРМАЦИЯ.


Объектом исследования являются источники
сообщений, сигналы и каналы, рассматриваемые с позиции теории информации.


Цель работы – получение навыков расчёта
информационных характеристик источников дискретных сообщений и дискретного
канала, изучение процессов согласования дискретного источника с дискретным
каналом, дискретизации и квантования.


В процессе работы проводилось изучение
необходимого теоретического материала и решение задач в соответствии с пунктами
задания.


В результате выполнения работы были решены
все задачи в соответствии с вариантом задания, получены навыки расчёта
информационных характеристик источников дискретных сообщений и дискретного
канала, изучены процессы согласования дискретного источника с дискретным
каналом, дискретизации и квантования.


Значимость работы – ещё раз подтверждает
слова К. Шеннона, «что с информацией можно обращаться почти так же, как с
такими физическими величинами, как масса или энергия».


Следует ожидать, что идеи и методы теории
информации, касающиеся источников сообщений, сигналов и каналов, будут успешно
использоваться и в дальнейшем, особенно при создании сложных систем,
объединяющих различные по целям, функциям и даже физическому воплощению
подсистемы.





1 Расчет информационных характеристик источников
дискретных сообщений


2 Расчет информационных характеристик
дискретного канала


3 Согласование дискретного источника с
дискретным каналом


В настоящем отчете использованы ссылки на следующие стандарты:


- ГОСТ 1.5 – 93 Государственная система стандартизации РФ. Общие
требования к построению, изложению, оформлению и содержанию стандартов.


- ГОСТ 2.105 – 95 Единая система конструкторской документации.


- ГОСТ 7.1 – 84 Система стандартов по информации, библиотечному и
издательскому делу. Библиографическое описание документа. Общие требования и
правила составления.


- ГОСТ 7.32 – 2001 Система стандартов по информации, библиотечному,
издательскому делу. Отчёт о научно – исследовательской работе.





Эффективная организация обмена информацией
приобретает всё большее значение, прежде всего как условие успешной
практической деятельности людей. Объём информации, необходимой для нормального
функционирования современного общества, растёт примерно пропорционально
квадрату развития производительных сил. Доля рабочей силы, занятой вопросами
обеспечения информацией, начинает превышать долю рабочей силы, занятой
непосредственно в сфере производства.


Информация наряду с материей и энергией
является первичным понятием нашего мира и поэтому в строгом смысле не может
быть определена, при этом в узком практическом смысле под информацией обычно
понимают совокупность сведений об окружающем мире, являющуюся объектом
хранения, передачи и преобразования. Информация передаётся и хранится в виде
сообщений, а изменяющийся во времени физический процесс, отражающий
передаваемое сообщение называется сигналом. А система связи, являющаяся
совокупностью технических средств, используемых для передачи сообщений от источника
к потребителю информации.


В данной работе объектом исследования
являются источники сообщений, сигналы и каналы, рассматриваемые с позиций
теории информации, круг проблем которой можно охарактеризовать как исследование
методов кодирования для экономного представления сообщений различных источников
и для надёжной передачи сообщений по каналам связи с шумом.


В основе теории информации лежит
статистическое описание источников сообщений и каналов связи, а также
базирующееся на этом описание измерения количества информации между
сообщениями, определяемого только вероятностными свойствами сообщения.


На основе теории информации можно ответить
на вопросы о предельных возможностях, т.е. максимально достижимых
характеристиках различных систем, определить в какой мере проектируемая система
близка к теоретически возможной. В некоторых случаях логика рассуждений,
используемая в теории информации, подсказывает путь, на котором может быть
найдено конструктивное решение для реальной системы.


В данной работе основные идеи и методы
теории информации были рассмотрены и практически закреплены на примере
конкретных задач, составляющих четыре раздела задания.





1. Расчёт
информационных характеристик источников дискретных сообщений




Ансамбли событий X и Y объединены, причем
вероятности совместных событий равны: ;;; ;
; ; ;
.Найти: энтропии ансамблей X и Y
соответственно ; энтропию
объединенного ансамбля ; условные энтропии ансамблей


1) 
Известны вероятности совместных
событий, и с учётом соотношения




 находятся безусловные вероятности p ( x k ) и p ( y k ) , которые
потребуются при дальнейшем решении:




2) По формуле определения энтропии ( 1.4 ) , находятся
энтропии ансамблей H ( X ) и H ( Y ) :




3) Для нахождения среднего количества информации, даваемое сообщением X при условии, что сообщение ансамбля Y уже известно, т.е. нахождение энтропии
ансамбля H ( X , Y ) , используется формула определения энтропии
объединённого ансамбля:




т.о., в нашем случае H ( X , Y ) будет равна




4) Итак, была найдена энтропия
объединённого ансамбля. Далее по заданию требуется определить условные энтропии
ансамблей H ( X / Y ) и H ( Y / X ). Формулу
условной энтропии можно получить из формулы количества информации, содержащейся
Y относительно X и
наоборот.




Принимаемый сигнал может иметь амплитуду (событие ) или (событие ), а также сдвиг фазы (событие
) или (событие ) режимах. Вероятности совместных событий
имеют следующие значения:
Вычислить количество информации получаемой о фазовом сдвиге сигнала, если
станет известной его амплитуда.


Количество информации вычисляется по формуле:




Величина I(Y,X) показывает,
сколько в среднем бит информации о реализации ансамбля Y дает наблюдение реализации
ансамбля Z. Подставив в эту формулу в выражение для вычисления энтропии и
условной энтропии:




последнее выражение можно записать в виде:




p(y 1 ) = p(x 1 , y 1 ) + p(x 2 , y 1 ) = 0.47 + 0.27 = 0.74


p(y 2 ) = p(x 1 , y 2 ) + p(x 2 ,
y 2 ) = 0.17 + 0.09 = 0.26


p(x 1 ) = p(x 1 , y 1 ) + p(x 1 ,
y 2 ) = 0.47 + 0.17 = 0.64


p(x 2 ) = p(x 2 , y 1 ) + p(x 2 , y 2 ) = 0.27 + 0.09 = 0.36




Все величины подставляются в формулу:




Дискретный источник выбирает сообщения из
ансамбля




Длительности сообщений соответственно
равны: t u1 =0,96 c, t u2 =0,44 c, t u3 =0,67
c, t u4 =0,39 c. Определить производительность источника.


Производительность источника рассчитывается
по формуле,




где T – время,
затрачиваемое в среднем на каждое сообщение при передаче, и определяемое в
соответствии со следующим выражением:




а энтропия источника H ( U ) в
соответствии с формулой (1.4) [1] равна:





Итак, производительность источника равна:




2. Расчёт
информационных характеристик дискретного канала




На вход дискретного симметричного канала, показанного на рисунке 2, без
памяти поступают двоичные символы и с
априорными вероятностями p(U 1 )=0,75 и p(U 2 )=0,25.




Рисунок 2 – Дискретный симметричный канал




Переходные вероятности в таком канале задаются
соотношением




где p=0,1 – вероятность ошибки. Определить все апостериорные вероятности .


 - переходные вероятности
того, что на выходе будет символ z j
при условии, что на входе был
символ u i .


 - апостериорные
вероятности того, что на входе канала имел место символ u i при условии, что на выходе наблюдается z j .


Двоичный
источник с равновероятными элементами имеет производительность U’=1500
бит в секунду. При передачи по каналу в среднем один из 100 символов
принимается ошибочно. Определить скорость передачи инфориации по данному
каналу.


Ситуация
в канале характеризуется данным рисунком 3. В среднем один из 100 символов
принимается ошибочно, поэтому вероятность ошибки будет составлять р о =1/100=0,01.
Тогда вероятность правильного принятия будет вычисляться из следующего
выражения: 1-р 0 =1-0,01=0,99.


Таким
образом, канал описывается распределением вероятностей:




P(U 1 )=P(U 2 )=0,5-
дано по условию




Скорость
передачи информации вычисляется по формуле:




а
энтропия будет равна 1 биту, так как




H’(U)=V C *H(U), где V C =1500 c -1


Условные
вероятности можно найти по формуле Байеса:
H(U/Z)=-P(Z 1 )[P(U 1 /Z 1 )log 2 P(U 1 /Z 1 )+P(U 2 /Z 1 )log 2 P(U 2 /Z 1 )]-P(Z 2 )[P(U 1 /Z 2 )log 2 P(U 1 /Z 2 )+ P(U 2 /Z 2 )log 2 P(U 2 /Z 2 )]


H(U/Z)=-(0.5+0.5)(-2*0.99log(0.99)-2*0.01*log(0.01))=0.16


H’(U/Z)=V C *H(U/Z)=1500*0,16=241 (бит)


I’(U,Z)=H’(U)-H(U/Z)=1500-241=1259(бит/с)





3.
Согласование дискретного источника с дискретным каналом




Закодировать двоичным кодом Фано ансамбль сообщений {a i }:




{0.08, 0.001, 0.06, 0.09, 0.017, 0.18, 0.4, 0.06, 0.003, 0.027, 0.014,
0.068}




Закодировать произвольную комбинацию, состоящую из 5 символов из
ансамбля{a i }. Определить потенциальный минимум
среднего количества символов кода, приходящихся на одно сообщение ансамбля {a i } и среднее количество символов,
разработанного кода Фано, приходящихся на одно сообщение из ансамбля {a i }. Рассчитать эффективность
разработанного кода.


Кодируется кодом Фано заданный ансамбль сообщений следующим образом.




Таблица 1 - Кодирование ансамбля сообщений {a i } двоичным кодом Фано


Сообщения источника располагаются в порядке не возрастания их
вероятностей, делятся на две части так, чтобы суммарные вероятности сообщений в
каждой части были по возможности равны. Сообщениям первой части приписывается в
качестве первого символа нуль, а сообщениям второй части единица. Затем каждая
из этих частей (если она содержит более одного сообщения) опять делится на две
примерно равные части и в качестве второго символа для первой из них берется 0,
а для второй 1. Этот процесс повторяется до тех пор, пока в каждой из
полученных частей не останется по одному сообщению.


После
использования полученных комбинаций символов, закодируется произвольная
комбинация, состоящая из 5 символов из ансамбля {a i }:
101011111110010011110.


Среднее количество символов, приходящихся на одно сообщение, определяется
по формуле 2.9 курса лекций:




где m s – количество позиций, а p s – вероятность сообщения из ансамбля {a i }.




Определяется минимальное среднее количество символов, приходящихся на
одно сообщение, по формуле




где M – объем алфавита кода, равный 2, а H(U) энтропия источника.


Затем вычисляется величина ψ-эффективность кода, которая
характеризует степень близости неравномерного статистического кода к
оптимальному.




Определить
избыточность оптимального по Шеннону кода (существование которого утверждается
теоремой для канала с шумом) с объемом алфавита m и средним количеством
символов, переданных в единицу времени V k , предназначенного
для безошибочной передачи информации по каналу с пропускной способностью С.


Найти
минимально возможную избыточность оптимального кода для симметричного канала
при m = 8 и вероятности ошибки P = 0,08.


Так как
передача информации предполагается безошибочной, то кодирование должно быть
однозначным, то есть потери информации при кодировании должны отсутствовать.
Это означает, что:


где H ¢ ( U )- производительность
источника, который передает информацию.


В
соответствии с условием теоремы Шеннона




H ¢ ( U ) < C ,
а H ( U ) = С + ε = С ; (ε→ 0 ) ,




тогда
формула избыточности будет выглядеть следующим образом:




Для
двоичного симметричного канала справедливо выражение:


C=V k *[ 1 +p*log 2 p+( 1 -p)*log 2 ( 1 -p)]




Подставив
известные значения в формулы, получается:


Рисунок
4 - Непрерывный сигнал x ( t ), имеющий спектр X ( j ω)
дискретизируется с частотой дискретизации ω д




Выполняется ли в данном случае условие теоремы
Котельникова? Построить график спектра дискретизированного сигнала (изобразить
5 периодов спектра). Проиллюстрировать графически процесс восстановления
спектра непрерывного сигнала с помощью идеального интерполирующего фильтра по
спектру дискретного сигнала.


При построении графика спектра
дискретизированного сигнала (рисунок 4) исспользуется выражение (3.16) [1],
причём для изображения 5 периодов спектра следует учесть 5 слагаемых:




Процесс восстановления спектра непрерывного
сигнала с помощью идеального интерполирующего фильтра по спектру дискретного
сигнала проиллюстрирован графически на рисунке 5, где первый график
представляет собой частотную характеристику идеального фильтра низких частот, а
 - спектр сигнала на выходе интерполятора.



















Условие теоремы Котельникова (неравенство
(3.17) [1]) в данном случае не выполняется (т.к. ), из-за
взаимного перекрытия слагаемых происходит изменение
формы спектра и точное восстановление , а следовательно и x ( t ) ,
невозможно.




Непрерывный сигнал дискретизируется
с частотой дискретизации ω д =2,5. Построить графики непрерывного
и дискретизированного сигналов (изобразить не менее пяти периодов).
Проиллюстрировать графически процесс восстановления непрерывного сигнала по
дискретному во временной области с помощью интерполятора 1-го порядка.


Зная выражение, описывающее непрерывный
сигнал, и частоту дискретизации, найдём период дискретизации , необходимый при построении графика
дискретизированного сигнала, выразив его через период Т непрерывного
сигнала:




Графики исходного непрерывного и
дискретизированного сигналов представлены на рисунке 6.





Рисунок 6 – Графики
исходного непрерывного и дискретизированного сигналов


Интерполятором называется фильтр, преобразующий
отсчёты дискретного сигнала в непрерывный сигнал. Процесс восстановления
сводится к подаче дискретного сигнала на вход фильтра, с выхода которого
снимается непрерывный сигнал. Математически процесс восстановления сигнала
описывается следующим выражением:




где - сигнал
на выходе интерполятора;


 - импульсная
характеристика фильтра, для интерполятора 1-ого порядка она имеет вид,
представленный на рисунке 7.





Рисунок 7 – Импульсная
характеристика интерполятора 1-ого порядка


Итак,
процесс восстановления заданного непрерывного сигнала по дискретному во временной
области с помощью интерполятора 1-го порядка проиллюстрирован графически на
рисунке 8, где последний график описывает сигнал, получившийся на выходе
интерполятора.




Рисунок 8 Лист 21 - Процесс восстановления
заданного непрерывного сигнала по дискретному во временной области с помощью
интерполятора 1-го порядка





Рисунок 8 Лист 22 - Процесс восстановления
заданного непрерывного сигнала по дискретному во временной области с помощью
интерполятора 1-го порядка





Рисунок 8 Лист 23 - Процесс восстановления
заданного непрерывного сигнала по дискретному во временной области с помощью
интерполятора 1-го порядка





Рисунок 8 Лист 24 - Процесс восстановления
заданного непрерывного сигнала по дискретному во временной области с помощью
интерполятора 1-го порядка





Рисунок 8 Лист 25 - Процесс восстановления
заданного непрерывного сигнала по дискретному во временной области с помощью интерполятора
1-го порядка




Непрерывное сообщение u(t) квантуется с округлением с
постоянным шагом Du при
числе уровней квантования N y =45. Плотность распределения вероятностей сообщения W u (U) равномерна в интервале от –U m до U m , т.е.




Определить соотношение сигнал – шум в квантованном сообщении.


Соотношение сигнал – шум определяется как отношение мощности сигнала к
мощности шума, т.е.




где Р с и Р ш находятся как дисперсия случайной
величины U c и U ш , следовательно,




где M u – математическое ожидание, которое
определяется как:




Исходя из значения математического ожидания, получается:




Согласно условию задачи квантование производится с округлением,
следовательно, дисперсия или мощность шума определяется формулой




Подставляя полученные значения в выражение для нахождения соотношения
сигнал – шум, получается:




В соответствии с формулой 3.1 а курса лекций





В результате выполнения работы изучен
необходимый теоретический материал, решены все задачи в соответствии с
вариантом задания, получены навыки расчёта информационных характеристик источников
дискретных сообщений и дискретного канала, изучены процессы согласования
дискретного источника с дискретным каналом, дискретизации и квантования, т.о.
задание курсового проекта выполнено в полном объёме.












Похожие работы на - Расчет информационных характеристик источников сообщений, сигналов и каналов Курсовая работа (т). Информационное обеспечение, программирование.
Контрольная работа: Учет фактора риска в управлении финансами
Саодати Инсон Дар Заҳмату Кор Аст Эссе
Управление Развитием Реферат
Что Первично Материя Или Сознание Эссе
Реферат: Старые поэтические жанры на новом витке
Курсовая работа: Организация производства на предприятия общественного питания
Лекция по теме Потенціометрія як один з найпростіших електроаналітичних методів
Контрольная Работа По Математике Повторение 5 Класса
Биология Контрольная Работа 7
Учебное Пособие На Тему Международное Гуманитарное Право
Материальные Производства Реферат
Реферат: Практикум по рыночному ценообразованию
Реферат На Тему Архитектура Хай Тек
Сочинение по теме Русская идея и русская мысль
Сколько Сносок Должно Быть В Дипломной Работе
Курсовая работа по теме Діяльність автотранспортного підприємства
Курсовая работа: Коммерческий банк. Скачать бесплатно и без регистрации
Реферат На Тему Патология Тканевого Роста. Опухоли
Реферат: Адсорбция паров летучих растворителей. Примеры конструкций адсорбционно-каталитических аппаратов
Реферат: Политология как научная дисциплина 2
Реферат: Игра в художественно-творческой деятельности дошкольников педагогические основы работы с
и, следовательно:
Реферат: Effects Of Smoking Essay Research Paper The

Report Page