ot

ot

q

1.Конечная последовательность цифровой информации - это:

блок

\/

/\

2. Конечная последовательность битов носит название:

код

\/

/\

3.Бинарный источник без памяти носит название:

источник Бернулли

\/

/\

4.Лучшей степени сжатия в соответствии с каноническим алгоритмом Хаффмана соответствует величина:

8

\/

/\

5.Оценка степени сжатия арифметическим алгоритмом определяется путем нахождения такого минимального числа n , что длина рабочего интервала при сжатии последнего символа цепочки была бы меньше:

1/2^n

\/

/\

6.Выберите верное утверждение:

арифметический алгоритм не увеличивает размера исходных данных в худшем случае


7.Процедура, выполняющая задачу увеличения размера интервала, называется:

нормализацией

\/

/\

7.Соответствие между буквами алфавита и некоторыми словами алфавита называется:

схема

\/

/\

8.В алфавите три буквы. Составлены все возможные сообщения, комбинируя по три буквы в сообщении. Каково максимальное количество этих сообщений?

-27

Конец формы

\/

/\

9.В алфавите пять букв. Составлены все возможные сообщения, комбинируя по три буквы в сообщении. Каково максимальное количество этих сообщений?

-125

\/

/\

10.В алфавите три буквы. Составлены все возможные сообщения, комбинируя по три буквы в сообщении. Какое количество информации приходится на одно такое сообщение?

-2,56

\/

/\

11.В алфавите 4 буквы. Составлены все возможные сообщения, комбинируя по 4 буквы в сообщении. Какое количество информации приходится на одно такое сообщение?

+4,75

\/

/\

12.Алфавит соcтоит из4 буквA, B, C, D. Вероятности появления букв равны соответственно Ра= Рb=0,25; Рc= 0,34;Рd=0,16. Определить количество информации на символ сообщения составленного из такого алфавита(количество информации на символ сообщения есть энтропия данного алфавита).

-1,95 бит/символ

\/

 /\

13.Чему равно количество информации при получении 8 сообщений равномерного четырехзначного троичногокода ?

-50,72

\/

/\

14.Чему равно число сообщений равномерного четырехзначного троичногокода ?

- 81

\/

/\

15.Чему равно количество информации при получении 8 сообщений равномерного четырехзначного двоичногокода ?

-32

\/

/\

16.Чему равно число сообщений равномерного четырехзначного двоичногокода ?

-16

\/

/\

17.Сообщения составлены из пяти качественных признаков(m1=5).Длительность элементарной посылки t=20 мсек. Чему равна скорость передачи сигналов?

-116 бит/сек формула: С = (1/t)*log(осн2)m

\/

/\

18.Сообщения составлены из пяти качественных признаков(m1=5).Длительность элементарной посылки t=20 мсек. Чему равна скорость передачи информации?

+116 бит/сек

\/

/\

19.Cообщения передаются двоичным кодом. Вероятности появления 0 и 1 равны соответственно Р0 =0,8 и Р1=0,2. Помехи в канале отсутствуют, то есть условные вероятности переходов 0 в1 и 1 в 0 равны 0.Чему равна энтропия сообщения?

-0,26 бит/символ

-0,36бит/символ

-0,54 бит/символ

-0,72 бит/символ

-0,96 бит/символ

\/

/\

20.Cообщения передаются двоичным кодом. Символы появляются с равными вероятностями Р0 =Р1=0,5. Однако в результате действия помех условные вероятности переходов равны P(1/1)=0,8; P(1/0)=0,2; P(0/0)=0,8; P(0/1)=0,2. Чему равна энтропия сообщения?

-0,72 бит/символ

\/

/\

21.Чему равно количество информации в сообщении, переданном в двоичном коде пятизначной комбинацией, если символы кодируемого алфавита равновероятны?

-5

\/

/\

22.Чему равно количество информации в сообщении, переданном в двоичном коде двумя пятизначными комбинациями, если символы кодируемого алфавита равновероятны?

-10

\/

/\

23.Общее число сообщений которое может быть составлено из алфавита m путем комбинирования по n   в сообщении равно 

-N= m^n

\/

/\

24.Чему равно количество информации при получении сообщения о выходе из строя одного из восьми станков, полученных в одно и то же время с одного и того же завода?

-3 бит

\/

/\

25.На ВЦ постоянная информация хранится в 256 ячейках. Сколькими способами можно передать сведения о том, из какой ячейки можно извлечь данные постоянной информации?

-2

-3

-8

-15

-32

\/

/\

26.B ВЦ постоянная информация хранится в 32768 ячейках.Сколькими способами можно передать сведения о том, из какой ячейки можно извлечь данные постоянной информации?

-2

-3

-8

-15

-32

\/

/\

27.B ВЦ постоянная информация хранится в 32768 ячейках.Чему равно количество информации вспособах передачи сведений о том, из какой ячейки можно извлечь данные постоянной информации?

-2 бит

-3 бит

-8 бит

-15 бит

-32 бит

\/

/\

28.B ВЦ постоянная информация хранится в 32768 ячейках.Какое геометрическое построение хранилища позволит передавать эту информацию минимальным количеством качественных признаков и чему равно количество передаваемых координат при этой передаче?

-квадрат, 2

-куб, 3

-тетраэдр, 4

-эллипс, 0

-круг, 2add

\/

/\

29.…..-форма обеспечивающее наименьшее число качественных признаков m для передачи сообщений

-квадрат, 2

-куб, 3

-тетраэдр, 4

-эллипс, 0

-круг, 2

\/

/\

30.Сколькими способами можно составить сообщении о союдержании количественной части показателей, если таблица содержит 256 ячеек?

+15 бит

\/

/\

31.Чему равна вероятность появления комбинации 10110 при передаче пятизначных двоичных кодов, если коды встречаются в сообщении с равной вероятностью?

+0,3125

\/

/\

32.Чему равно среднее количество информации приходящейся на одну комбинацию,например 10110,   при передаче пятизначных двоичных кодов, если коды встречаются в сообщении с равной вероятностью?

-0,1253 бит

-0,3125 бит

-0,5 бит

-1 бит

-5 бит

\/

/\

33.Сообщения состоят из равновероятного алфавита, содержащего m=128 качественных признаков. Чему равно количество символов в принятом сообщении, если известно, что оно содержит 42 бита информации?

-6

\/

/\

34.Сообщения состоят из равновероятного алфавита, содержащего m=128 качественных признаков. Чему равно энтропия принятого сообщения, если известно, что оно содержит 42 бита информации?

-7 бит/символ

\/

/\

35.Сообщения состоят из равновероятного алфавита, содержащего m=256 качественных признаков. Чему равно количество символов в принятом сообщении, если известно, что оно содержит 28 бит информации?

-4

\/

/\

36.Сообщения состоят из равновероятного алфавита, содержащего m=128 качественных признаков. Чему равно энтропия принятого сообщения, если известно, что оно содержит 28 бит информации?

-8 бит/символ

\/

/\

37.Определить максимум энтропии системы,состоящей из 6 элементов,каждый из которых может быть в одном из 4 состояний равновероятно

-12

\/

/\

38.Система может находиться в одном из 4 состояний. Состояния системы заданы через вероятности следующим образом а1=0,25;а2=0,25;а3=0,3;а4=0,2. Определить энтропию системы

-1,985

Энтропия находится по формуле 𝐻(𝑋)= − ∑𝑝𝑖∙log2𝑝𝑖𝑛𝑖=1, где 𝑝𝑖− вероятности.

\/

/\

39.Сообщения составляются из алфавита a,b,c,d.  Вероятность появления букв алфавита равна Ра=0,2;Ра=0,3;Ра=0,4;Ра=0,1. Найти максимальную энтропию для этого алфавита

+2

Максимальная энтропия алфавита из 𝑛 букв равна 𝐻𝑚𝑎𝑥= log2𝑛\/

/\

40.Сообщения составляются из алфавита a,b,c,d.  Вероятность появления букв алфавита равна Ра=0,2;Ра=0,3;Ра=0,4;Ра=0,1. Найти среднюю энтропию на символдля этого алфавита

-1,85


41.Сообщения составляются из алфавита a,b,c,d.  Вероятность появления букв алфавита равна Ра=0,2;Ра=0,3;Ра=0,4;Ра=0,1. Найти избыточность сообщений,составленных из данного алфавита

-0,077Формула: D=1− 𝐻(𝑋)𝐻𝑚𝑎𝑥


42.Избыточность Dсообщений, составленных из данного алфавита, вычисляется по следующей формуле….,  где H-энтропия данного  алфавита

-D=1-H/Hmax


43.Коэффициент сжатия (относительная энтропия)сообщений, составленных из данного алфавита, вычисляется по следующей формуле….,  где H-энтропия данного алфавита

-H/Hmax


44.Какое минимальное число вопросов необходимо задать собеседнику, чтобы угадать любое число из 240, если собеседник отвечает только «Да» и «Нет»

+8𝑁= log2240/ log22=7.9


45.Какое минимальное число вопросов необходимо задать собеседнику, чтобы угадать любое число из 120, если собеседник отвечает только «Да» и «Нет»

-7𝑁= log2120/log22=6.9069


46.Определить избыточность сообщений при побуквенном кодировании,если кодируются цифровые сообщения и передаются в двоичном коде

-0,07

-0,17

-1,27

-2,22

-3,32


47.Определить избыточность сообщений при блочном кодировании (кодирование блоками по 4 буквы, т.е. k=4),если кодируются цифровые сообщения и передаются в двоичном коде

-0,07

+0,17

-1,27

-2,22

-3,32


48.Определитьпропускную способность бинарного симметричного канала, если Р=0,02; t1=t1=0,1 cек),если кодируются цифровые сообщения и передаются в двоичном коде

-2,8 бит/сек

-2,8 бит/символ

-7,14бит/сек

-7,2 бит/сек

-7,2 бит/символ


49.Определитьпропускную способность канала связи, в котором на выходе источника сообщений символы создаются со скоростью 10 знаков в секунду, априорные вероятности появления символов первичного алфавита равны между собой, а 5 % сообщений под действием помех с равной вероятностью могут перейти в любой другой символ данного алфавита

+7,14бит/сек


50.Для двоичных кодов число кодовых комбинаций Nв кодах с постоянным весом длиной в nсимволов равно, где k-число единиц в кодовом слове

+N=n!/[k!(n-k)!]


51.Минимальное количество символов, в которых любые две комбинации кода отличаются друг от друга, называется


-кодовым расстоянием


52.Минимальное количество символов, в которых все комбинации кода отличаются друг от друга, называется

+минимальным кодовым расстоянием


53.В рефлексных кодах последующая комбинация отличается от предыдущей на … символ

-1


54.Чему равно кодовое расстояние между комбинациями 11000111001 и 10000011101

-3



55.Чему равно кодовое расстояние между комбинациями 1111011000 и0111001111

-5


56.Для того чтобы определить кодовое расстояние между двумя комбинациями двоичного кода, достаточно

-просуммировать эти комбинации по модулю 2 и подсчитать количество единиц в полученной комбинации


57.Определить минимальное кодовое расстояниеdо, необходимое для обнаружения в коде тройной ошибки

-r+1=3+1=4


58.Определить минимальное кодовое расстояниеdо, необходимое при построении кода, исправляющего двойную ошибку

-2s+1=5


59.Какое максимальное кодовое расстояние может быть между двумя пятизначными комбинациями?

-5


60.Какое минимальное количество символов должно быть в коде, чтобы обнаружить одиночную ошибку?

-r-1=1-1=0

-r-0=1-0=1

-r+1=1+1=2

-r*(r+3)=3

-(r+1)^(r+1)= 4

\/

/\

61.Какое минимальное количество символов должно быть в коде, чтобы исправить одиночную ошибку?

-два символа: один контрольный и одининформационный

-три символа: два контрольных и одининформационный

-три символа: один контрольных и дваинформационных

-четыре символа: два контрольных и дваинформационных

-пять символа: три контрольных и дваинформационных

\/


62.Какое минимальное количество символов должно быть в коде, чтобы исправить одну ошибку и обнаружить две?

-1

-2

-3

-4

-5

63.Построить код для 32 буквенного алфавита с минимальной длиной кодовых слов, если в текстах буквы встречаются с равными вероятностями,ачиcло качественных признаков m2=2.Например :  А-00000; Б-00001; В-00010…. Я-11111. Чему равна длина кодовых слов?

-0,5

-1

-5/3

-1,25

-5


64.Построен код для 32 буквенного алфавита с минимальной длиной кодовых слов, если в текстах буквы встречаются с равными вероятностями,ачиcло качественных признаков m2=8.Например :  А-00000; Б-00001;  В-00010…. Я-11111. Чему равна длина кодовых слов?

-0,5

-1

-5/3

-1,25

-5


65.Построен код для 32 буквенного алфавита с минимальной длиной кодовых слов, если в текстах буквы встречаются с равными вероятностями,ачиcло качественных признаков m2=16. Например :  А-00000; Б-00001; В-00010…. Я-11111. Чему равна длина кодовых слов?

-0,5

-1

-5/3

-1,25

-5


66.Построен код для 32 буквенного алфавита с минимальной длиной кодовых слов, если в текстах буквы встречаются с равными вероятностями,ачиcло качественных признаков m2=32.Например :  А-00000; Б-00001; В-00010…. Я-11111. Чему равна длина кодовых слов?

-0,5

-1

-5/3

-1,25

-5


67.Зашифровать сообщение "КИБЕРНЕТИКА" ключом "ДИСК":

+ ПТУРХЧЧЮНФЫ


68.Cообщение, полученное путем сжатия адаптивным алгоритмом Хаффмена с упорядоченным деревом имеет вид: 'A'0'F'00'X'0111110101011011110100101. Определить длину сжатого кода в битах:

52


69.Закодировать сообщение BBCBBC, используя адаптивный алгоритм Хаффмена с упорядоченным деревом.

-’B’10’C’1101


 70.Закодировать сообщение BBCBBC, используя адаптивный алгоритм Хаффмена с упорядоченным деревом. Определить длину сжатого кода в битах:

-16

-22

-28

-36

-48


71.Определить среднее количество бит на символ сообщения BBCBBCпри адаптивном алгоритме кодированияХаффмена с упорядоченным деревом

-2 бит/ символ

-3,67 бит/ символ

-4,67 бит/ символ

-6 бит/ символ

-8 бит/ символ


72.Сообщение BBCBBC закодировано, используя адаптивный алгоритм Хаффмена с упорядоченным деревом.  Вычислить длины в битах исходного сообщения в коде ASCII+, если не использовать сжатия

-2 бит/ символ

-3,67 бит/ символ

-4,67 бит/ символ

-6 бит/ символ

-8 бит/ символ


73.Распаковать сообщение 'A'0'F'00'X'0111110101011011110100101, полученное по адаптивному алгоритму Хаффмена с упорядоченным деревомADD

-AFXAFFXFXAXAFFA


74.При чрезмерном увеличении размера словаря и буфера для алгоритмов LZ77 и LZSS, то это приведет:

-к снижению эффективности кодирования


75.Построить CRC-4 код для сообщения 10000000, используя полином-генератор x4+1:

-1000


76.Вычисление значения кода CRC происходит посредством:add

деления фиксированного многочлена на многочлен, соответствующего исходному сообщению. Остаток от такого деления и есть код CRC

\/

/\

77.Для кодирующей матрицы   построить (3,4)-код:

+000 ->0000, 001->0010, 010->0101, 011->0111, 100->1001,  101->1011,  110->1100, 111 ->1110


78.Имеется (8,9)-код с проверкой четности. Вычислить вероятность ошибочной передачи без использования кода, если вероятность ошибки при передаче каждого бита равна 1%:

-приблизительно 7,7


79.Коды Рида-Соломона являются:

-недвоичными кодами


80.Вычисление значения циклического избыточного кода CRC происходит посредством:

-деления многочлена, соответствующего исходному сообщению, на фиксированный многочлен. Остаток от такого деления и есть код CRC

\/

/\

81.Общая схема передачи информации имеет вид:

-исходная информация - шифровка - сжатие - шумозащитное кодирование - канал связи(проявляется действие шумов) - декодирование шумозащитных кодов - распаковка - дешифровка - полученная информация

\/

/\

82.Чему равна энтропия H источника, если вероятности генерации символов следующие: p('0') = 0.3   p('1') = 0.7

+0,88

\/

/\

83.Чему равна энтропия H источника, если вероятности генерации символов следующие: p('0') = 0.4   p('1') = 0.6

-0,97

\/

/\

84.Определить адрес ошибки в следующем инверсном коде 110011011100 

ошибка в пятом разряде

\/

/\

85.Определить адрес ошибки в следующем инверсном коде 101001010100

ошибка в третьем разряде

\/

/\

86.Лучшей степени сжатия в соответствии с каноническим алгоритмом Хаффмана соответствует величина:

8

\/

/\

87.Оценка степени сжатия арифметическим алгоритмом определяется путем нахождения такого минимального числа n , что длина рабочего интервала при сжатии последнего символа цепочки была бы меньше:

-1/(2^n)

Report Page