OTK
Sas1.Конечная последовательность цифровой информации - это:
блок
\/
/\
2. Конечная последовательность битов носит название:
код
\/
/\
3.Бинарный источник без памяти носит название:
источник Бернулли
\/
/\
4.Лучшей степени сжатия в соответствии с каноническим алгоритмом Хаффмана соответствует величина:
8
\/
/\
5.Оценка степени сжатия арифметическим алгоритмом определяется путем нахождения такого минимального числа n , что длина рабочего интервала при сжатии последнего символа цепочки была бы меньше:
1/2^n
\/
/\
6.Выберите верное утверждение:
арифметический алгоритм не увеличивает размера исходных данных в худшем случае
7.Процедура, выполняющая задачу увеличения размера интервала, называется:
нормализацией
\/
/\
7.Соответствие между буквами алфавита и некоторыми словами алфавита называется:
схема
\/
/\
8.В алфавите три буквы. Составлены все возможные сообщения, комбинируя по три буквы в сообщении. Каково максимальное количество этих сообщений?
-27
Конец формы
\/
/\
9.В алфавите пять букв. Составлены все возможные сообщения, комбинируя по три буквы в сообщении. Каково максимальное количество этих сообщений?
-125
\/
/\
10.В алфавите три буквы. Составлены все возможные сообщения, комбинируя по три буквы в сообщении. Какое количество информации приходится на одно такое сообщение?
-2,56
\/
/\
11.В алфавите 4 буквы. Составлены все возможные сообщения, комбинируя по 4 буквы в сообщении. Какое количество информации приходится на одно такое сообщение?
+4,75
\/
/\
12.Алфавит соcтоит из4 буквA, B, C, D. Вероятности появления букв равны соответственно Ра= Рb=0,25; Рc= 0,34;Рd=0,16. Определить количество информации на символ сообщения составленного из такого алфавита(количество информации на символ сообщения есть энтропия данного алфавита).
-1,95 бит/символ
\/
/\
13.Чему равно количество информации при получении 8 сообщений равномерного четырехзначного троичногокода ?
-50,72
\/
/\
14.Чему равно число сообщений равномерного четырехзначного троичногокода ?
- 81
\/
/\
15.Чему равно количество информации при получении 8 сообщений равномерного четырехзначного двоичногокода ?
-32
\/
/\
16.Чему равно число сообщений равномерного четырехзначного двоичногокода ?
-16
\/
/\
17.Сообщения составлены из пяти качественных признаков(m1=5).Длительность элементарной посылки t=20 мсек. Чему равна скорость передачи сигналов?
-116 бит/сек формула: С = (1/t)*log(осн2)m
\/
/\
18.Сообщения составлены из пяти качественных признаков(m1=5).Длительность элементарной посылки t=20 мсек. Чему равна скорость передачи информации?
+116 бит/сек
\/
/\
19.Cообщения передаются двоичным кодом. Вероятности появления 0 и 1 равны соответственно Р0 =0,8 и Р1=0,2. Помехи в канале отсутствуют, то есть условные вероятности переходов 0 в1 и 1 в 0 равны 0.Чему равна энтропия сообщения?
-0,72 бит/символ
\/
/\
20.Cообщения передаются двоичным кодом. Символы появляются с равными вероятностями Р0 =Р1=0,5. Однако в результате действия помех условные вероятности переходов равны P(1/1)=0,8; P(1/0)=0,2; P(0/0)=0,8; P(0/1)=0,2. Чему равна энтропия сообщения?
-0,72 бит/символ
\/
/\
21.Чему равно количество информации в сообщении, переданном в двоичном коде пятизначной комбинацией, если символы кодируемого алфавита равновероятны?
-5
\/
/\
22.Чему равно количество информации в сообщении, переданном в двоичном коде двумя пятизначными комбинациями, если символы кодируемого алфавита равновероятны?
-10
\/
/\
23.Общее число сообщений которое может быть составлено из алфавита m путем комбинирования по n в сообщении равно
-N= m^n
\/
/\
24.Чему равно количество информации при получении сообщения о выходе из строя одного из восьми станков, полученных в одно и то же время с одного и того же завода?
-3 бит
\/
/\
25.На ВЦ постоянная информация хранится в 256 ячейках. Сколькими способами можно передать сведения о том, из какой ячейки можно извлечь данные постоянной информации?
-8
\/
/\
26.B ВЦ постоянная информация хранится в 32768 ячейках.Сколькими способами можно передать сведения о том, из какой ячейки можно извлечь данные постоянной информации?
-15
\/
/\
27.B ВЦ постоянная информация хранится в 32768 ячейках.Чему равно количество информации вспособах передачи сведений о том, из какой ячейки можно извлечь данные постоянной информации?
-8 бит
\/
/\
28.B ВЦ постоянная информация хранится в 32768 ячейках.Какое геометрическое построение хранилища позволит передавать эту информацию минимальным количеством качественных признаков и чему равно количество передаваемых координат при этой передаче?
-квадрат, 2
\/
/\
29.…..-форма обеспечивающее наименьшее число качественных признаков m для передачи сообщений
-квадрат, 2
\/
/\
30.Сколькими способами можно составить сообщения о содержании количественной части показателей, если таблица содержит 256 ячеек?
+15 бит
\/
/\
31.Чему равна вероятность появления комбинации 10110 при передаче пятизначных двоичных кодов, если коды встречаются в сообщении с равной вероятностью?
+0,3125
\/
/\
32.Чему равно среднее количество информации приходящейся на одну комбинацию,например 10110, при передаче пятизначных двоичных кодов, если коды встречаются в сообщении с равной вероятностью?
-5 бит
\/
/\
33.Сообщения состоят из равновероятного алфавита, содержащего m=128 качественных признаков. Чему равно количество символов в принятом сообщении, если известно, что оно содержит 42 бита информации?
-6
\/
/\
34.Сообщения состоят из равновероятного алфавита, содержащего m=128 качественных признаков. Чему равно энтропия принятого сообщения, если известно, что оно содержит 42 бита информации?
-7 бит/символ
\/
/\
35.Сообщения состоят из равновероятного алфавита, содержащего m=256 качественных признаков. Чему равно количество символов в принятом сообщении, если известно, что оно содержит 28 бит информации?
-4
\/
/\
36.Сообщения состоят из равновероятного алфавита, содержащего m=128 качественных признаков. Чему равно энтропия принятого сообщения, если известно, что оно содержит 28 бит информации?
-8 бит/символ
\/
/\
37.Определить максимум энтропии системы,состоящей из 6 элементов,каждый из которых может быть в одном из 4 состояний равновероятно
-12
\/
/\
38.Система может находиться в одном из 4 состояний. Состояния системы заданы через вероятности следующим образом а1=0,25;а2=0,25;а3=0,3;а4=0,2. Определить энтропию системы
-1,985
Энтропия находится по формуле 𝐻(𝑋)= − ∑𝑝𝑖∙log2𝑝𝑖𝑛𝑖=1, где 𝑝𝑖− вероятности.
\/
/\
39.Сообщения составляются из алфавита a,b,c,d. Вероятность появления букв алфавита равна Ра=0,2;Ра=0,3;Ра=0,4;Ра=0,1. Найти максимальную энтропию для этого алфавита
+2
Максимальная энтропия алфавита из 𝑛 букв равна 𝐻𝑚𝑎𝑥= log2𝑛\/
/\
40.Сообщения составляются из алфавита a,b,c,d. Вероятность появления букв алфавита равна Ра=0,2;Ра=0,3;Ра=0,4;Ра=0,1. Найти среднюю энтропию на символдля этого алфавита
-1,85
41.Сообщения составляются из алфавита a,b,c,d. Вероятность появления букв алфавита равна Ра=0,2;Ра=0,3;Ра=0,4;Ра=0,1. Найти избыточность сообщений,составленных из данного алфавита
-0,077 Формула: D=1− 𝐻(𝑋)/𝐻𝑚𝑎𝑥
42.Избыточность D сообщений, составленных из данного алфавита, вычисляется по следующей формуле…., где H-энтропия данного алфавита
-D=1-H/Hmax
43.Коэффициент сжатия (относительная энтропия)сообщений, составленных из данного алфавита, вычисляется по следующей формуле…., где H-энтропия данного алфавита
-H/Hmax
44.Какое минимальное число вопросов необходимо задать собеседнику, чтобы угадать любое число из 240, если собеседник отвечает только «Да» и «Нет»
+8 𝑁= log2240/ log22=7.9
45.Какое минимальное число вопросов необходимо задать собеседнику, чтобы угадать любое число из 120, если собеседник отвечает только «Да» и «Нет»
-7 𝑁= log2120/log22=6.9069
46.Определить избыточность сообщений при побуквенном кодировании, если кодируются цифровые сообщения и передаются в двоичном коде
-0,17
47.Определить избыточность сообщений при блочном кодировании (кодирование блоками по 4 буквы, т.е. k=4),если кодируются цифровые сообщения и передаются в двоичном коде
+0,17
48.Определитьпропускную способность бинарного симметричного канала, если Р=0,02; t1=t1=0,1 cек),если кодируются цифровые сообщения и передаются в двоичном коде
-2,8 бит/сек
-2,8 бит/символ
-7,14бит/сек
-7,2 бит/сек
-7,2 бит/символ
49.Определитьпропускную способность канала связи, в котором на выходе источника сообщений символы создаются со скоростью 10 знаков в секунду, априорные вероятности появления символов первичного алфавита равны между собой, а 5 % сообщений под действием помех с равной вероятностью могут перейти в любой другой символ данного алфавита
+7,14бит/сек
50.Для двоичных кодов число кодовых комбинаций Nв кодах с постоянным весом длиной в n символов равно, где k-число единиц в кодовом слове
+N=n!/[k!(n-k)!]
51.Минимальное количество символов, в которых любые две комбинации кода отличаются друг от друга, называется
-кодовым расстоянием
52.Минимальное количество символов, в которых все комбинации кода отличаются друг от друга, называется
+минимальным кодовым расстоянием
53.В рефлексных кодах последующая комбинация отличается от предыдущей на … символ
-1
54.Чему равно кодовое расстояние между комбинациями 11000111001 и 10000011101
-3
55.Чему равно кодовое расстояние между комбинациями 1111011000 и0111001111
-5
56.Для того чтобы определить кодовое расстояние между двумя комбинациями двоичного кода, достаточно
-просуммировать эти комбинации по модулю 2 и подсчитать количество единиц в полученной комбинации
57.Определить минимальное кодовое расстояние dо, необходимое для обнаружения в коде тройной ошибки
-r+1=3+1=4
58.Определить минимальное кодовое расстояние dо, необходимое при построении кода, исправляющего двойную ошибку
-2s+1=5
59.Какое максимальное кодовое расстояние может быть между двумя пятизначными комбинациями?
-5
60.Какое минимальное количество символов должно быть в коде, чтобы обнаружить одиночную ошибку?
-r+1=1+1=2
\/
/\
61.Какое минимальное количество символов должно быть в коде, чтобы исправить одиночную ошибку?
-три символа: один контрольных и дваинформационных
\/
62.Какое минимальное количество символов должно быть в коде, чтобы исправить одну ошибку и обнаружить две?
-3
63.Построить код для 32 буквенного алфавита с минимальной длиной кодовых слов, если в текстах буквы встречаются с равными вероятностями,а чиcло качественных признаков m2=2.Например : А-00000; Б-00001; В-00010…. Я-11111. Чему равна длина кодовых слов?
-5
64.Построен код для 32 буквенного алфавита с минимальной длиной кодовых слов, если в текстах буквы встречаются с равными вероятностями,а чиcло качественных признаков m2=8.Например : А-00000; Б-00001; В-00010…. Я-11111. Чему равна длина кодовых слов?
-5/3
65.Построен код для 32 буквенного алфавита с минимальной длиной кодовых слов, если в текстах буквы встречаются с равными вероятностями,а чиcло качественных признаков m2=16. Например : А-00000; Б-00001; В-00010…. Я-11111. Чему равна длина кодовых слов?
-1,25
66.Построен код для 32 буквенного алфавита с минимальной длиной кодовых слов, если в текстах буквы встречаются с равными вероятностями,а чиcло качественных признаков m2=32.Например : А-00000; Б-00001; В-00010…. Я-11111. Чему равна длина кодовых слов?
-1
67.Зашифровать сообщение "КИБЕРНЕТИКА" ключом "ДИСК":
+ ПТУРХЧЧЮНФЫ
68.Cообщение, полученное путем сжатия адаптивным алгоритмом Хаффмена с упорядоченным деревом имеет вид: 'A'0'F'00'X'0111110101011011110100101. Определить длину сжатого кода в битах:
52
69.Закодировать сообщение BBCBBC, используя адаптивный алгоритм Хаффмена с упорядоченным деревом.
-’B’10’C’1101
70.Закодировать сообщение BBCBBC, используя адаптивный алгоритм Хаффмена с упорядоченным деревом. Определить длину сжатого кода в битах:
-22
71.Определить среднее количество бит на символ сообщения BBCBBCпри адаптивном алгоритме кодированияХаффмена с упорядоченным деревом
-3,67 бит/ символ
72.Сообщение BBCBBC закодировано, используя адаптивный алгоритм Хаффмена с упорядоченным деревом. Вычислить длины в битах исходного сообщения в коде ASCII+, если не использовать сжатия
-8 бит/ символ
73.Распаковать сообщение 'A'0'F'00'X'0111110101011011110100101, полученное по адаптивному алгоритму Хаффмена с упорядоченным деревомADD
-AFXAFFXFXAXAFFA
74.При чрезмерном увеличении размера словаря и буфера для алгоритмов LZ77 и LZSS, то это приведет:
-к снижению эффективности кодирования
75.Построить CRC-4 код для сообщения 10000000, используя полином-генератор x4+1:
-1000
76.Вычисление значения кода CRC происходит посредством:add
деления фиксированного многочлена на многочлен, соответствующего исходному сообщению. Остаток от такого деления и есть код CRC
\/
/\
77.Для кодирующей матрицы построить (3,4)-код:
+000 ->0000, 001->0010, 010->0101, 011->0111, 100->1001, 101->1011, 110->1100, 111 ->1110
78.Имеется (8,9)-код с проверкой четности. Вычислить вероятность ошибочной передачи без использования кода, если вероятность ошибки при передаче каждого бита равна 1%:
-приблизительно 7,7
79.Коды Рида-Соломона являются:
-недвоичными кодами
80.Вычисление значения циклического избыточного кода CRC происходит посредством:
-деления многочлена, соответствующего исходному сообщению, на фиксированный многочлен. Остаток от такого деления и есть код CRC
\/
/\
81.Общая схема передачи информации имеет вид:
-исходная информация - шифровка - сжатие - шумозащитное кодирование - канал связи(проявляется действие шумов) - декодирование шумозащитных кодов - распаковка - дешифровка - полученная информация
\/
/\
82.Чему равна энтропия H источника, если вероятности генерации символов следующие: p('0') = 0.3 p('1') = 0.7
+0,88
\/
/\
83.Чему равна энтропия H источника, если вероятности генерации символов следующие: p('0') = 0.4 p('1') = 0.6
-0,97
\/
/\
84.Определить адрес ошибки в следующем инверсном коде 110011011100
ошибка в пятом разряде
\/
/\
85.Определить адрес ошибки в следующем инверсном коде 101001010100
ошибка во втором разряде
\/
/\
86.Лучшей степени сжатия в соответствии с каноническим алгоритмом Хаффмана соответствует величина:
8
\/
/\
87.Оценка степени сжатия арифметическим алгоритмом определяется путем нахождения такого минимального числа n , что длина рабочего интервала при сжатии последнего символа цепочки была бы меньше:
-1/(2^n)