«БЕЛОРУССКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ ИНФОРМАТИКИ И РАДИОЭЛЕКТРОНИКИ»
.
Контрольная работа по дисциплине «Основы теории информации»
Вариант No18
студент 2 курса 2630401 группы
1. Перевести двоичное число А в десятичную систему счисления. A = 100111.00101 100111.00101 = 2^5+2^2+2^1+2^0+2^-3+2^-5 = 32+4+2+1+0.125+0.03125 = 39.15625
16. Измерьте информационный объем сообщения в битах,байтах. Исходные данные для решения задачи: «Жизнь - это 10 процентов того, что случается с вами, и 90 процентов того, как вы реагируете на это. | Чарльз Суиндолл» I = K*i K = 119 символов i = 8 бит = 1 байт
I = 119*8 = 952 бит = 119 байт
17. По шестнадцатеричной форме внутреннего представления целого числа в 2-х байтовой ячейке восстановить само число. Переводим в двоичную: F841 = 1111 1000 1000 0001 Инвертируем: 0000 0111 0111 1110 Дополнительный код (прибавляем 1): 0000 0111 0111 1111 Переводим в десятичную форму: 1919
18. Получить шестнадцатеричную форму внутреннего представления целого числа 2-х байтовой ячейке. Переводим в двоичную: 2570 = 1010 0000 1010 Дополняем нулями до 16 бит (2 байта): 0000 1010 0000 0101 Инвертируем: 1111 0101 1111 0101 Дополнительный код: 1111 0101 1111 0110 Переводим в шестнадцатеричную форму: F5F6
19. Получить шестнадцатеричную форму внутреннего представления числа в формате с плавающей точкой в 4-х байтовой ячейке. 46ADF000 = 0100 0110 1010 1101 1111 0000 0000 0000 Порядок: 1000 1101 = 141; 141 -127 = 14 Мантисса: 1010 1101 1111 = 22264 = 56F8
20.Сколько символов содержит сообщение, записанное с помощью A-символьного алфавита, если объем этого сообщения составил B Мб. A = 32 B = 2.5 2.5 Мб = 2 621 440 байт = 20 971 520 бит Информационный вес одного символа алфавита: log(32) = 5 бит 20 971 520/5 = 4 194 304
21. Источник формирует следующие символы X = {x1, x2, ... , x6} = {A,K, N,D, E, !}. Вероятности символов задаются множеством: {p1 = 0,05, p2 = 0,15, p3 = 0,05, p4 = 0,4, p5 = 0,2, p6 = 0,15}. Вычислить энтропию дискретного источника. H = -p*log(p) H = 0.05*4.32+0.15*2.74+0.05*4.32+0.4*1.32+0.2*2.32+0.15*2.74 = 2.246
22. Вычислить энтропию двоичного источника с символами алфавита X = {a, b} c вероятностью p1 = 7/8, p2 =1/8 H = 0.875*0.19+0,125*3 = 0,541
23. Является ли код, показанный на рисунке, однозначно декодируемым?
{c1→(0),c2→(10),c3→(110),c4→(1110),c5→ 11110} Код является однозначно декодируемым, ни одна кодовая последовательность не является началом другой (соблюдается прямое условие декодирования).
24. Является ли код X = {x1, x2, ... , x8} = x1 = (01), x2 = (00), x3 = (111), x4 = (110), x5 = (100), x6 = (1011), x7 = (10101), x8 = (10100) однозначно декодируемым? Код является однозначно декодируемым, ни одна кодовая последовательность не является началом другой (соблюдается прямое условие декодирования).
25. Используются следующие кодовые слова длиной n = 3 равномерного кода A → (000); K → (010); N → (001); D → (111). E → (100). Удовлетворяет ли код неравенству Крафта? Так как n1 = n2 = ⋯ = n5 = n = 3, m = 5. m2^(−n) = 5 ∙ 2^(−3) = 0.625 ≤ 1 Данный код однозначно декодируемый, неравенство выполняется.
26. Пусть используется префиксный код со словами: A → (00); K → (10); N → (010); D → (110); E → (111). Вероятности символов источника характеризуются множеством {P(A), ... , P(E)} → {p1 = 1/2, p2 = 1/4, p3 = 1/8, p4 = 1/16, p5 = 1/16}. Вычислить среднюю длину кодового слова. L = p*l L = 0.5*2+0.25*2+0.125*3+0.0625*3+0.625*3 = 2.25
29. Определить кодовое расстояние кода: 100101, 010111, 001011, 110010, 101110, 011100, 111001. Найдем максимальное количество отличающихся бит в парах. Максимальное количество = 3 Кодовое расстояние 3
30. Найти расстояния Хэмминга векторов: dist(1, 0, 0, 1, 1, 1, 0; 1, 1, 1, 0, 1, 0, 0) = 4 dist(1, 2, 2, 1, 1, 1; 2, 1, 1, 0, 1, 0) = 5 Величина d(a, b), равна количеству различающихся цифр в соответствующих разрядах цепочек a и b, чем больше это расстояние, тем меньше похожи две цепочки.