1. Энтропия. Формула Шеннона Стремление ученых дать количественную меру оценке неопределенности привели к возможности исполнения статистических подходов к построению расчетных методик, позволяющих вести количественные оценки. Рассмотрим статистическое рассуждение, позволившее Клоду Шеннону заложить теоретические основы новой науки о информации. Клод Шеннон предложил считать неопределенность в виде функции f, которая зависит от числа исходов k, т.е. f(k). Если число исходов k будет равно 1, значит функция f(k)=0. Функция f(k) должна быть возрастающей функцией, если k возрастает. Мы имеем дело
со сложным опытом ( f( Формула Шеннона Рассмотрим статический опыт, имеющий k равновероятных исходов. Таблица вероятностей такого опыта имеет следующий вид.
Общая неопределенность этого
опыта может быть оценена величиной log k .Каждый
отдельный исход, имеющий вероятность 1/k, вносит
неопределенность, равную В том случае, если исходы имеют различную вероятность, (см. таблицу вероятностей),
то исходы А1, А2, А3 вносят соответственно неопределенность равную: Обобщая рассмотрение вышеизложенного можно для опыта α с таблицей вероятностей
сделать оценку в виде В
результате для опыта α мы получаем число, являющееся количественной
мерой неопределенности опыта. Эта величина называется энтропией, а формула
Шеннона для расчета энтропии имеет вид:
|
2. Свойства энтропии
1.Энтропия не может принимать отрицательных значений:
Это несложно доказать, т.к. 0£р(А)£1, а в этом интервале функция log p(A) всегда отрицательна.
2.Энтропия H(α) равна 0 только в том случае, когда одна из вероятностей р(А1), р(А2),… р(Аk) равна единице, а все остальное равно 0. Это становится очевидным, так как р(А1) + р(А2) + … + р(Аk) = 1, и согласно физическому смыслу, нулевое значение энтропии возможно только в том случае, когда опыт не содержит никакой неопределенности.
3. Среди всех опытов, имеющих k исходов, наиболее неопределенным является опыт с таблицей вероятности (см.таблицу),
который принято обозначать за опыт α0. В этом случае предсказать исход опыта труднее всего. Этому отвечает то обстоятельство, что опыт α0 имеет наибольшую энтропию. Данное свойство довольно часто используется, а его доказательство очень громоздкое, поэтому ограничивается утверждением: если α – произвольный опыт, имеющий k исхода (А1, А2, А3,,…, Аk,), то
|
3. Энтропия сложных событий
Если требуется оценить неопределенность сложных событий, например, состоящих из нескольких опытов, то необходимо иметь правила сложения энтропии. Если мы меем
дело с 2 опытами
То, в случае независимости
исходов опытов, мы можем записать, что при одновременном выполнении условий
опытов А1 В1, А1 В2, …, А1 Вn А2 В1, А2 В2, …, А2 Вn …… Аk В1, Аk В2, …, Аk Вn Следовательно,
в этом случае Н( Если исходы опытов зависят друг
от друга, то энтропия такого сложного опыта записывается по другой формуле Н( Н Н
|
4. Свойства условной энтропии
1. Очень существенно, что условная энтропия Нα(β) заключается между нулем и энтропией Н(β) (безусловной):
Это свойство хорошо согласуется со смыслом энтропии как меры неопределенности. Очевидно, что предварительное выполнение опыта α может лишь уменьшить степень неопределенности β, а в случае независимости опытов α и β степень неопределенности не изменится. Однако опыт α не может увеличить неопределенность опыта β. 2. Второе свойство Если опыт Суммарная энтропия такого опыта Н( Если мы имеем также вероятности исходов опыта 3. Третье свойство: учитывая, что опыты
|
5.Информация в сложном опыте
Основой современного представления о информации является энтропия. Если исследуемый объект, не содержит информации, то очевидно, что его энтропия = 0. Предположим,
что опыту Если опыты Исходя из этих рассуждений, можем записать, что информация I( Данное определение является не единственным определением информации, но его удобство заключается в том, что при исследовании мы получаем информацию, используя вспомогательные понятия или опыт.
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
6. Свойства информации
1.Информация относительно опыта b, содержащаяся в опыте α, всегда равна информации относительно α, содержащейся в b.
Это непосредственно следует из соотношений:
Н(b) - Нα(b)=Н(α) - Нb(α). Следовательно,
I(α,b) = Н(b) – Нα (b) = Н(α) – Нb(α) = I(b,α). Таким образом, информацию I(α,b), которую содержит опыт α относительно b, можно назвать взаимной информацией двух опытов α и b относительно друг друга. 2.Информация I(α,b), содержащая в опыте α относительно опыта b, не превосходит энтропию Н(α) опыта α. Это свойство не требует доказательства, так как I(α, b) = Н (α) – Нb (α).
3.Информация I(α,b) точно равна энтропии Н(α) только в том случае, когда условная энтропия Нb(α) точно равна нулю, т.е. результат опыта α, полностью определяет исход вспомогательного опыта b. 4. Если опыты α и b независимы, то информация I(α,b)=0
К более общим свойствам информации можно отнести следующие ее свойства: 1. Информация не материальна, но она проявляется в форме материальных носителей – дискетных знаков или символов. 2. Информация может быть заключена как в знаках, так и в их взаимном расположении. 3. Знаки и символы несут информацию только для получателя способного их распознать. Распознание состоит в соответствии знаков и символов с объектами и их отношениями в реальном мире. Поэтому информацию можно определить как результат моделирования реального мира. Сигналами принято называть динамические процессы изменения во времени величины любой природы: тока, напряжения, излучения, звука и т.д. Знаками будем называть различимые получателем реальные объекты: буквы, цифры, символы.
|
7. Избыточность в языке При определении H1=H(a1) – энтропии опыта по оценке неопределенности, содержащейся в одной букве алфавита, мы считали, что буква независима. Это означает, что при составлении сообщения, в котором каждая буква содержит 4,35 бит информации, можно прибегнуть к помощи урны, в которой лежат тщательно перемешанные 1000 бумажек, из которых 175 не содержат ничего («пробел»), на 90 написана буква «О», на 72 – «Е» и т.д. Извлекая из такой урны бумажки, мы получим ничего не значащую фразу. Эта фраза будет похожа на русскую речь, но будет очень далека от разумного текста. Несходство полученной фразы с осмысленным сообщением объясняется тем, что на самом деле буквы в тексте не независимы друг от друга. Так, например, если мы знаем, что очередной буквой явилась гласная, то значительно возрастает вероятность появления на следующем месте согласной буквы и т.д. Наличие в русском тексте определенных закономерностей приводит к дальнейшему уменьшению степени неопределенности одной буквы сообщения. Количественно это уменьшение можно оценить использованием условной энтропии H2 = Ha1(a2), которая является энтропией опыта a2, состоящего в определении одной буквы текста при условии, что нам известен исход опыта a1, состоящего в определении предшествующей буквы. Таким образом, особенности языка вносят определенную зависимость опытов, отражающихся в энтропии. Известно, что с возрастанием числа букв в словах сообщения энтропия одной буквы уменьшается. К.Шенноном введено понятие избыточности языка:
где вероятности сочетаний букв в словах сообщения, H0 – средняя неопределенность букв (в русском алфавите H0 = 4,35 бит). Применительно к русскому языку избыточность заметно превышает 50 %. Это обстоятельство объясняется тем, что выбор следующей буквы осмысленного текста более, чем на 50 % определяется самой структурой языка и, следовательно, случаен лишь в сравнительно небольшой степени. Именно избыточность языка позволяет сокращать телеграфный текст за счет отбрасывания некоторых легко отгадываемых слов, предлогов, союзов. Она же позволяет легко восстанавливать истинный текст даже при наличии значительного числа ошибок в телеграмме или описок в книге. Н =
|
8. Код Шеннона-Фано
Идея использования неравенства H < log n для построения экономичного кода очень эффективно используется в кодах, которые впервые предложили в 1948 – 1949 гг. Р. Фано и К. Шеннон.Предположим, что алфавит содержит n букв. Расположим буквы алфавита в один столбик в порядке убывания вероятностей. Затем разобьем их на две группы – верхнюю и нижнюю. Для букв первой группы в качестве первой цифры кодового обозначения используем 1, а для букв второй группы – цифру 0. Далее, каждую из двух полученных групп снова разделим на две части с возможно более близкой суммарной вероятностью. В качестве второй цифры кодового обозначения используются цифры 1 и 0 в зависимости от того, принадлежит ли буква к первой или второй из этих подгрупп. Затем каждая из содержащих более одной буквы групп снова делится на две части и т.д. Процесс повторяется до тех пор, пока каждая из разделенных групп будет содержать по одной букве. Рассмотрим несложный принцип кодирования по методу Шеннона–Фано. Допустим, что алфавит содержит всего шесть букв, вероятности которых в порядке убывания равны 0,4; 0,2; 0,2; 0,1; 0,05; 0,05 (см. таблицу).
Основной принцип, положенный в основу кодирования по методу Шеннона-Фано заключается в том, что при выборе каждой цифры кодового обозначения стараются, чтобы содержащаяся в ней информация была наибольшей. Разумеется, количество цифр в различных обозначениях будет неодинаковым, то есть код Шеннона-Фано является неравномерным. Буквы, имеющие большую вероятность, получают более короткие обозначения, чем соответствующие маловероятные буквы. В результате, хотя некоторые кодовые обозначения здесь и могут иметь весьма значительную длину, среднее значение длины такого обозначения значительно уменьшается.
|
9. Анализ экономичности кода В нашем примере шестибуквенного алфавита равномерный код состоит из трехзначных кодовых обозначений ( так как 22 < 6 < 23 ). На каждую букву в лучшем случае приходится три сигнала. При использовании кода Шеннона-Фано среднее значение числа элементарных сигналов, приходящихся на одну букву сообщения, будет равно (данные берем из таблицы кодирования по методу Шеннона-Фано 8вопрос):
1´0,4 + 2´0,2 + 3´0,2 + 4´0,1 + 5´ (0,05 + 0,05) = 2,3 .
Это значительно меньше, чем 3, и не очень далеко от значения энтропии Н:Н = –0,4´ log 0,4 – 2´0,2´ log 0,2 – 0,1´log 0,1 – 2´0,05´log 0,05 = 2,22. Если провести аналогичный анализ для алфавита, состоящего из 18 букв, то равномерный код будет иметь пятизначное кодовое обозначение, а код Шеннона-Фано будет иметь буквы даже с семью двоичными сигналами, но зато среднее число элементарных сигналов, приходящихся на одну букву, будет равно 3,29 и это немного отличается от величины энтропии Н = 3,25. Особенно выгодно кодировать по методу Шеннона-Фано не отдельные буквы, а сразу целые блоки из нескольких букв. Даже в неблагоприятных случаях кодирование целыми блоками позволяет приближаться к величине энтропии. Рассмотрим пример, когда имеются лишь две буквы А и Б с вероятностями р(А) = 0,7 и р(Б) = 0,3.
Тогда Н = –0,7 log0,7 – 0,3 log0,3 = 0,881 .
Применение метода Шеннона-Фано к исходному двухбуквенному алфавиту здесь оказывается бесцельным. Он приводит нас к простейшему равномерному коду, требующему для передачи одного двоичного знака.
Здесь мы имеем превышение Н на 12 %. Если применить код Шеннона-Фано к кодированию всевозможных буквенных сочетаний, то
среднее значение длины кодового обозначения в этом случае 1´0,49 + 2´0,21 + 3´0,21 + 3´0,09 = 1,81 . На одну букву приходится 1,81 / 2 = 0,905, что лишь на 3% больше Н = 0,881 бит. При использовании трехбуквенных комбинаций средняя длина кодового обозначения 2,686, то есть на одну букву приходится 0,895 двоичных знаков, что всего на 1,5% больше Н. Рассмотренные примеры анализа степени близости среднего числа двоичных знаков, приходящихся на одну букву сообщения, к значению Н может быть увеличено при помощи перехода к кодированию еще более длинных блоков. Этому обстоятельству посвящена основная теорема кодирования. Теорема: При кодировании сообщения, разбитого на N–буквенные блоки, можно, выбрав N достаточно большим, добиться того, чтобы среднее число двоичных элементарных сигналов, приходящихся на одну букву исходного сообщения, было сколь угодно близким к Н. |
10. Анализ двоичной симметричной линии Пусть по линии связи передается два элементарных сигнала (А1 – импульс, А2 – пауза). Вероятность безошибочного приема любого из передаваемых сигналов примем за 1–р, а вероятность ошибки будет равна р. В этом случае рА1(А1) = рА2(А2) = 1–р, а рА1(А2) = рА2(А1) = р. Графически схему двоичной
симметричной линии принято изображать согласно схеме (рис.13). На рис.13, а
отражена конфигурация передаваемого сигнала, а на рис.13,б показано, в какие
принимаемые сигналы могут перейти передаваемые сигналы А1 и А2
и с какой вероятностью Рис. 13. Схема двоичной симметричной линии: а - характер сигналов А1 и А2; б - схема преобразования сигналов. Для вычисления величины с воспользуемся равенством
I(a, b) = H (b) – Ha (b) .
Из схемы (рис.13,б) видно, что если передается сигнал А1, то на приемном конце с вероятностью 1–р получим тот же сигнал А1, а с вероятностью р – сигнал А2. Аналогично с передачей сигнала А2. Потому НА1(b) = НА2(b) = – (1–p) log (1–p) – p log p;
Ha (b) = p(A1) HA1(b) + p(A2) HA2(b) = – (1–p) log (1–p) – p log p,
так как р(А1) + р(А2) = 1. Отсюда легко сделать вывод о том, что в рассматриваемом случае Ha (b) не зависит от вероятностей р(А1) и р(А2), и для вычисления с = max I(a, b) = max[H (b) – Ha (b)] надо определить только максимальное значение H (b). Величина H (b) – энтропии опыта b, имеющего только два исхода (рис.13, а) и поэтому она не превосходит одного бита. Значение H(b) = 1 достигается при р(А1) = р(А2) = 0,5, так как в этом случае оба исхода b будут равновероятными. В рассматриваемом случае р0(А1) = р0(А2) = 0,5, с = 1 + (1–p) log (1–p) + p log p. Следовательно, искомая пропускная способность двоичной симметричной линии будет равна С = L[1 + (1–p) log (1–p) + p log p]. Последняя формула показывает, как пропускная способность двоичной симметричной линии зависит от вероятности ошибки р.
Наибольшее значение C = L функция достигает при р = 0 (помехи отсутствуют) и р = 1 (А1 ® А2, А2 ® А1) помеха не мешает понять какой сигнал был передан. При р = 0,5 пропускная способность линии равна нулю. Независимо от того, какой сигнал был передан, мы получим на приемном конце с вероятностью 0,5 сигнал А1 и с вероятностью 0,5 сигнал А2. Принятый сигнал не будет содержать никакой информации. |
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
11. Марковские процессы. Разновидностью случайных процессов является Марковский процесс. Пространство состояния дискретного Марковского процесса представляет собой конечное или счетное множество, которое может быть отождествлено с помощью не отрицательных чисел. Дискретный Марковский процесс с дискретным временем называется цепью Маркова. Характеризуется тем, что переход от одного состояния в другое возможно лишь в дискретные моменты времени t0, t1, t2, … При этом абсолютное значение времени роли не играет. Поэтому обычно временной параметр Т отождествляется с множеством индексов {1, 2, 3, …}. И тогда цепь Маркова имеет вид x0, x1, x2, …При определенной зависимости случайных величин xi случайная величина принимает значение из множества L : L= {1,2,3,…} i=0,1,2,.. Частным случаем цепи Маркова может служить последовательность x0, x1, x2, …полученная путем независимых испытаний с исходами 1, 2, 3, … Каждому исходу j сопоставлена вероятность Pj его появления в независимом опыте. В этом случае вероятность появления при n независимом испытании конкретной последовательности исходов j0, j1, j2,… равна произведению вероятностей этих исходов P{(x0=j0), (x1=j1), …, (xn=jn)}=Pj0* Pj1* Pj2*…* Pjn Цепь Маркова является простейшим обобщением рассматриваемой схемы независимых испытаний, которая заключается в допущении зависимости исхода любого испытания от исхода предыдущего испытания. Отсюда следует, что для описания последовательности x0, x1, x2, … надо задать распределение вероятности {Pj} первого испытания x0 и всем парам вида (j,k) сопоставлять условные вероятности Pjk. Вероятность появления конкретной последовательности j0, j1, j2, …, jn с учетом указанного допущения равна произведению вероятностей P{(x0=j0), (x1=j1), …, (xn=jn)}=Pj0* Pj0j1* Pj1j2*…* Pjn-1jn Еще одно обобщение в схемах независимых испытаний приводящее к цепи Маркова, но некоторого общего характера основанного на допущении, что исход любого испытания зависит не только от исхода предыдущего испытания но и от порядного номера предыдущего испытания. Итак, представим, что цепь Маркова описывает некоторую систему с дискретными состояниями. Если система в момент времени n находилась в состоянии j то вероятность перехода в состояние к в момент времени j+1 зависит в общем случае от значения n, j, k и независим от того в каких состояниях система прибывала в более ранее, чем n моменты времени. Это свойство получившее название Марковского позволяет определить цепь Маркова через условные вероятности Pjk(n, n+1) Это вероятность того, что система перейдет в состояние к в момент времени n+1. Если она в момент времени n находилась в состоянии j. Если в момент времени n система находилась в состоянии j, а в момент n+m она перешла в состояние к то говорят о переходе системы из состояния к за m шагов. Вероятность такого перехода Pjk(n, n+m)=Pjk(m) Вероятность такого перехода Pjk(n, n+m) называется m-шаговой переходной вероятностью. Цепь Маркова является однородной, если переходные вероятности независят от времени. Для однородной цепи Маркова вероятность Pjk(n, n+m)=Pjk(m). Вероятность Pjk(1) перехода состояния j в состояние к будем обозначать Pjk. При описании цепи Маркова Pjk удобно записывать в виде матрицы
|
12. Принцип цепей Маркова. В теории информации источники дискретных сообщений иногда рассматриваются как генераторы последовательности символов из некоторого алфавита. L= {x1, x2, x3, …, xn}. Если зависимость между символами последовательности простирается не более чем на пару соседних символов, то такие последовательности являются цепями Маркова. Пусть алфавит L={0,1} то тогда сообщения дискретного источника может быть описано матрицей.
С помощью цепей Маркова могут быть описаны так называемые процессы гибели и размножения. Используем в качестве модели для исследования численности популяции. Следуя этой модели система находится в состоянии j, если число членов популяции равно j, рождение одного члена популяции соответствует переход системы в состояние j+1, а гибель одного члена j-1. В данной модели делаются допущения, что система за 1 шаг не может перейти из состояния j в состояние j±k если к>1 при увеличении численности популяции условия ее существования изменяются и, следовательно, вероятности перехода системы из состояния j в состояние j+1 или j-1 будут зависеть в общем случае от j. Введем обозначения для вероятности перехода
Матрица вероятностей перехода будет иметь вид C0 a0 0 0 …………………....0 b1 c1 a1 0…………………….0 P= 0 b1 c1 a1… ……….………..0 …………………………………….. 0 0…………………… bj cj aj Процесс гибели и размножения иногда исследуется при ограничении max численности популяции. Матрица переходов в этом случае становится конечной. Например при достижение численности =4 размножение прекращается. C0 a0 0 0 0 b1 c1 a1 0 0 P= 0 b2 c2 a2 0 0 0 b3 c3 a3 0 0 0 b4 c4 ……………………….
|
13. Дискретный Марковский
процесс с непрерывным временем. Такой проц относится к типу случайных
процессов с дискретным множеством возможных состояний L
и непрерывным временным пар-ом
Точка t0 попадает на некот
интервал вр |
14. Уравнение Колмагорова Рассмотрим
Марковские свойства дискретных процессов управляемых нестационарными
Пуассоновскими потоками. Пусть имеется система с N
возможными составляющими, динамика которой описывается Марковским процессом с
непрерывным временем. При исследовании подобных систем в первую очередь
ставится задача вычисления вероятностей состояния системы Используем основное преимущество Марковских процессов с
непрерывным временем исследования, заключающееся в том, что распределение
вероятностей
Обозначим через
|
19. Вероятность того, что при одном измерении некоторой физической величины будет допущена ошибка, превышающая заданную точность, равна 0,4. Произведены три независимых измерения. Найти вероятность того, что только в одном из них допущенная ошибка превысит заданную точность. Решение А-допущена ошибка в 1 Р(А)=0,4 Р( В- допущена ошибка во 2 Р(В)=0,4 Р( С- допущена ошибка в 3 Р(С)=0,4 Р( Р=
25. Информация передается при помощи частотно-модулированных сигналов, рабочая частота F которых изменяется с равной вероятностью в пределах от F1=10МГц до F2=50МГц. Определить энтропию частоты, если точность измерения частоты DF=2кГц. Решение: Так как точность измерений составляет DF=2кГц, то мы имеем дело с (F2-F1)/DF числом равновероятных исходов. Поэтому энтропия частоты будет определяться:
|
20. Имеется 5 урн, из которых две содержат по одному белому и по 5 черных шаров, одна урна – 2 белых и 5 черных шаров и последние две урны – по 3 белых и по 5 черных шаров. Наудачу выбирается одна урна и из нее наудачу извлекается один шар. Какова вероятность, что этот шар окажется белым? Решение: Обозначим через А1 , А2 и А3 события, состоящие в том, что шар извлечен из урны, содержащей 1, или 2, или 3 белых шара . В таком случае:
Если событие В состоит в том, что извлекается белый шар, то по формуле полной вероятности, получаем:
|
21. Пусть из многолетних наблюдений за погодой известно, что для определенного пункта вероятность того, что 15 июня будет идти дождь, равна 0,4, а вероятность того, что в указанный день дождя не будет, равна 0,6. Пусть далее для этого же пункта вероятность того, что 15 ноября будет идти дождь равна 0,65, вероятность, что будет идти снег – 0,15 и вероятность того, что 15 ноября вовсе не будет осадков равна 0,2. В какой из двух перечисленных дней погоду в рассматриваемом пункте следует считать более неопределенной если: 1) из всех характеристик погоды интересоваться вопросом о характере осадков; 2) если интересоваться лишь вопросом о наличии осадков. Решение: Согласно тому, как понимается здесь слово «погода» имела место 15 июля и 15 ноября, характеризуется следующими таблицами вероятностей: опыт a1
опыт a2
1) Поэтому энтропии наших двух опытов равны Поэтому погоду 15 ноября в рассматриваемом пункте следует считать более неопределенной, чем 15 июня. 2) Если интересоваться только тем, будут в рассматриваемый день осадки или нет, то исходы «снег» и «дождь» опыта a2 следует объединить:
|
22. На выходе двоичного источника Решение: 1) Строим функциональную зависимость величины энтропии от вероятности Р:
Найдем значение Р, при
котором данная функция принимает максимальное значение. Для этого ищем
экстремум функции:
Это подтверждает свойство энтропии, что она максимальна при равновероятных элементах источника. 2) Зная функциональную
зависимость
|
23. Имеются два дискретных троичных источника с независимыми элементами. На выходе каждого источника появляются сообщения одинаковой длины – по 15 элементов. Количество различных элементов в сообщении каждого источника постоянно. Сообщения каждого источника отличаются только порядком элементов. Зафиксированы два типичных сообщения: 021202120212021 – первого источника и 012101201101201 – второго. Элемент какого источника несет в среднем большее количество информации? Решение 1. 2.
|
24. Определить среднее количество информации приходящейся на один символ сообщения 01001000101001, при условии, что источник эргодический, а последовательность – типичная. Решение: 01 00 10 00 10 10 01 Источник – эргодический Последовательность – типичная Всего 14 символов, 0-9 и 1-5
|
26. Найти энтропию источника, описываемого графом вероятностей перехода: Решение: Составляем матрицы вероятностей состояний и условных вероятностей: Теперь находим среднюю условную энтропию:
|
27. Измерительное устройство вырабатывает временные интервалы, распределенные случайным образом в пределах от 100 до 500мс. Как изменится энтропия случайной величины при изменении точности измерения с 1мс до 1мкс? Решение:?
|
28. Элементы алфавитов X и Y статистически связаны.
Известно, что Решение: Согласно (4.9) мы можем записать
Условная энтропия может
изменяться (4.7):
При минимальном значении При максимальном значении
|
29. В результате полной
дезорганизации управления m самолетов летят произвольными
курсами. Управление восстановлено, и все самолеты взяли общий курс со
среднеквадратической ошибкой отклонения от курса Решение: Рассмотрим каждый самолет, как случайную величину. Так, как в первом случае имеет место равномерное распределение вероятностей углов, а у нас углы изменяются от 0 до 360о, то функция распределения вероятности для одного самолета равна f(x)=1/360. Для равновероятных случайных величин:
Для второго случая считаем по формуле (4.11): Таким образом изменение энтропии составит: |
30. Избыточность ряда европейских языков лежит в пределах 50-65%. Определить энтропию их алфавитов. Решение: Число букв в алфавите европейских языков
равняется 26, значит максимально возможное значение его энтропии:
|