Вопросы по Теории информационных процессов

 

1. Неопределенность.

2. Возникновение и развитие теории информации.

3. Логарифмическая мера неопределенности.

4. Энтропия. Формула Шеннона.

5. Ограничения в использовании оценок неопределенности.

6. Свойства энтропии.

7. Энтропия сложных событий.

8. Свойства условной энтропии.

9. Информация.

10. Свойства информации.

11. Информация и алфавит.

12. Избыточность в языке.

13. Проблемы кодирования.

14. Код Шеннона-Фано.

15. Анализ экономичности кода.

16. Пропускная способность линии связи.

17. Передача информации при наличии помех.

18. Потери информации при передаче.

19. Влияние помех на линии связи. Пропускная способность линии с помехами.

20. Анализ двоичной симметричной линии.

21. m-ичная линия связи.

22. Коды, обнаруживающие и исправляющие ошибки.

23. Кодирование с проверками на четность.

24. Соотношение контрольных и информационных сигналов.

25. Исправление нескольких ошибок.

26. Линейные коды.

27. Декодирование с проверками на четность.

28. Информационные цепи.

29. Последовательное соединение источников информации.

30. Параллельное соединение источников информации.

31. Количество информации при измерении физических величин.

32. Информация при равновероятностных измерениях.

33. Смысловая мощность.

34. Сигналы как материальные носители информации.

35. Энтропия непрерывных сигналов.

36. Дискретизация сигнала во времени. Теорема Котельникова.

 

Hosted by uCoz