- Артикул:00-01022001
- Автор: Панин В.В.
- ISBN: 978-5-9963-0013-6
- Тираж: 1500 экз.
- Обложка: Твердый переплет
- Издательство: Бином (все книги издательства)
- Город: Москва
- Страниц: 438
- Формат: 70х100/16
- Год: 2016
- Вес: 1245 г
Приведено систематическое изложение вопросов, относящихся к основам классической теории информации. Рассмотрены различия в методах построении классической теории информации К. Шеннона и С. Гоццмана и дана единая трактовка построения классической теории информации, основанной на этих двух по существу взаимно дополняющих друг друга методах.
Для студентов технических вузов, а также для преподавателей, аспирантов и инженеров, род деятельности которых предполагает знание теории информации.
ОГЛАВЛЕНИЕ
Предисловие
Глава 1. Введение
1.1. Системы передачи сообщений
1.2. Теория информации и ее предмет
1.3. Некоторые основополагающие понятия и результаты классической теории информации
1.4. О содержании данной книги
1.5. Выводы
1.6. Литература
Глава 2. Дискретизация и восстановление непрерывных функций
2.1. Теорема отсчетов. Формулировка и доказательство теоремы
2.2. Анализ ошибок в теории дискретизации и восстановления непрерывных функций
2.3. Разновидности и обобщения теоремы отсчетов
2.4. Области применения теоремы отсчетов
2.5. Дискретизация и восстановление функций на основе использования полиномов Лагранжа
2.6. Амплитудно-импульсная и кодово-импульсная модуляции
2.7. Приложение. Гауссовский случайный процесс. Белый гауссов шум
2.8. Выводы
2.9. Литература
Глава 3. Энтропия и информация
3.1. Постановка задачи. Основной и вспомогательный опыты. Адресат. Тождественные опыты
3.2. Энтропия исхода и энтропия опыта. Информация I[Ai, Bj]. Энтропия сложного опыта Н[аb]. Условная энтропия опыта Н[b|а]
3.3. Информация об опыте b, содержащаяся в опыте а, I[a,b]
3.4. Пропускная способность алфавита
3.5. Некоторые обобщения и обсуждение полученных результатов
3.6. Энтропия и информация для непрерывных случайных величин
3.7. О различиях в подходе к определению информации
3.8. Единицы измерения объема запоминающих устройств и скорости передачи данных
3.9. Приложение. Опыт, ансамбль, случайная величина, алфавит, вероятность
3.10. Приложение. Расширенная система вещественных чисел
3.11. Приложение. Явление «дефицита алфавита»
3.12. Приложение. Образование дольных единиц измерения энтропии и информации
3.13. Приложение. Соответствие между множествами и отображение множеств
3.14. Выводы
3.15. Литература
Глава 4. Кодирование сообщений ансамбля при отсутствии шума
4.1. Префиксные последовательности. Лемма Крафта. Кодовое дерево
4.2. Основная теорема о кодировании сообщений ансамбля при отсутствии шума
4.3. Метод кодирования Фано
4.4. Метод кодирования Хаффмана
4.5. Доказательство оптимальности префиксного кода Хаффмана
4.6. Выводы
4.7. Литература
Глава 5. Источники информации
5.1. Определения и основные соотношения
5.2. Дискретные стационарные источники
5.3. Избыточность языка
5.4. Кодирование дискретных стационарных источников с управляемой скоростью при отсутствии шума
5.5. Марковские источники. Эргодические источники
5.6. Выводы
5.7. Литература
Глава 6. Каналы связи
6.1. Основные понятия и определения
6.2. Дискретные каналы без шума
6.3. Дискретный стационарный без памяти канал
6.4. Непрерывный канал с аддитивным гауссовым шумом
6.5. Пропускная способность реальных каналов
6.6. Основная теорема о кодировании и декодировании сообщений при передаче их по СБПК
6.7. Обращение основной теоремы кодирования
6.8. Приложение. Некоторые каналы и их пропускные способности
6.9. Приложение. Выпуклая область. Вектор вероятностей.
Выпуклая функция. Взаимная информация I[X, Y] как выпуклая функция вектора вероятностей на входе канала. Нахождение экстремумов выпуклых функций
6.10. Приложение. Вывод соотношения
6.11. Приложение. Сводка понятий и формул, используемых в теореме 6.6 К. Шеннона
6.12. Приложение. Иллюстрация к основной теореме кодирования К. Шеннона и к теореме обращения
6.13. Приложение. К вопросу введения понятия информации
6.14. Выводы
6.15. Литература
Послесловие
Именной указатель
Предметный указатель