- Артикул:00-01056760
- Автор: В.Н. Фомин
- Тираж: 4650 экз.
- Обложка: Твердая обложка
- Издательство: Наука (все книги издательства)
- Город: Москва
- Страниц: 288
- Формат: 60 90/16
- Год: 1984
- Вес: 494 г
Книга посвящена последовательному изложению ряда разделов адаптивной фильтрации в условиях параметрической неопределенности о помехо-сигнальной обстановке.
Материал книги группируется вокруг вопросов рекуррентного оценивания, при этом обсуждаются как хорошо известные схемы оценивания (метод стохастической аппроксимации, метод наименьших квадратов, метод максимума правдоподобия), так и относительно новые схемы (минимаксное оценивание, метод рекуррентных целевых неравенств, робастное оценивание). Значительное внимание уделено методам синтеза оптимальных фильтров (фильтр Винера-Колмогорова, фильтр Калмана-Бьюси). Принятый в книге подход применим к многочисленным задачам оптимального обнаружения, обучения распознаванию образов, идентификации динамических объектов.
Книга предназначена для инженеров и научных работников в области теоретической и прикладной кибернетики. Она может быть полезна студентам старших курсов и аспирантам, специализирующимся по математической и технической кибернетике.
Содержание
Предисловие
Введение
Глава 1 Задачи и методы теории оценивания
§ 1.1. Примеры задач оценивания
1.1.1°. Оценивание величины постоянного сигнала, наблюдаемого на фоне помехи. 1.1.2°. Задача оптимального оценивания параметров сигнала. 1.1.3°. Задача обнаружения сигнала. 1.1.4°. Задача о разладке. 1.1.5°. Аппроксимация функции с помощью линейных комбинаций известных функций. 1.1.6°. Модель обучаемой системы. 1.1.7°. Задача самообучения. 1.1.8°. Идентификация динамического объекта. 1.1.9°. Синтез адаптивного управления динамическим объектом. 1.1.10°. Отслеживание дрейфа экстремума нестационарного функционала
§ 1.2. Байесовские критерии
1.2.1°. Функционал среднего риска. 1.2.2°. Автоматическая классификация изображений. 1.2.3°. Автоматическая классификация при неизвестных апостериорных вероятностях. 1.2.4°. Оптимальное обнаружение сигнала
§ 1.3. Элементы регрессионного анализа
1.3.1°. Наилучшая аппроксимация одной случайной величины с помощью другой. 1.3.2°. Линейная регрессионная модель. 1.3.3°. Регрессия в случае гауссовских случайных величин. 1.3.4°. Оценивание по конечному числу наблюдений
§ 1.4. Элементы теории оценивания
1.4.1°. Байесовские оценки. 1.4.2°. Оптимальные оценки в симметричном случае. 1.4.3°. Метод максимума правдоподобия. 1.4.4°. Достижимая точность оценивания. 1.4.5°. Метод эмпирического функционала. 1.4.6°. Метод стохастической аппроксимации
§ 1.П. Приложение: некоторые сведения о сходимости случайных величин
1.П.1°. Последовательности случайных величин, близкие к супермартингалам. 1.П.2°. Закон больших чисел для независимых случайных величин
§ 1.Д. Доказательства лемм и теорем
1.Д.1°. Доказательство леммы 1.2.1. 1.Д.2°. Доказательство леммы. 1.3.1. 1.Д.З°. Доказательство леммы 1.3.2. 1.Д.4°. Доказательство леммы 1.3.3. 1.Д.5°. Доказательство леммы 1.4.1. 1.Д.6°. Доказательство леммы 1.4.2. 1.Д.70. Доказательство леммы 1.4.3. 1.Д.8°. Доказательство теоремы 1.4.1. 1.Д.90. Доказательство теоремы 1.4.2. 1.Д. 10°. Доказательство леммы 1.4.4. 1.Д.110. Доказательство теоремы 1.4.3. 1.Д.120. Доказательство теоремы 1.4.4. 1.Д.13°. Доказательство теоремы 1.4.5
Глава 2 Рекуррентное оценивание в некоторых задачах, обнаружения и идентификации
§ 2.1. Стохастические аналоги конечно-сходящихся алгоритмов в задаче обучения
2.1.1°. Постановка задачи обучения распознаванию образов. 2.1.2°. Задача обучения в детерминистской постановке. 2.1.3°. Метод рекуррентных целевых неравенств. 2.1.4°. Среднее время сходимости конечно сходящихся алгоритмов. 2.1.5°. Алгоритм случайного поиска с линейной тактикой. Гомеостат Эшби. 2.1.6°. Марковские цепи, связанные с конечно-сходящимися процедурами. 2.1.7°. Алгоритм вычисления среднего времени сходимости и среднего числа коррекций
2.1.8°. Примеры конечно-сходящихся алгоритмов
§ 2.2. Процедура стохастической аппроксимации в задаче самообучения
2.2.1°. Общие условия сходимости процедуры самообучения. 2.2.2°. Поглощающие множества. 2.2.3°. Содержательные свойства поглощающих множеств. 2.2.4°. Свойства процедуры самообучения при наличии поглощающих множеств)
§ 2.3. Рекуррентное байесовское оценивание в задаче обнаружения марковских сигналов
2.3.1°. Синтез оптимальных систем обнаружения марковских сигналов на фоне помехи с независимыми значениями. 2.3.2°. Рекуррентный алгоритм вычисления отношения правдоподобия. 2.3.3°. Предельное свойство байесовского обнаружителя. 2.3.4°. Оптимальное обнаружение при постоянных параметрах сигнала. 2.3.5°. Марковский гауссовский сигнал
§ 2.4. Метод эмпирического функционала в задаче идентификации динамического объекта, подверженного действию коррелированных возмущений
2.4.1°. Постановка задачи идентификации. 2.4.2°. Эмпирический функционал и формирование оценок. 2.4.3°. Идентифицируемость объекта и предельная невырожденность входных воздействий. 2.4.4°. Состоятельность оценок, получаемых методом эмпирического функционала. 2.4.5°. Обсуждение решения задачи идентификации методом эмпирического функционала
§ 2.5. Робастное оценивание параметров полезного сигнала
2.5.1°. Общее понятие о робастном оценивании. 2.5.2°. Уточнение схемы робастного оценивания параметра полезного сигнала. 2.5.3°. Критерий выбора наименее благоприятного распределения. 2.5.4°. Класс симметричных распределений с ограниченной дисперсией. 2.5.5°. Линейная зависимость полезного сигнала от параметра. 2.5.6°. Учет априорной информации о распределении параметра полезного сигнала. 2.5.7°. Описание некоторых классов робастности. 2.5.8°. Рекуррентные процедуры построения робастных оценок
§ 2.П. Приложение: некоторые сведения о марковских процессах
§ 2.Д. Доказательства лемм и теорем
2.Д.1°. Доказательство леммы 2.1.1. 2.Д.2°. Доказательство теоремы. 2.1.1. 2.Д.З°. Доказательство теоремы 2.1.2. 2.Д.40. Доказательство теоремы 2.1.3. 2.Д.50. Доказательство теоремы 2.2.1 . 2.Д.6°. Доказательство леммы 2.2.1. 2.Д.70. Доказательство теоремы. 2.2.2. 2.Д.8°. Доказательство леммы 2.2.2. 2.Д.90. Доказательство леммы 2.3.1. 2.Д.10°. Доказательство теоремы 2.3.1. 2.Д.110. Доказательство леммы 2.3.2. 2.Д.120. Доказательство теоремы 2.3.2. 2.Д.130. Доказательство теоремы 2.3.3. 2.Д. 14°. Доказательство теоремы2.4.1. 2.Д.15°. Доказательство леммы 2.4.1. 2.Д. 16°. Доказательство теоремы 2.5.1. 2.Д.17°. Доказательство теоремы 2.5.2. 2.Д.18°. Доказательство леммы 2.5.1
Глава 3 Оптимальная фильтрация случайных процессов
§ 3.1. Фильтр Винера-Колмогорова
3.1.1°. Постановка задачи. 3.1.2°. Уравнение Винера-Хопфа. 3.1.3°. Синтез оптимального фильтра 3.1.4°. Интерпретация действия оптимального устойчивого фильтра. 3.1.5°. Сводка формул. 3.1.6°. Пример: оценивание состояния устойчивого скалярного объекта. 3.1.7°. Пример: оптимальный прогноз значения авторегрессионного процесса. 3.1.8°. Синтез оптимальных следящих систем 3.1.9°. Устойчивый линейный фильтр, максимизирующий отношение сигнал/шум (177)
§ 3.2. Фильтр Калмана-Бьюси
3.2 Г. Постановка задачи. 3.2.2°. Нестационарное уравнение Винера-Хопфа. 3.2.3°. Каноническая форма оптимального фильтра. 3.2.4°. Пример: оценивание состояния скалярного объекта. 3.2.5°. Устойчивость фильтра Калмана-Бьюси. 3.2.6°. Фильтр Калмана-Бьюси в стационарном случае. 3.2.7°. Фильтр Калмана-Бьюси в задаче отслеживания дрейфа параметров динамического объекта
§ 3.3. Минимаксная фильтрация
3.3. Г. Постановка задачи. 3.3.2°. Двойственность задачи оценивания и оптимального управления. 3.3.3°. Линейность оптимальной стратегии управления. 3.3.4°. Рекуррентное соотношение для оптимальной оценки. 3.3.5°. Оценивание параметров полезного сигнала на фоне нецентрированной помехи
§ З.П. Приложение: некоторые сведения о стационарных процессах
З.П.Г. Пример: процесс с кусочно-постоянной структурной функцией. З.П.2°. Пример: бесшумный процесс. З.П.З°. Пример: процесс с дробно-рациональной спектральной плотностью. З.П.4°. Дискретное преобразование Фурье
§ З.Д. Доказательства лемм и теорем
З.Д. 1°. Доказательство теоремы 3.1.1. З.Д.2°. Доказательство леммы 3 1.1. З.Д.З°. Доказательство теоремы 3.2.1. З.Д.4°. Доказательство теоремы 3.2.2. З.Д.5°. Доказательство теоремы 3.2.3. З.Д.6°. Доказательство теоремы 3.2.4. З.Д.7°. Доказательство теоремы. 3.3.1. З.Д.8°. Доказательство леммы 3.3.1. З.Д.9°. Доказательство теоремы 3.3.2. З.Д. 10°. Доказательство леммы 3.3.2
Глава 4 Некоторые задачи адаптации
§ 4.1. Адаптивные системы
4.1.1°. Модели взаимодействующих объекта и среды. 4.1.2°. Стратегии настройки параметров и цель функционирования объекта. 4 1.3°. Определение понятий адаптивной стратегии и адаптивной системы. 4.1.4°. Классификация целей функционирования объекта. 4.1.5°. Замечания
§ 4.2. Примеры адаптивных систем
4.2.1°. Адаптивный классификатор. 4.2.2°. Адаптивные алгоритмы оценивания. 4.2.3°. Адаптивное прогнозирование. 4.2.4°. Адаптивные системы управления
§ 4.3. Синтез адаптивных фильтров
4.3.1°. Уточнение постановки задачи об адаптивной фильтрации. 4.3.2°. Схемы оценивания неизвестных параметров. 4.3.3°. Идентификация авторегрессионного процесса при белошумной помехе. 4.3.4°. Расширенный МНК в задаче идентификации. 4.3.5°. Упрощенная процедура расширенного МНК в задаче идентификации. 4.3.6°. Процедура стохастической аппроксимации в задаче идентификации. 4.3.7°. Адаптивная фильтрация.
§ 4.Д. Доказательства лемм и теорем
4.Д.1°. Доказательство леммы 4.3.1. 4.Д.2°. Доказательство леммы
4.3.2. 4.Д.З°. Доказательство теоремы 4.3.1. 4.Д.4°. Доказательство теоремы 4.3.2. 4.Д.5°. Доказательство леммы 4.3.3. 4.Д.6°. Доказательство теоремы 4.3.3
Примечания и литературные указания
Литература
Список основных сокращений и обозначений