- Артикул:00-01098129
- Автор: С. Хайкин
- ISBN: 5-8459-0890-6
- Тираж: 2000 экз.
- Обложка: Твердая обложка
- Издательство: ВИЛЬЯМС (все книги издательства)
- Город: Москва-Санкт-Петербург-Киев
- Страниц: 344
- Формат: 70х100 1/16
- Год: 2006
- Вес: 506 г
В книге рассматриваются основные парадигмы искусственных нейронных сетей. Представленный материал содержит строгое математическое обоснование всех нейросетевых парадигм, иллюстрируется примерами, описанием компьютерных экспериментов, содержит множество практических задач, а также обширную библиографию.
В книге также анализируется роль нейронных сетей при решении задач распознавания образов, управления и обработки сигналов. Структура книги очень удобна для разработки курсов обучения нейронным сетям и интеллектуальным вычислениям,
Книга будет полезна для инженеров, специалистов в области кампьютершлх наук, физиков и специалистов в других областях, а также для всех тех, кто интересуется искусственными нейронными сетями.
Содержание второй части
6. Машины опорных векторов
6.1. Введение
6.2. Оптимальная гиперплоскость для линейно-разделимых образов
6.3. Оптимальная гиперплоскость для неразделимых образов
6.4. Как создать машину опорных векторов для задачи распознавания образов
6.5. Пример: задача XOR (продолжение)
6.6. Компьютерное моделирование
6.7. e-нечувствительные функции потерь
6.8. Машины опорных векторов для задач нелинейной регрессии
6.9. Резюме и обсуждение
7. Ассоциативные машины
7.1. Введение
7.2. Усреднение по ансамблю
7.3. Компьютерный эксперимент
7.4. Метод усиления
7.5. Компьютерный эксперимент
7.6. Ассоциативная гауссова модель смешения
7.7. Модель иерархического смешения мнений экспертов
7.8. Выбор модели с использованием стандартного дерева решений
7.9. Априорные и апостериорные вероятности
7.10. Оценка максимального подобия
7.11. Стратегии обучения для модели НМЕ
7.12. Алгоритм ЕМ
7.13. Применение алгоритма ЕМ к модели НМЕ
7.14. Резюме и обсуждение
8. Анализ главных компонентов
8.1. Введение
8.2. Некоторые интуитивные принципы самоорганизации
8.3. Анализ главных компонентов
8.4. Фильтр Хебба для выделения максимальных собственных значений
8.5. Анализ главных компонентов на основе фильтра Хебба
8.6. Компьютерное моделирование: кодирование изображений
8.7. Адаптивный анализ главных компонентов с использованием латерального торможения
8.8. Два класса алгоритмов РСА
8.9. Пакетный и адаптивный методы вычислений
8.10. Анализ главных компонентов на основе ядра
8.11. Резюме и обсуждение
9. Карты самоорганизации
9.1. Введение
9.2. Две основные модели отображения признаков
9.3. Карты самоорганизации
9.4. Краткое описание алгоритма SOM
9.5. Свойства карты признаков
9.6. Компьютерное моделирование
9.7. Квантование вектора обучения
9.8. Компьютерное моделирование: адаптивная классификация множеств
9.9. Иерархическая квантизация векторов
9.10. Контекстные карты
9.11. Резюме и обсуждение
10. Модели на основе теории информации
10.1. Введение
10.2. Энтропия
10.3. Принцип максимума энтропии
10.4. Взаимная информация
10.5. Дивергенция Кулбека-Лейбпера
10.6. Взаимная информация как оптимизируемая целевая функция
10.7. Принцип максимума взаимной информации
10.8. Принцип Infomax и уменьшение избыточности
10.9. Пространственно связные признаки
10.10. Пространственно несвязные признаки
10.11. Анализ независимых компонентов
10.12. Компьютерное моделирование
10.13. Оценка максимального правдоподобия
10.14. Метод максимальной энтропии
10.15. Резюме и обсуждение
11. Стохастические машины и их аппроксимации в статистической механике
11.1. Введение
11.2. Статистическая механика
11.3. Цепи Маркова
11.4. Алгоритм Метрополиса
11.5. Метод моделирования отжига
11.6. Распределение Гиббса
11.7. Машина Больцмана
11.8. Сигмоидальные сети доверия
11.9. Машина Гельмгольца
11.10. Теория среднего поля
11.11. Детерминированная машина Больцмана
11.12. Детерминированные сигмоидальные сети доверия
11.13. Детерминированный отжиг
11.14. Резюме и обсуждение