- Артикул:00-01098130
- Автор: С. Хайкин
- ISBN: 5-8459-0890-6
- Тираж: 2000 экз.
- Обложка: Твердая обложка
- Издательство: ВИЛЬЯМС (все книги издательства)
- Город: Москва-Санкт-Петербург-Киев
- Страниц: 416
- Формат: 70х100 1/16
- Год: 2006
- Вес: 595 г
В книге рассматриваются основные парадигмы искусственных нейронных сетей. Представленный материал содержит строгое математическое обоснование всех нейросетевых парадигм, иллюстрируется примерами, описанием компьютерных экспериментов, содержит множество практических задач, а также обширную библиографию.
В книге также анализируется роль нейронных сетей при решении задач распознавания образов, управления и обработки сигналов. Структура книги очень удобна для разработки курсов обучения нейронным сетям и интеллектуальным вычислениям,
Книга будет полезна для инженеров, специалистов в области кампьютершлх наук, физиков и специалистов в других областях, а также для всех тех, кто интересуется искусственными нейронными сетями.
Содержание первой части
Предисловие
Благодарности
Важные символы
1. Введение
1.1. Что такое нейронные сети
1.2. Человеческий мозг
1.3. Модели нейронов
1.4. Представление нейронных сетей с помощью направленных графов
1.5. Обратная связь
1.6. Архитектура сетей
1.7. Представление знаний
1.8. Искусственный интеллект и нейронные сети
1.9. Историческая справка
2. Процессы обучения
2.1. Введение
2.2. Обучение, основанное на коррекции ошибок
2.3. Обучение на основе памяти
2.4. Обучение Хебба
2.5. Конкурентное обучение
2.6. Обучение Больцмана
2.7. Задача присваивания коэффициентов доверия
2.8. Обучение с учителем
2.9. Обучение без учителя
2.10. Задачи обучения
2.11. Память
2.12. Адаптация
2.13. Статистическая природа процесса обучения
2.14. Теория статистического обучения
2.15. Вероятностно-корректная в смысле аппроксимации модель обучения
2.16. Резюме и обсуждение
3. Однослойный персептрон
3.1. Введение
3.2. Задача адаптивной фильтрации
3.3. Методы безусловной оптимизации
3.4. Линейный фильтр, построенный по методу наименьших квадратов
3.5. Алгоритм минимизации среднеквадратической ошибки
3.6. Графики процесса обучения
3.7. Изменение параметра скорости обучения по модели отжига
3.8. Персептрон
3.9. Теорема о сходимости персептрона
3.10. Взаимосвязь персептрона и байесовского классификатора в гауссовой среде
3.11. Резюме и обсуждение 4. Многослойный персептрон
4.1. Введение
4.2. Вводные замечания
4.3. Алгоритм обратного распространения
4.4. Алгоритм обратного распространения в краткой форме
4.5. Задача XOR
4.6. Эвристические рекомендации по улучшению работы алгоритма обратного распространения
4.7. Представление выхода и решающее правило
4.8. Компьютерный эксперимент
4.9. Извлечение признаков
4.10. Обратное распространение ошибки и дифференцирование
4.11. Гессиан
4.12. Обобщение
4.13. Аппроксимация функций
4.14. Перекрестная проверка
4.15. Методы упрощения структуры сети
4.16. Преимущества и ограничения обучения методом обратного распространения
4.17. Ускорение сходимости процесса обучения методом обратного распространения
4.18. Обучение с учителем как задача оптимизации
4.19. Сети свертки
4.20. Резюме и обсуждение
5. Сети на основе радиальных базисных функций
5.1. Введение
5.2. Теорема Ковера о разделимости множеств
5.3. Задача интерполяции
5.4. Обучение с учителем как плохо обусловленная задача восстановления гиперповерхности
5.5. Теория регуляризации
5.6. Сети регуляризации
5.7. Обобщенные сети на основе радиальных базисных функций
5.8. Задача XOR (повторное рассмотрение)
5.9. Оценивание параметра регуляризации
5.10. Свойства аппроксимации сетей RBF
5.11. Сравнение сетей RBF и многослойных персептронов
5.12. Регрессия ядра и ее связь с сетями RBF
5.13. Стратегии обучения
5.14. Компьютерное моделирование: классификация образов
5.15. Резюме и обсуждение