- Артикул:00-01041594
- Автор: Николенко С., Кадурин А., Архангельская Е.
- ISBN: 978-5-4461-1537-2
- Обложка: Мягкая обложка
- Издательство: Питер (все книги издательства)
- Город: Санкт-Петербург
- Страниц: 480
- Формат: 70x100 1/16
- Год: 2022
- Вес: 1199 г
- Серия: Библиотека программиста (все книги серии)
Перед вами - первая книга о глубоком обучении, написанная на русском языке. Глубокие модели оказались ключом, который подходит ко всем замкам сразу: новые архитектуры и алгоритмы обучения, а также увеличившиеся вычислительные мощности и появившиеся огромные наборы данных привели к революционным прорывам в компьютерном зрении, распознавании речи, обработке естественного языка и многих других типично «человеческих» задачах машинного обучения. Эти захватывающие идеи, вся история и основные компоненты революции глубокого обучения, а также самые современные достижения этой области доступно и интересно изложены в книге. Максимум объяснений, минимум кода, серьезный материал о машинном обучении и увлекательное изложение - в этой уникальной работе замечательных российских ученых и интеллектуалов.
Содержание
Часть I. Как обучать нейронные сети
Глава 1. От биологии к информатике, или We need to go deeper
1.1. Революция обучения глубоких сетей
1.2. Искусственный интеллект и машинное обучение
1.3. Немного о словах: каким бывает машинное обучение
1.4. Особенности человеческого мозга
1.5. Пределы нейробиологии: что мы на самом деле знаем?
1.6. Блеск и нищета современных нейронных сетей
Глава 2. Предварительные сведения, или Курс молодого бойца
2.1. Теорема Байеса
2.2. Функции ошибки и регуляризация
2.3. Расстояние Кульбака - Лейблера и перекрестная энтропия
2.4. Градиентный спуск: основы
2.5. Граф вычислений и дифференцирование на нем
2.6. И о практике: введение в TensorFlow и Keras
Глава 3. Перцептрон, или Эмбрион мудрого компьютера
3.1. Когда появились искусственные нейронные сети
3.2. Как работает перцептрон
3.3. Современные перцептроны: функции активации
3.4. Как же обучаются настоящие нейроны
3.5. Глубокие сети: в чем прелесть и в чем сложность?
3.6. Пример: распознавание рукописных цифр на TensorFlow
Часть II. Основные архитектуры
Глава 4. Быстрее, глубже, сильнее, или Об оврагах, долинах и трамплинах
4.1. Регуляризация в нейронных сетях
4.2. Как инициализировать веса
4.3. Нормализация по мини-батчам
4.4. Метод моментов: Ньютон, Нестеров и Гессе
4.5. Адаптивные варианты градиентного спуска
Глава 5. Сверточные нейронные сети и автокодировщики, или Не верь глазам своим
5.1. Зрительная кора головного мозга
5.2. Свертки и сверточные сети
5.3. Свертки для распознавания цифр
5.4. Современные сверточные архитектуры
5.5. Автокодировщики
5.6. Пример: кодируем рукописные цифры
Часть II. Основные архитектуры
Глава 6. Рекуррентные нейронные сети, или Как правильно кусать себя за хвост
6.1. Мотивация: обработка последовательностей
6.2. Распространение ошибки и архитектуры RNN
6.3. LST M
6.4. GRU и другие варианты
6.5. SCRN и другие: долгая память в обычных RNN
6.6. Пример: порождаем текст символ за символом
Часть III. Новые архитектуры и применения
Глава 7. Как научить компьютер читать, или Математик - Мужчина + Женщина =...
7.1. Интеллектуальная обработка текстов
7.2. Распределенные представления слов: word2vec
7.3. Русскоязычный word2vec на практике
7.4. GloVe: раскладываем матрицу правильно
7.5. Вверх и вниз от представлений слов
7.6. Рекурсивные нейронные сети и синтаксический разбор
Глава 8. Современные архитектуры, или Как в споре рождается истина
8.1. Модели с вниманием и encoder-decoder
8.2. Порождающие модели и глубокое обучение
8.3. Состязательные сети
8.4. Практический пример и трюк с логистическим сигмоидом
8.5. Архитектуры, основанные на GAN
Глава 9. Глубокое обучение с подкреплением, или Удивительное происшествие с чемпионом
9.1. Обучение с подкреплением
9.2. Марковские процессы принятия решений
9.3. От TDGammon к DQN
9.4. Бамбуковая хлопушка
9.5. Градиент по стратегиям и другие применения
Глава 10. Нейробайесовские методы, или Прошлое и будущее машинного обучения
10.1. Теорема Байеса и нейронные сети
10.2. Алгоритм ЕМ
10.3. Вариационные приближения
10.4. Вариационный автокодировщик
10.5. Байесовские нейронные сети и дропаут
10.6. Заключение: что не вошло в книгу и что будет дальше
Благодарности
Литература