- Артикул:00-01098201
- Автор: Серрано Л.
- ISBN: 978-5-4461-1923-3
- Обложка: Мягкая обложка
- Издательство: Питер (все книги издательства)
- Город: Санкт-Петербург
- Страниц: 512
- Формат: 70х100/16(~168x240 мм)
- Год: 2024
- Вес: 1279 г
- Серия: Библиотека программиста (все книги серии)
Машинное обучение - это набор методов анализа данных, основанных на алгоритмах, которые дают все более точные результаты по мере поступления новых данных. Машинное обучение лежит в основе систем рекомендаций, программ распознавания лиц, "умных" колонок и даже беспилотных автомобилей. Эта уникальная книга объясняет основные понятия машинного обучения на простых и доступных примерах, увлекательных упражнениях и запоминающихся иллюстрациях.
Здесь нет зубодробительного академического жаргона, для понимания объяснений достаточно знаний основ алгебры. По мере чтения вы будете создавать модели для идентификации спама и распознавания изображений и другие интересные проекты на языке Python .
Откройте для себя мощные методы машинного обучения, для понимания и применения которых достаточно знаний математики на уровне средней школы!
Для читателей, знающих основы языка Python. Знаний в области машинного обучения не требуется.
Содержание
Предисловие
Вступление
Благодарности
О книге
Как организована книга: дорожная карта
О коде
От издательства
Об авторе
Глава 1. Что такое машинное обучение? Это здравый смысл, проявляемый компьютером
Я с радостью присоединяюсь к вам на пути к знаниям!
Машинное обучение повсюду
Нужен ли большой опыт в математике и программировании, чтобы понять машинное обучение?
Так что же такое машинное обучение?
Как заставить машины принимать решения с помощью данных? Концепция вспоминания - формулирования - прогнозирования
Резюме
Глава 2. Типы машинного обучения
В чем разница между размеченными и неразмеченными данными
Контролируемое обучение - раздел машинного обучения, который работает с размеченными данными
Неконтролируемое обучение: раздел машинного обучения, который работает с неразмеченными данными
Что такое обучение с подкреплением
Резюме
Упражнения
Глава 3. Прямая вплотную к точкам. Линейная регрессия
Задача: спрогнозировать цену дома
Решение: построить регрессионную модель цен на жилье
Как заставить компьютер провести прямую. Алгоритм линейной регрессии
Как мы измеряем результаты? Функция ошибок
Реальное применение. Использование Turi Create для прогнозирования цен на жилье в Индии
Что делать, если данные не расположены на прямой? Полиномиальная регрессия
Параметры и гиперпараметры
Применение регрессии
Резюме
Упражнения
Глава 4. Оптимизация процесса обучения. Недообучение, переобучение, тестирование и регуляризация
Пример недообучения и переобучения с использованием полиномиальной регрессии
Как заставить компьютер выбрать правильную модель? Тестированием!
Где нарушено золотое правило и как это исправить? Контрольный набор
Численный способ определить нужную сложность модели. График сложности модели
Еще один способ избежать переобучения - регуляризация
Полиномиальная регрессия, тестирование и регуляризация с помощью Turi Create
Резюме
Упражнения
Глава 5. Использование прямых для разделения точек. Алгоритм персептрона
Проблема: мы на чужой планете и не знаем местного языка!
Как определить, хорошо ли работает классификатор? Функция ошибки
Как найти хороший классификатор? Алгоритм персептрона
Кодирование алгоритма персептрона
Применение алгоритма персептрона
Резюме
Упражнения
Глава б. Непрерывный подход к разделению точек. Логистические классификатор
Логистические классификаторы - непрерывная версия персептронных классификаторов
Как найти хороший логистический классификатор? Алгоритм логистической регрессии
Кодирование алгоритма логистической регрессии
Реальное применение. Классификация обзоров IMDB с помощью Turi Create
Классификация по нескольким классам. Логистическая функция со многими переменными
Резюме
Упражнения
Глава 7. Как оценивать классификационные модели? Достоверность и ее друзья
Достоверность. Как часто модель оказывается права?
Как устранить проблему с достоверностью? Определение различных типов ошибок и способы их измерения
Полезный инструмент для оценки модели - кривая рабочих характеристик приемника
Резюме
Упражнения
Глава 8. Как использовать вероятность по максимуму. Наивная байесовская модель
Болен или здоров? История с теоремой Байеса в качестве героя
Пример использования - модель спам-фильтра
Построение модели спам-фильтра на основе реальных данных
Резюме
Упражнения
Глава 9. Разбиение данных согласно ответам на вопросы. Деревья решений
Задача: необходимо рекомендовать пользователям приложения, которые они, скорее всего, скачают
Решение: создание системы рекомендации приложений
Помимо вопросов типа "да/нет"
Графическая граница деревьев решений
Реальное применение. Моделирование приема студентов с помощью Scikit-Learn
Деревья решений для регрессии
Сфера применения
Резюме
Упражнения
Глава 10. Комбинирование ради усиления. Нейронные сети
Нейронные сети на примере. Более сложная чужая планета
Обучение нейронных сетей
Кодирование нейронных сетей в Keras
Нейронные сети для регрессии
Другие архитектуры для более сложных наборов данных
Резюме
Упражнения
Глава 11. Нахождение границ со стилем. Машины опорных векторов и метод ядра
Использование новой функции ошибок для создания более совершенных классификаторов
Кодирование машин с опорными векторами в Scikit-Learn
Обучение SVM с нелинейными границами. Метод ядра
Резюме
Упражнения
Глава 12. Комбинирование моделей для достижения максимальных результатов. Ансамблевое обучения
С небольшой помощью наших друзей
Бэггинг. Случайное объединение нескольких слабых моделей для создания сильной
AdaBoost. Разумное объединение слабых алгоритмов для формирования сильного
Градиентный бустинг. Использование деревьев решений для формирования сильных обучающих алгоритмов
XGBoost - экстремальный метод градиентного бустинга
Применение методов ансамбля
Резюме
Упражнения
Глава 13. Применение изученного на практике. Реальный пример разработки данных и машинного обучения
Набор данных "Титаник"
Очистка набора данных. Отсутствующие значения и как с ними бороться
Конструирование признаков. Преобразование признаков в наборе данных перед обучением моделей
Обучение моделей
Настройка гиперпараметров для поиска наилучшей модели. Поиск по сетке
Применение k-кратной перекрестной проверки для повторного использования данных в качестве обучающих и проверочных
Резюме
Упражнения
Приложение А. Решения к упражнениям
Глава 2. Типы машинного обучения
Глава 3. Прямая вплотную к точкам. Линейная регрессия
Глава 4. Оптимизация процесса обучения. Недообучение, переобучение, тестирование и регуляризация
Глава 5. Использование прямых для разделения точек. Алгоритм персептрона
Глава 6. Непрерывный подход к разделению точек. Логистические классификаторы
Глава 7. Как оценивать классификационные модели? Достоверность и ее друзья
Глава 8. Как использовать вероятность по максимуму. Наивная байесовская модель
Глава 9. Разбиение данных согласно ответам на вопросы. Деревья решений
Глава 10. Комбинирование ради усиления. Нейронные сети
Глава 11. Нахождение границ со стилем. Машины опорных векторов и метод ядра
Глава 12. Комбинирование моделей для достижения максимальных результатов. Ансамблевое обучение
Глава 13. Применение изученного на практике. Реальный пример разработки данных и машинного обучения
Приложение Б. Математика, лежащая в основе градиентного спуска. Спуск с горы с использованием производных и склонов
Использование градиентного спуска для уменьшения функций
Использование градиентного спуска для обучения моделей
Использование градиентного спуска для регуляризации
Застревание на локальных минимумах: как оно происходит и как его обойти
Приложение В. Ссылки