Чару Аггарвал - Нейронные сети и глубокое обучение: учебный курс
Название: | Нейронные сети и глубокое обучение: учебный курс | |
Автор: | Чару Аггарвал | |
Жанр: | Учебники и пособия: прочее, Искусственный интеллект | |
Изадано в серии: | неизвестно | |
Издательство: | ООО "Диалектика" | |
Год издания: | 2020 | |
ISBN: | 978-5-907203-01-3 | |
Отзывы: | Комментировать | |
Рейтинг: | ||
Поделись книгой с друзьями! Помощь сайту: донат на оплату сервера |
Краткое содержание книги "Нейронные сети и глубокое обучение: учебный курс"
Аннотация к этой книге отсутствует.
Читаем онлайн "Нейронные сети и глубокое обучение: учебный курс". [Страница - 2]
- 1
- 2
- 3
- 4
- . . .
- последняя (80) »
показательных эталонных теста
1.8.1. База данных рукописных цифр
1.8.2. База данных ImageNet
1.9.
МNIST
Резюме
1.1 О. Библиографическая справка
1.10.1. Видеолекции
1.10.2. Программные ресурсы
1.11.
Упражнения
Глава
2.
2.2.
2.5.
94
96
97
98
101
1О1
Архитектуры нейронных сетей для моделей бинарной классификации
104
105
107
113
116
Повторное рассмотрение перцептрона
Регрессия по методу наименьших квадратов
Логистическая регрессия
Метод опорных векторов
Архитектуры нейронных сетей для мультиклассовых моделей
2.3.1. Мультиклассовый перцептрон
2.3.2. SVM Уэстона-Уоткинса
2.3.3. Мультиномиальная логистическая регрессия
(классификатор Softmax)
2.3.4. Иерархическая функция Softmax для случая многих классов
2.4.
93
Введение
2.2.1.
2.2.2.
2.2.3.
2.2.4.
2.3.
90
90
92
Машинное обучение с помощью
мелких нейронных сетей
2.1.
87
87
88
89
119
119
121
123
125
Использование алгоритма обратного распространения ошибки
для улучшения интерпретируемости и выбора признаков
126
Факторизация матриц с помощью автокодировщиков
127
128
135
138
142
142
144
2.5.1. Автокодировщик: базовые принципы
2.5.2. Нелинейные активации
2.5.3. Глубокие автокодировщики
2.5.4. Обнаружение выбросов
2.5.5. Когда скрытый слой шире входного
2.5.6. Другие применения
2.5.7. Рекомендательные системы: предсказание значения
для индекса строки
2.5.8.
Обсуждение
147
151
8
СОДЕРЖАНИЕ
2.6. Word2vec: применение простых архитектур нейронных сетей
2.6.1. Нейросетевые вложения в рамках модели непрерывного
мешка слов
2.6.2.
2.6.3.
2.6.4.
Нейросетевые вложения в рамках модели скип-грамм
Модель
SGNS- это логистическая матричная факторизация
Простая модель скип-грамм - это мультиномиальная
матричная факторизация
2.7.
Простые архитектуры нейронных сетей для вложений графов
2. 7.1.
2. 7.2.
2.7.3.
2.8.
2.9.
Обработка произвольных значений счетчиков ребер
Мультиномиальная модель
Связь с моделями
DeepWalk и node2vec
Резюме
Библиографическая справка
2.9.1. Программные ресурсы
2.10. Упражнения
Глава
3.
Обучение глубоких нейронных сетей
3 .1. Введение
3.2. Алгоритм
подробное рассмотрение
На выручку приходит динамическое программирование
189
Обратное распространение ошибки с предактивационными
переменными
распространения ошибки
Функции потерь на нескольких выходных и скрытых узлах
Мини-пакетный стохастический градиентный спуск
193
196
198
201
203
Приемы обратного распространения ошибки для обработки
разделяемых весов
3.2.10. Проверка корректности
вычисления градиентов
Настройка и инициализация сети
3.3 .1.
3.3.2.
3.3.3.
182
187
Обратное распространение ошибки с постактивационными
3.2.5. Примеры обновлений для различных активаций
3.2.6. Обособленное векторное представление процесса обратного
3.3.
179
179
182
переменными
3.2.7.
3.2.8.
3.2.9.
168
169
171
171
172
172
173
175
175
обратного распространения ошибки с помощью
абстракции вычислительного графа
3.2.4.
153
157
164
обратного распространения ошибки:
3.2.1. Анализ
3.2.2.
3.2.3.
151
Тонкая настройка гиперпараметров
Предварительная обработка признаков
Инициализация
206
207
208
208
210
214
9
СОДЕРЖАНИЕ
3.4.
Проблемы затухающих и взрывных градиентов
3.4.1. Геометрическая интерпретация эффекта отношений градиентов
3.4.2. Частичное устранение проблем за счет выбора функции
активации
3.4.3.
3.5.
Мертвые нейроны и "повреждение мозга"
Стратегии градиентного спуска
3.5.1. Регулирование скорости обучения
3.5.2. Метод импульсов
3.5.3. Скорости обучения, специфические для параметров
3.5.4. Овраги и нестабильность более высокого порядка
3.5.5. Отсечение градиентов
3.5.6. Производные второго порядка
3.5.7. Усреднение Поляка
3.5.8. Локальные и ложные минимумы
3.6.
3. 7.
Пакетная нормализация
Практические приемы ускорения вычислений и сжатия моделей
3.7.1. Ускорение с помощью GPU
3.7.2. Параллельные и распределенные реализации
3.7.3. Алгоритмические приемы сжатия модели
3.8. Резюме
3.9. Библиографическая справка
3.9.1. Программные ресурсы
3.10. Упражнения
Глава
4.
Введение
Дилемма --">
1.8.1. База данных рукописных цифр
1.8.2. База данных ImageNet
1.9.
МNIST
Резюме
1.1 О. Библиографическая справка
1.10.1. Видеолекции
1.10.2. Программные ресурсы
1.11.
Упражнения
Глава
2.
2.2.
2.5.
94
96
97
98
101
1О1
Архитектуры нейронных сетей для моделей бинарной классификации
104
105
107
113
116
Повторное рассмотрение перцептрона
Регрессия по методу наименьших квадратов
Логистическая регрессия
Метод опорных векторов
Архитектуры нейронных сетей для мультиклассовых моделей
2.3.1. Мультиклассовый перцептрон
2.3.2. SVM Уэстона-Уоткинса
2.3.3. Мультиномиальная логистическая регрессия
(классификатор Softmax)
2.3.4. Иерархическая функция Softmax для случая многих классов
2.4.
93
Введение
2.2.1.
2.2.2.
2.2.3.
2.2.4.
2.3.
90
90
92
Машинное обучение с помощью
мелких нейронных сетей
2.1.
87
87
88
89
119
119
121
123
125
Использование алгоритма обратного распространения ошибки
для улучшения интерпретируемости и выбора признаков
126
Факторизация матриц с помощью автокодировщиков
127
128
135
138
142
142
144
2.5.1. Автокодировщик: базовые принципы
2.5.2. Нелинейные активации
2.5.3. Глубокие автокодировщики
2.5.4. Обнаружение выбросов
2.5.5. Когда скрытый слой шире входного
2.5.6. Другие применения
2.5.7. Рекомендательные системы: предсказание значения
для индекса строки
2.5.8.
Обсуждение
147
151
8
СОДЕРЖАНИЕ
2.6. Word2vec: применение простых архитектур нейронных сетей
2.6.1. Нейросетевые вложения в рамках модели непрерывного
мешка слов
2.6.2.
2.6.3.
2.6.4.
Нейросетевые вложения в рамках модели скип-грамм
Модель
SGNS- это логистическая матричная факторизация
Простая модель скип-грамм - это мультиномиальная
матричная факторизация
2.7.
Простые архитектуры нейронных сетей для вложений графов
2. 7.1.
2. 7.2.
2.7.3.
2.8.
2.9.
Обработка произвольных значений счетчиков ребер
Мультиномиальная модель
Связь с моделями
DeepWalk и node2vec
Резюме
Библиографическая справка
2.9.1. Программные ресурсы
2.10. Упражнения
Глава
3.
Обучение глубоких нейронных сетей
3 .1. Введение
3.2. Алгоритм
подробное рассмотрение
На выручку приходит динамическое программирование
189
Обратное распространение ошибки с предактивационными
переменными
распространения ошибки
Функции потерь на нескольких выходных и скрытых узлах
Мини-пакетный стохастический градиентный спуск
193
196
198
201
203
Приемы обратного распространения ошибки для обработки
разделяемых весов
3.2.10. Проверка корректности
вычисления градиентов
Настройка и инициализация сети
3.3 .1.
3.3.2.
3.3.3.
182
187
Обратное распространение ошибки с постактивационными
3.2.5. Примеры обновлений для различных активаций
3.2.6. Обособленное векторное представление процесса обратного
3.3.
179
179
182
переменными
3.2.7.
3.2.8.
3.2.9.
168
169
171
171
172
172
173
175
175
обратного распространения ошибки с помощью
абстракции вычислительного графа
3.2.4.
153
157
164
обратного распространения ошибки:
3.2.1. Анализ
3.2.2.
3.2.3.
151
Тонкая настройка гиперпараметров
Предварительная обработка признаков
Инициализация
206
207
208
208
210
214
9
СОДЕРЖАНИЕ
3.4.
Проблемы затухающих и взрывных градиентов
3.4.1. Геометрическая интерпретация эффекта отношений градиентов
3.4.2. Частичное устранение проблем за счет выбора функции
активации
3.4.3.
3.5.
Мертвые нейроны и "повреждение мозга"
Стратегии градиентного спуска
3.5.1. Регулирование скорости обучения
3.5.2. Метод импульсов
3.5.3. Скорости обучения, специфические для параметров
3.5.4. Овраги и нестабильность более высокого порядка
3.5.5. Отсечение градиентов
3.5.6. Производные второго порядка
3.5.7. Усреднение Поляка
3.5.8. Локальные и ложные минимумы
3.6.
3. 7.
Пакетная нормализация
Практические приемы ускорения вычислений и сжатия моделей
3.7.1. Ускорение с помощью GPU
3.7.2. Параллельные и распределенные реализации
3.7.3. Алгоритмические приемы сжатия модели
3.8. Резюме
3.9. Библиографическая справка
3.9.1. Программные ресурсы
3.10. Упражнения
Глава
4.
Введение
Дилемма --">
- 1
- 2
- 3
- 4
- . . .
- последняя (80) »
Книги схожие с «Нейронные сети и глубокое обучение: учебный курс» по жанру, серии, автору или названию:
Анна Николаевна Николаева - Манга. Полный курс по рисованию. От чистого листа до готового комикса Жанр: Учебники и пособия: прочее Серия: Учимся рисовать аниме и мангу |
Юрий А Веселов - Электронный учебно-методический комплекс по учебной дисциплине "Организация производства" для... Жанр: Экономика Год издания: 2014 |
Игнасио Идальго де Сиснерос - Меняю курс Жанр: Биографии и Мемуары Год издания: 1967 |