Изучение DeepLearning с 2020.11.30, последнее обновление этой учебной заметки: 2021.2.21.
Часть 1. Введение в глубокое обучение
Часть 2. Основы нейронных сетей
- Примечания к глубокому обучению (2) Логистическая регрессия Логистическая регрессия
- Примечания к глубокому обучению (3) Расчетный график и метод производных операций
- Заметки о глубоком обучении (4)
- Заметки по глубокому обучению (5) Трансляция в Python Broadcasting
- Эндрю Нг Упражнение по программированию глубокого обучения: логистическая регрессия с нейросетевым мышлением
Часть 3 Неглубокая нейронная сеть
- Заметки о глубоком обучении (6) Представление и вывод неглубоких нейронных сетей
- Примечания к глубокому обучению (7) Функция активации мелкой нейронной сети
- Примечания к глубокому обучению (8) Алгоритм градиентного спуска для обратного распространения нейронной сети
- Примечания к глубокому обучению (9) Случайные параметры инициализации и параметры VS Гиперпараметры
- Эндрю Нг Упражнение по программированию глубокого обучения: Плоская классификация данных с одним скрытым слоем
Часть 4 Глубокая нейронная сеть
- Заметки о глубоком обучении (10) Представление и прямое распространение глубоких нейронных сетей
- Заметки о глубоком обучении (11) Проверить размерность матрицы (определить суть размерности матрицы)
- Заметки о глубоком обучении (12) Зачем использовать глубокие нейронные сети вместо поверхностных?
- Заметки о глубоком обучении (13) Построение блоков глубокой нейронной сети и процесс прямого обратного распространения
- [Глубокое обучение] Созданная вручную модель глубокой нейронной сети DNN
Часть 5. Улучшение глубоких нейронных сетей: настройка гиперпараметров, регуляризация и оптимизация
- Заметки о глубоком обучении (14) Набор данных и дисперсия смещения
- Заметки о глубоком обучении (15) Платформа глубокого обучения и TensorFlow
- Примечания к глубокому обучению (16) Регуляризация (увеличение данных отсева L2, ранняя остановка)
- Заметки о глубоком обучении (17) Нормализованный ввод
- Заметки по глубокому обучению (18) Исчезновение/взрыв градиента, инициализация весов и проверка градиента
- Примечания к глубокому исследованию (19) Мини-пакетное снижение градиента и средневзвешенное значение индекса
- Заметки о глубоком обучении (20) Momentum Momentum Gradient Descent и RSMprop Adam Optimization Algorithm
- Заметки о глубоком обучении (21) Затухание скорости обучения и локальные оптимальные задачи
- Примечания к глубокому обучению (22) Обработка отладки гиперпараметров
- Заметки о глубоком обучении (23) Нормализация пакетной нормы
- Заметки о глубоком обучении (24) Регрессия Softmax
- Классификация Softmax DNN реализует распознавание изображений жестов
Часть 6 Проект структурированного машинного обучения
- Заметки по глубокому обучению (25) Стратегии машинного обучения для структурированных проектов машинного обучения 1
- Заметки по глубокому обучению (26) Стратегии машинного обучения для структурированных проектов машинного обучения 2
- Заметки по глубокому обучению (27) Трансферное обучение и многозадачное обучение
- Заметки о глубоком обучении (28) Сквозное глубокое обучение
Часть 7. Сверточная нейронная сеть
- Примечания к глубокому обучению (29) Операция свертки и обнаружение границ сверточных нейронных сетей
- Заметки о глубоком обучении (30) Заполнение CNN и свертка Step Stride
- Заметки по глубокому обучению (31) 3D свертки и сверточные нейронные сети
- Заметки о глубоком обучении (32) Слой пула CNN
- Заметки о глубоком обучении (33) Как сверточные нейронные сети распознают рукописные цифры
- Заметки по глубокому обучению (34) Классическая сверточная нейронная сеть: LeNet-5 AlexNet VGG-16
- Заметки о глубоком обучении (35) Остаточная нейронная сеть ResNet
- Заметки по глубокому обучению (36) 1x1 Convolution (сеть в сети) и начальная сеть Google
- Заметки о глубоком обучении (37) Перенос обучения и увеличение данных
- Заметки о глубоком обучении (38) Обнаружение цели и алгоритм YOLO
- Сверточная нейронная сеть реализует распознавание изображений жестов
-
Итак, подведем небольшой итог! Глубокое обучение Обучение (38) — это уже конец зимних каникул 2021 года, то есть 2021.2.21 Я начал первый урок с 2020.11.30 и написал свои первые заметки по глубокому обучению. К моменту написания этой заметки обнаружение целей было завершено, и это знания, которые мне в настоящее время необходимо использовать на студенческом этапе, который, вероятно, является частью компьютерного зрения. Это не означает, что мое изучение глубокого обучения на этом останавливается, я продолжу изучать знания о системе глубокого обучения, включая рекуррентную нейронную сеть RNN, которая может быть использована в НЛП в будущем. Согласно текущему плану прогресса, я должен применить эти теоретические знания во многих приложениях и на практике, в том числе: демонстрация, подготовленная г-ном Ву Энда, и глубокое изучение комплексного дизайна (система наблюдения за детьми) для обнаружения целей.
-
На самом деле, я знаю, что для завершения комплексного проекта дизайна я могу хорошо читать код модели, сверяться с данными и отлаживать их, но я помещаю практический раздел в конец.Для меня более приоритетная работа должна быть систематической. теории глубокого обучения (в том числе потому, что мне очень любопытна эта область), включая второй и третий курсы, которые кажутся самыми скучными (стратегии улучшения нейросетей и стратегии машинного обучения), но на самом деле они могут научить меня направление глубокого обучения способ мышления.
-
Опять же, в соответствии с моим собственным графиком, теперь я буду много практиковаться с теоретическими знаниями, которые я изучил, и реализовывать эти теоретические вещи. Я могу скоро оглянуться назад, и у меня снова есть некоторые теоретические знания. Более глубокое понимание. Моя любовь к машинному обучению на этом не заканчивается, и я с нетерпением жду реального понимания этой области в будущем!
-
Наконец, я хотел бы поблагодарить г-на Ву Энда и себя самого настойчивого~ Никогда не останавливайся