Автор, Хуа Сюэчжуан, был старшим инженером по алгоритмам в Alibaba, в настоящее время главным исследователем алгоритмов в Zhiyi Technology и автором книги «Python vs. Machine Learning».
Это заметки, которые автор выучил и обобщил на протяжении многих лет. После завершения они доступны для всего мира. В настоящее время разбирается примерно половина контента, и отсортированный контент размещается здесь. Были издательства, запрашивающие рукописи, но, учитывая длительный период публикации и высокую стоимость покупки книг, что не способствует широкому распространению технологии, автор принимает форму с открытым исходным кодом. Содержание заметок предназначено только для личного изучения и не может быть использовано в коммерческих целях без моего согласия.
Примечаний много, и в некоторых местах резюме может быть не на месте. Добро пожаловать на обсуждение. Контактное лицо: huaxz1986@163.com
Математическая основа
-
1. Основы линейной алгебры
- 1. Базовые знания
- 2. Векторная операция
- 3. Матричные операции
-
2. Основы теории вероятностей
- 1. Вероятность и распределение
- 2. Ожидания
- 3. Дисперсия
- 4. Закон больших чисел и центральная предельная теорема.
- V. Источники неопределенности
- 6. Распространенные распределения вероятностей
- Семь, предварительное распределение и апостериорное распределение
- 8. Теория измерения
- 9. Теория информации
-
3. Основа численного расчета
- 1. Численная стабильность
- 2. Кондиционирование
- 3. Метод градиентного спуска
- В-четвертых, матрица Гессе
- 4. Метод Ньютона
- 5. Квазиньютоновский метод.
- 6. Ограниченная оптимизация
-
4. Общие функции
- 1. сигмовидная
- 2. софтплюс
- 3. Гамма-функция и бета-функция
Статистическое обучение
-
0. Введение в машинное обучение
- 1. Основные понятия
- 2. Контролируемое обучение
- Три элемента машинного обучения
-
1. Основы линейной алгебры
- 1. Линейная регрессия
- 2. Обобщенная линейная модель.
- 3. Логарифмическая регрессия вероятности
- 4. Линейный дискриминантный анализ
- 5. Персептрон
-
2. Машины опорных векторов
- 1. Линейно-сепарабельная машина опорных векторов.
- 2. Линейные машины опорных векторов
- 3. Нелинейные машины опорных векторов
- В-четвертых, опорная векторная регрессия
- 5. СВДД
- В-шестых, метод минимальной оптимизации последовательности
- 7. Другие обсуждения
-
3. Наивный Байес
- 1. Теорема Байеса
- 2. Наивный метод Байеса
- 3. Полунаивный байесовский классификатор
- 4. Другие обсуждения
-
4. Дерево решений
- 1. Принцип
- 2. Выбор функции
- В-третьих, алгоритм генерации
- В-четвертых, алгоритм обрезки
- 5. Дерево ТЕЛЕЖКИ
- Шесть, непрерывное значение, обработка пропущенного значения
- Семь, многомерное дерево решений
-
5.knn
- 1. Алгоритм k-ближайших соседей
- 2. дерево кд
-
6. Интегрированное обучение
- 1. Интегральная ошибка обучения
- 2. Прокачка
- 3. Упаковка
- В-четвертых, стратегия интеграции
- V. Анализ разнообразия
-
7. Деревья, усиленные градиентом
- 1. Дерево вознесения
- 2. хгбуст
- 3. СветГБМ
-
8. Разработка функций
- 1. Обработка пропущенных значений
- 2. Кодирование функций
- 3. Стандартизация и регуляризация данных
- 4. Выбор функции
- 5. Разреженное представление и изучение словаря
- 6. Проблема многоклассовой классификации
- 7. Дисбаланс категорий
-
9. Оценка модели
- 1. Способность к обобщению
- 2. Переоснащение и недооснащение
- 3. Разложение дисперсии смещения
- 4. Критерии оценки параметров
- V. Оценка способности к обобщению
- Шесть, тренировочный набор, проверочный набор, тестовый набор
- Семь, измерение производительности
- Семь, настройка гиперпараметров
- 8. Проблемы традиционного машинного обучения
-
10. Снижение размерности
- 1. Пространственная катастрофа
- 2. Анализ основных компонентов PCA
- 3. Ядерное уменьшение линейной размерности KPCA
- 4. Многообразное обучение
- 5. Метрическое обучение
- 6. Вероятностный PCA
- 7. Анализ независимых компонентов
- 8. т-СНЭ
- Девять, ЛарджВис
-
11. Кластеризация
- 1. Измерение производительности
- 2. Кластеризация прототипа
- 3. Плотность кластеризации
- 4. Иерархическая кластеризация
- 5. Спектральная кластеризация
-
12. Полуконтролируемое обучение
- полуконтролируемое обучение
- 2. Полуконтролируемый SVM
- 3. График обучения с полуучителем
- Дивергентный подход
- 5. Полууправляемая кластеризация
- 6. Резюме
глубокое обучение
-
0. Введение в глубокое обучение
- 1. Введение
- 2. История
-
1. Основы машинного обучения
- 1. Основные понятия
- 2. Балльная оценка, дисперсия смещения
- 3. Оценка максимального правдоподобия
- 4. Байесовская оценка
- 5. Стохастический градиентный спуск
- 7. Проблемы традиционного машинного обучения
- 8. Низкоразмерные многообразия
-
2. Нейронные сети с глубокой прямой связью
- 1. Основы
- 2. Функция потерь
- 3. Блок вывода
- В-четвертых, скрытый блок
- 5. Структурный дизайн
- 6. Исторические заметки
-
3. Алгоритм обратного распространения
- Цепное правило
- 2. Обратное распространение
- 3. Глубокие нейронные сети с прямой связью
- 4. Реализация
- 5. Применение
- 6. Автоматическое дифференцирование
-
4. Регуляризация
- 1. Основные понятия
- 2. Регуляризация нормы параметра
- 3. Регуляризация ограничений
- 4. Расширение набора данных
- 5. Шумоустойчивость
- 6. Ранняя остановка
- 7. Совместное использование параметров
- Восемь, отсев
- Девять, редкое выражение
- 10. Полуконтролируемое обучение и многозадачное обучение
- 11. Тренировка противостояния
- 12. Алгоритм касательного распространения
- 13. Регуляризация и недоопределенные проблемы
-
5. Основа оптимизации
- 1. Функция стоимости
- 2. Проблемы оптимизации нейронной сети
- 3. Мини-партия
- В-четвертых, основной алгоритм оптимизации
- 5. Адаптивный алгоритм скорости обучения
- 6. Метод второго порядка аппроксимации
- 7. Сопряженный градиент
- 8. Стратегии оптимизации и мета-алгоритмы
- Девять, стратегия инициализации параметров
-
6. Сверточные нейронные сети
- 1. Операция свертки
- Второй, сверточный слой, объединяющий слой
- 3. Варианты базовой свертки
- В-четвертых, детали алгоритма
- V. История и текущая ситуация
-
7. Рекуррентные нейронные сети
- 1. Схема расчета РНН
- 2. Рекуррентная нейронная сеть
- 3. Длительная зависимость
- 4. Последовательная архитектура
- 5. Рекуррентная нейронная сеть
- 6. Эхо-сеть состояний
- 7. LSTM и другие закрытые RNN
- 8. Явная память
-
8. Руководящие принципы инженерной практики
- 1. Измерение производительности
- 2. Эталонная модель по умолчанию
- 3. Решите, собирать ли больше данных
- 4. Выберите гиперпараметры
- 5. Стратегия отладки
- 6. Пример: цифровая система идентификации
- Семь, предварительная обработка данных
- Восемь, инициализация переменных
- 9. Структурный дизайн
обработка естественного языка
-
тематическая модель
- 1. Модель униграммы
- 2. Модель PLSA
- 3. Модель ЛДА
- В-четвертых, обсуждение модели
-
слово вектор
- 1. Векторная космическая модель ВСМ
- 2. ЛСА
- 3. Word2Vec
- 4. ПЕРЧАТКА
компьютерное зрение
-
Сеть классификации изображений
- 1. Ленет
- 2. АлексНет
- 3. ВГГ-Нет
- 4. Начало
- 5. Ренет
- 6. СЕнет
- 7. Плотная сеть
- Восемь, небольшая сеть
- 9. Тренд
инструмент
CRF
-
CRF++
- 1. Установка
- 2. Используйте
- 3. Интерфейс Python
- 4. Распространенные ошибки
lightgbm
-
руководство пользователя лайтгбм
- 1. Установка
- 2. Регулировка параметров
- 3. Расширенный
- 4. API
- 5. Докер
xgboost
-
руководство по использованию xgboost
- 1. Установка
- 2. Регулировка параметров
- 3. Расчет внешней памяти
- 4. Вычисления на графическом процессоре
- 5. Монотонное ограничение
- 6. Ускоритель ДАРТ
- 7. API-интерфейс Python
scikit-learn
-
1. Предварительная обработка
- 1. Обработка признаков
- 2. Выбор функций
- 3. Изучение словаря
- 4. Трубопровод
-
2. Снижение размерности
- 1. СПС
- 2. МДС
- 3. Изомап
- 4. Локально-линейное встраивание
- 5. ФА
- 6. ФастИКА
- 7. т-СНЭ
-
3. Модели контролируемого обучения
- 1. Линейная модель
- 2. Машины опорных векторов
- 3. Байесовская модель
- 4. Дерево решений
- 5. КНН
- 6. АдаБуст
- 7. Дерево повышения градиента
- 8. Случайный лес
-
4. Оценка модели
- 1. Сегментация набора данных
- 2. Измерение производительности
- 3. Кривая проверки и кривая обучения
- В-четвертых, оптимизация гиперпараметров
-
5. Модель кластеризации
- 1. KMeans
- 2. ДБСКАН
- 3. Среднее смещение
- 4. Агломеративная кластеризация
- 5. БЕРЕЗА
- 6. Гауссовская смесь
- 7. Спектральная кластеризация
-
6. Модели полуконтролируемого обучения
- 1. Алгоритм распространения метки
spark
-
1. Основные понятия
- 1. Основные понятия
- 2. Установка и использование
- 3. оболочка pyspark
- 4. Независимое приложение
-
2.rdd использование
- I. Обзор
- 2. Создайте СДР
- 3. Конверсионная операция
- 4. Действие Операция
- 5. Другие методы и свойства
- 6. Настойчивость
- 7. Перегородка
- 8. Перемешать
-
3. использование фрейма данных
- I. Обзор
- 2. Искровая сессия
- Три, создание DataFrame
- В-четвертых, сохранение DataFrame
- 5. Датафрейм
- 6. Ряд
- Семь, Колонка
- Восемь, сгруппированные данные
- Девять, функции
-
4. Аккумуляторы и широковещательные переменные
- 1. Аккумулятор
- Во-вторых, широковещательные переменные
numpy
-
руководство по использованию numpy
- 1. ндаррай
- 2. функция ufunc
- 3. Функциональная библиотека
- В-четвертых, хранение и загрузка массивов
scipy
-
Руководство пользователя Scipy
- 1. Константы и специальные функции
- 2. Подгонка и оптимизация
- 3. Линейная алгебра
- 4. Статистика
- 5. Численное интегрирование
- Шесть, разреженная матрица
matplotlib
-
руководство по использованию matplotlib
- 1. конфигурация матплотлиба
- 2. Художник matplotlib
- 3. Основные понятия
- 4. Макет
- 5. Путь
- 6. Эффект пути
- Семь, преобразование координат
- 8. 3D рисунок
- Девять, навыки
pandas
-
руководство по использованию панд
- 1. Базовая структура данных
- 2. Внутренняя структура данных
- 3. Доступ по подписке
- 4. Операция
- 5. Трансформация
- 6. Очистка данных
- Семь, строковые операции
- 8. Агрегация и группировка
- 9. Временные ряды
- 10. Рисунок DataFrame
- Одиннадцать, функция движущегося окна
- 12. Загрузка и сохранение данных