Линейная алгебра и изучение данных: профессор Массачусетского технологического института Гилберт Стрэнг поможет вам заложить прочную математическую основу

машинное обучение

Под редакцией Heart of Machines, Авторы: Сиюань, Лю Сяокунь.

Последняя книга профессора Массачусетского технологического института Гилберта Стрэнга «Линейная алгебра и обучение на основе данных» выйдет в середине января. В этой книге представлены многие математические основы машинного обучения, а также некоторые основные концепции глубокого обучения. Можно сказать, что с помощью этой книги мы можем понять популярные модели с математической точки зрения.

Домашняя страница книги:math.peach.quota/~company/учиться в…

Цель этой книги — объяснить математику, от которой зависят наука о данных и машинное обучение:Линейная алгебра,оптимизировать, теория вероятностей и статистика. Потому что в машинном обучении веса в функции обучения представлены в виде матриц, и эти весаСтохастический градиентный спускоптимизация, а слово «случайный» предполагает, что конвергенция обучения является вероятностной. Кроме того, закон больших чисел в теории вероятностей расширен до закона больших функций: если архитектура хорошо спроектирована и параметры хорошо рассчитаны, существует высокая вероятность успешной сходимости.

Обратите внимание, что эта книга не о компьютерах, программировании или программном обеспечении. Уже есть много книг, которые дают хорошее представление об этих аспектах, таких как «Практическое машинное обучение»; есть также много онлайн-ресурсов, таких как TensorFlow, Keras, MathWorks и Caffe, которые также могут оказать большую помощь.

В линейной алгебре есть множество замечательных вариантов матриц: симметричные, ортогональные, треугольные, ленточные, транспонированные, положительно определенные и другие. По опыту преподавания Гилберт считает, что положительно определенная симметричная матрица S — очень красивая вещь. Они имеют положительные собственные значения λ и ортогональные собственные векторы q, а их линейная комбинация может восстановить простое отображение qq^T ранга 1 и соответствующие собственные значения в положительно определенную матрицу S, а именно:

Если λ_1>=λ_2>=..., то первая компонента приведенного выше собственного значения λ_1 и соответствующий собственный вектор являются наиболее информативной частью S. Для простой ковариационной матрицы эта часть соответствует большой дисперсии, что также является основной идеей алгоритма уменьшения размерности PCA.

Кроме того, на домашней странице книги автор также предоставляет образцы глав для пробного чтения, включая глубокое изучение, предисловие к книге, оглавление, элементарное преобразование матриц, умножение матриц и другие новые знания, такие как сверточные сети, рассматриваемые из матриц. Автор заявил, что домашняя страница книги будет постоянно обновляться, включая планы печати и полное открытое чтение.

William Gilbert Strang

Уильям Гилберт Странг, американский математик, внес исследовательский вклад в теорию конечных элементов, вариационные методы, вейвлет-анализ и линейную алгебру. Он внес большой вклад в математическое образование, включая публикацию семи учебников по математике и монографий. В настоящее время Стронг является профессором кафедры математики MathWorks в Массачусетском технологическом институте. Основные преподаваемые курсы: «Введение в линейную алгебру» (18.06) и «Вычислительные науки и инженерия» (18.085), все из которых доступны бесплатно на открытых курсах Массачусетского технологического института.

Вот оглавление книги: