Классический бумажный перевод NIPS 2000.
Резюме
Неотрицательная матричная факторизация (NMF) — это метод, который может эффективно обрабатывать многомерные данные. В этой статье представлены и проанализированы два разных алгоритма NMF, которые отличаются только мультипликативным коэффициентом, используемым в правиле обновления. Один из них минимизирует традиционную ошибку метода наименьших квадратов, а другой минимизирует обобщенное расхождение Кульбака-Лейблера (расхождение КЛ). Монотонную сходимость этих двух алгоритмов можно доказать с помощью вспомогательной функции, аналогичной той, которая использовалась для доказательства сходимости алгоритма максимизации ожидания. Оба алгоритма можно понимать как оптимизацию факторов с помощью градиентного спуска с масштабированием по диагонали для обеспечения сходимости алгоритма.
Введение
Алгоритмы обучения без учителя, такие как PCA и векторное квантование, можно понимать как разложение матрицы данных при различных ограничениях. В зависимости от ограничений результирующие факторы будут проявлять очень разные свойства. Например, PCA использует только слабо ортогональные ограничения, что приводит к очень разбросанным представлениям, и использует исключение для создания разнообразия, векторное квантование использует строгое глобальное ограничение оптимальности, что приводит к взаимоисключающим агрегациям данных.
Ранее мы показали, что неотрицательность является очень полезным ограничением в матричной факторизации для обучения частичным представлениям данных. Наученные неотрицательные базисные векторы разбросаны, но их все же можно редко комбинировать, чтобы получить хороший вектор представления во время реконструкции. В этой статье мы подробно анализируем эти два численных алгоритма для изучения оптимальных неотрицательных факторов в данных.
неотрицательная матричная факторизация
Теперь мы формально начинаем анализировать, как использовать алгоритмы для решения следующих задач:
В неотрицательной матричной факторизации (NMF), учитывая неотрицательную матрицу V, найдите неотрицательные матричные множители W и H такие, что:
NMF может применять следующие методы статистического анализа многомерных данных. Учитывая набор многомерных n-мерных векторов данных вв столбцах матрицы V (m — количество примеров в наборе данных). Затем эта матрица приблизительно разлагается наМатрица W иматрица Х. Обычно r меньше, чем n или m, так что W и H меньше, чем исходная матрица V. Конечным результатом является сжатая форма исходной матрицы данных.
Смысл приблизительно равных в формуле (1) заключается в том, что можно использовать формулу столбец за столбцомпредставить, где v и h - соответствующие столбцы матрицы V и матрицы H . То есть каждый вектор данных v приблизительно представляет собой линейную комбинацию столбцов матрицы W, взвешенных по компонентам h. Таким образом, можно считать, что W содержит базисные векторы, оптимизированные для линейной аппроксимации данных в V. Поскольку для представления большого количества векторов данных используется небольшое количество базисных векторов, хорошее приближение может быть достигнуто только в том случае, если базисные векторы обнаруживают скрытую структуру данных.
В этой статье не будут рассматриваться приложения NMF, но основное внимание будет уделено техническим аспектам изучения методов неотрицательной матричной факторизации. Конечно, есть много других способов матричной факторизации, которые широко изучались в числовой линейной алгебре, но большая часть предыдущей работы не работает для случая неотрицательных ограничений.
Здесь мы обсуждаем два алгоритма NMF, основанные на итеративном обновлении W и H. Поскольку эти два алгоритма просты в реализации и гарантируют их сходимость, они очень практичны в реальных ситуациях. Другие алгоритмы могут быть более эффективными с точки зрения общего времени вычислений, но их сложнее реализовать и трудно обобщить на другие функции стоимости. Факторы Алгоритм, аналогичный нашему, использовался для деконволюции эмиссионных томографических и астрономических изображений.
На каждой итерации нашего алгоритма текущее значение умножается на некоторый коэффициент, зависящий от «степени приближения» в уравнении (1), чтобы найти новое значение для W или H. Мы можем показать, что «степень аппроксимации» монотонно уменьшается по мере применения этих мультипликативных правил обновления с течением времени. Это просто означает, что повторяющиеся итерации правила обновления могут гарантировать сходимость алгоритма матричной факторизации к локальному оптимуму.
функция стоимости
найтиПриближенное решение , нам сначала нужно определить функцию стоимости для количественной оценки степени приближения. Эта функция стоимости может быть построена с использованием расстояния между двумя неотрицательными матрицами A и B. Одной из используемых мер расстояния является вычисление квадрата значения евклидова расстояния между A и B.
Нижняя граница этой формулы равна 0, и расстояние исчезает только при A=B.
Еще одна полезная мера:
Подобно евклидову расстоянию, его нижняя граница равна 0, и расстояние исчезает, когда A=B. Но его нельзя назвать «расстоянием», потому что это выражение не является симметричным между А и В, поэтому мы называем его «расхождением» А по отношению к В. Его можно резюмировать как дивергенцию KL или относительную энтропию, когда, A и B можно рассматривать как стандартизированные распределения вероятностей.
Теперь мы можем сформулировать NMF как задачу оптимизации в соответствии со следующими двумя формулировками:
проблема оптимизации 1: в условиях ограничений, с W и H в качестве параметров, минимизировать.
проблема оптимизации 2: в условиях ограничений, с W и H в качестве параметров, минимизировать.
Хотя уравнениеиОн выпуклый, когда рассматривается только одна из W или H, но не когда рассматриваются обе переменные WH. Поэтому нецелесообразно найти алгоритм, который может найти глобальный минимум для решения двух вышеуказанных задач оптимизации. Однако существует множество методов численной оптимизации, которые можно использовать для нахождения локальных минимумов.
Хотя градиентный спуск имеет низкую скорость сходимости, его проще всего реализовать. Другие методы (например, метод сопряженных градиентов) могут сходиться быстрее (по крайней мере, вокруг локальных минимумов), но они сложнее, чем градиентный спуск. Кроме того, сходимость методов градиентного спуска очень чувствительна к выбору размера шага, что очень невыгодно для крупномасштабных приложений.
Мультипликативное правило обновления
Мы обнаружили, что при решении двух вышеупомянутых задач оптимизации «мультипликативное правило обновления» является всеобъемлющим методом с хорошей производительностью при компромиссе между скоростью и сложностью реализации.
Теорема 1: Евклидово расстояниеБез приращения в следующих правилах обновления:
В приведенном выше правиле обновления евклидово расстояние будет фиксированным, когда W и H находятся в критической точке формулы расстояния.
Теорема 2:РасхождениеБез приращения в следующих правилах обновления:
В приведенном выше правиле обновления, когда W и H находятся в критической точке формулы дивергенции, дивергенция больше не будет обновляться.
Доказательство приведенной выше теоремы будет дано позже. Мы видим, что каждое обновление умножается на коэффициент. В частности, когда V = WH, можно интуитивно увидеть, что этот множитель один и тот же, и при фиксированном правиле обновления получается идеальное разложение.
Правила обновления умножения и сложения
Мультипликативные обновления можно противопоставить обновлениям градиентного спуска. В частности, обновление H для уменьшения квадрата расстояния можно записать как:
еслиЕсли установить небольшое положительное число, приведенное выше уравнение эквивалентно обычному градиентному спуску. Пока число достаточно мало, оно может быть уменьшено при обновлении..
Если мы настроим переменную на самый крутой наклон и установим:
Тогда может быть получено правило обновления H, данное в теореме 1. Обратите внимание, что эта корректировка приводит к мультипликативному коэффициенту (абсолютное значение положительной составляющей градиента в знаменателе и отрицательной составляющей числителя коэффициента).
Для формулы дивергенции мы корректируем наклон самого крутого градиентного спуска следующим образом:
Аналогичным образом, еслиЕсли установить небольшое положительное число, приведенное выше уравнение эквивалентно обычному градиентному спуску. Пока число достаточно мало, оно может быть уменьшено при обновлении.. Если установлено:
Тогда может быть получено правило обновления H, данное в теореме 2. Эта корректировка приводит к мультипликативному коэффициенту (абсолютное значение положительной составляющей градиента в знаменателе и отрицательной составляющей числителя коэффициента).
Так как мынедостаточно мала, чтобы гарантировать уменьшение функции стоимости этого скорректированного градиентного спуска. Удивительно, однако, как показано в следующем разделе, приведенные выше предположения верны.
Доказательство сходимости
Мы будем использовать вспомогательную функцию, аналогичную алгоритму EM, для доказательства теорем 1 и 2.
Определение 1:даВспомогательная функция, удовлетворяющая следующим условиям:
Эта вспомогательная функция является полезной концепцией в соответствии со следующей леммой. (Это также показано на вставке к рисунку 1)
Лемма 1: Если G является вспомогательной функцией, то F не увеличивается при обновлении следующим образом:
доказывать:
Обратите внимание, что только когдазаглобальный минимум. Если производная F существует иОкрестность непрерывна, т. е.. Следовательно, многократно обновляя уравнение 11, мы можем получить локальный минимум, в котором целевая функция сходится.
Ниже мы покажем, какиОпределите соответствующие вспомогательные функции. Теоремы 1 и 2 могут напрямую следовать правилу обновления уравнения 11.
Лемма 2:еслидиагональная матрица,
но
за
вспомогательная функция.
доказывать: потому что видимо, так что нужно только доказать. Чтобы доказать это неравенство, нам нужно
Сравнивая с уравнением 14, находим, чтоЭквивалентно
Чтобы доказать положительный полуопределенный случай, рассмотрим матрицы:
Толькоформа регулировки. Следовательно, только если M соответствует следующей формуле,Имеет положительную полуопределенность:
Теперь мы можем доказать сходимость теоремы 1.
Доказательство теоремы 1.: Используйте результат уравнения 14 для замены в уравнении 11, получить правило обновления:
Поскольку уравнение 14 является вспомогательной функцией, согласно лемме 1 F не возрастает в правиле обновления. Запишите приведенную выше формулу полностью, вы можете получить:
Поменяв роли W и H в лемме 1 и лемме 2, можно доказать, что F не возрастает по правилу обновления W аналогичным образом.
Далее находим вспомогательные функции для уравнения стоимости дивергенции.
Лемма 3:определение
за
вспомогательная функция.
доказывать: потому что видимо, так что нужно только доказать. Выведем это неравенство из выпуклости логарифмической функции:
Приведенная выше формула суммирует все союзыустановлены. Предполагать
Вы можете получить:
Приведенное выше неравенство следует.
Доказательство теоремы 2 следует лемме 1 и ее применению:
Теорема 2 Доказательство: заказатьЧтобы минимизировать, вам нужно установить градиент равным 0, чтобы найти h:
Следовательно, правило обновления, принятое уравнением 11, должно быть следующим:
Поскольку G является вспомогательной функцией, F в уравнении 28 не увеличивается в правиле обновления. Перепишите приведенную выше формулу в матричной форме и найдите правило обновления, эквивалентное уравнению 5. Поменяв роли W и H, можно аналогичным образом доказать, что F не возрастает по правилу обновления W.
обсуждать
Мы показали, что применение правила обновления в Уравнении 4 и Уравнении 5 может найти локальные оптимальные решения Задачи 1 и Задачи 2. Сходимость функции доказывается определением подходящих вспомогательных функций. Мы обобщим эти доказательства на более сложные ограничения. Правило обновления в вычислительном отношении очень легко реализовать, и ожидается, что оно будет широко использоваться.
Спасибо Bell Labs за поддержку и Carlos Brody, Ken Clarkson, Corinna Cortes, Roland Freund, Linda Kaufman, Yann Le Cun, Sam Roweis, Larry Saul, Margaret Wright за помощь и обсуждения.
На самом деле, это проверка латексной функции :)