Распространение меток в сочетании с простыми моделями может превзойти графовые нейронные сети
Оригинальный адрес:Eat020031308.GitHub.IO/papers/2020…
- Алгоритмы на основе диффузии также полезны для задач классификации трансдуктивных узлов, но не ценятся.
- Опыт:набор данных ogbn-arxiv, простая классификация узлов по большинству классов в домене дает точность 61%.
- Остатки классификации и предсказания на соседних узлах положительно коррелируют
Correct and Smooth (C&S)
- Базовый прогноз: классифицируйте узлы с помощью простой модели, отличной от GNN (например, MLP на основе функций узла или вложений).
- Исправление: смоделируйте разницу между реальным результатом и результатом предыдущего шага с помощью метода GNN.
- Smooth: сглаживание результата предыдущего шага с помощью алгоритма Label Propagation (2015).
Label Propagation
Обратите внимание на нормализованную матрицу смежности, результирующая матрица узлов (одна строка на узел) равна Y, и алгоритм LP выполняет итерациюРаспространение результатов на обучающем наборе на полный граф до сходимости.
сходящееся решениесделаюминимизировать. Минимизация первой части гарантирует, что оценки будут гладкими, а вторая часть гарантирует, что предполагаемые результаты будут максимально приближены к фактическим результатам.
Правильная информация о реализации
В процессе C&S, за исключением того, что ссылка Smooth явно использует LP, алгоритмы двух других частей могут быть заменены.
В этой статье правильная ссылка также использует алгоритм LP для распространения остатков на обучающем наборе на полное изображение.
Но в итеративном процессе остаток будет становиться все меньше и меньше.Так что надо исправлять
- Автомасштабирование, Умножает остаточную оценку вне тренировочного набора на коэффициент, чтобы его абсолютное среднее значение равнялось тренировочному набору.
- Scaled Fixed Diffusion (FDiff-scale) Другой алгоритм диффузии:не меняя невязок на обучающей выборке (гдеДумайте об этом как о матрице перехода)
Результаты экспериментов
Количество параметров очень мало или даже не требует изучения параметров для обеспечения хорошей производительности, а обучение происходит быстро.
Эффект классификации превосходит SotA для нескольких наборов данных и в настоящее время находится в стадии разработки.Список задач классификации узлов OGBВходит в число лучших по нескольким задачам.