Это 20-й день моего участия в ноябрьском испытании обновлений. Узнайте подробности события:Вызов последнего обновления 2021 г.
Вы должны быть знакомы с распределением с длинным хвостом, которое относится к ситуации, когда несколько категорий имеют большое количество выборок, в то время как большинство категорий имеют только небольшое количество выборок, как показано на следующем рисунке.
Обычно, когда мы обсуждаем длиннохвостое распределение или классификацию текста, мы рассматриваем только одну метку, то есть выборка соответствует только одной метке, но на самом деле в практических приложениях очень часто встречается и множественная метка, например, сбор личных данных. хобби имеет в общей сложности 6 элементов: спорт, путешествия, чтение, работа, сон, еда, в целом у человека есть одно или несколько из этих увлечений, что является типичной задачей многозначной классификации
На EMNLP2021 есть статья под названиемBalancing Methods for Multi-label Text Classification with Long-Tailed Class DistributionВ документе подробно обсуждается влияние различных сбалансированных функций потерь на проблемы классификации с несколькими метками, от исходной потери BCE до фокусной потери и т. Д. Я чувствую, что эта статья больше похожа на обзор сбалансированных функций потерь. исходный код вRoche/BalancedLossNLP
Loss Functions
В области НЛП бинарная перекрестная потеря энтропии часто используется для решения проблем классификации текста с несколькими метками.обучающий набор образцов,в,- количество категорий, предполагая, что выход модели для выборки, то потери BCE определяются следующим образом:
в,, для задач классификации с несколькими метками нам нужно сжать выходное значение модели до [0,1], поэтому нам нужно использовать сигмовидную функцию
Исходная задача с одной меткой, истинное значениеЭквивалентно однократному вектору, а для мультиметки истинное значениеЭто эквивалентно добавлению нескольких единиц в вектор onehot, например [0,1,0,1], что указывает на то, что выборка относится как к первой, так и к третьей категории.
Этот наивный БКЭ очень подвержен дисбалансу меток, потому что головных выборок много, и сумма потерь всех головных выборок может быть 100, а сумма потерь всех хвостовых выборок не превышает 10. Ниже мы представляем три альтернативных подхода к решению проблемы дисбаланса классов данных с длинными хвостами в классификации текста с несколькими метками. Основная идея этих методов балансировки состоит в том, чтобы изменить вес BCE, чтобы редкие пары выборка-метка привлекли разумное «внимание».
Focal Loss (FL)
Путем умножения BCE на регулируемый параметр фокусировки, Focal Loss присваивает более высокие веса потерь «трудно классифицируемым» образцам, которые имеют низкую вероятность предсказания их истинного значения. Для задач классификации с несколькими метками Focal Loss определяется следующим образом:
На самом деле в статье очень мало вводных сведений о Focal Loss.Если вы хотите узнать больше о параметрах Focal Loss, вы можете прочитать мою статью.Подробное объяснение очаговой потери
Class-balanced focal loss (CB)
Оценивая количество действительных выборок, CB Loss дополнительно пересчитывает Focal Loss, чтобы зафиксировать уменьшающийся предельный эффект данных, уменьшая избыточную информацию о выборках головы. Для задач с несколькими метками мы сначала вычисляем частоту каждого класса, то для каждой категории есть баланс
в,Управляя скоростью роста эффективного числа отсчетов, функция потерь принимает вид
Distribution-balanced loss (DB)
Путем интеграции весов перебалансировки и толерантной к выборке регуляризации (NTR) функция «Потери, сбалансированные по распределению» сначала уменьшает избыточную информацию о совпадении меток (что имеет решающее значение в случае классификации с несколькими метками), а затем присваивает более низкие веса «легко образцы "классифицировать" (головные образцы)
Во-первых, чтобы перебалансировать веса, в случае одной метки выборка может пройти вероятность выборкик весу, но в случае нескольких меток, если используется одна и та же стратегия, выборка с несколькими метками будет передискретизирована с вероятностью. Поэтому нам нужно объединить их, чтобы сбалансировать веса.
Мы можем сделать приведенные выше веса немного более гладкими (ограниченными).
В настоящее время,Диапазон значений. Функция потерь перебалансированного FL (R-FL)
Затем NTR обрабатывает одни и те же образцы начала и конца этикетки по-разному, вводя коэффициент масштабирования.и присущее классу предубеждениеснизить порог хвостовой категории и избежать чрезмерного подавления
Для образцов хвоста,; для головных проб,.Его можно оценить путем минимизации функции потерь в начале обучения с коэффициентом масштабирования, категория предварительной информации,но
Наконец, путем интеграции веса перебалансировки и NTR, потери, сбалансированные по распределению, равны
Result
Два набора данных для экспериментов автора следующие:
Используемая модель - SVM для сравнения эффектов различных функций потерь.
Персональное резюме
Эта статья новаторская, но не новаторская.Все функции потерь предложены другими, а моя работа представляет собой просто сравнение набора данных с несколькими метками. В конце концов, воин чистой любви выразил свою печаль